“生西紅柿和生黃瓜不能一起吃了!黃瓜中的分解酶會破壞維生素C,一起吃輕則影響西紅柿中維生素C的吸收,重則可能導致腹瀉、腸胃不適甚至食物中毒。”電話那頭,母親說得頭頭是道,電話這頭的趙女士卻聽得一頭霧水。
隨即,母親發(fā)來一則視頻。趙女士回憶說:“一位滿頭花白頭發(fā)、身著白大褂的‘醫(yī)生’在視頻里侃侃而談‘養(yǎng)生秘籍’,甚至宣稱‘清淡飲食就是只吃素食,完全不吃肉’。我媽把這個‘醫(yī)生’的話奉為圭臬。”但趙女士仔細查看后,在視頻右下角發(fā)現一串幾乎透明的標注——“此視頻由AI輔助生成”。
“后來,我媽戴著老花鏡,在我的指點下找了一會兒才看見那行字。”趙女士無奈地說,“這也不能怪老人,現在AI生成的‘數字人’泛濫,還難辨真假,實在讓人防不勝防。”
有此困擾的并非只有趙女士一家?!斗ㄖ稳請蟆酚浾呓针S機采訪了數十名路人,至少有七成受訪者稱曾刷到過“AI數字人”視頻,并且“難以分清到底是真人還是‘數字人’”,而原因主要在于“找不到有效提示”。
很多人擔憂:真人“數字人”傻傻分不清楚,背后是肖像權侵權乃至敲詐、詐騙等違法犯罪的風險隱患。
是否數字人難辨別
在重慶讀大學的鄭媛瀏覽某社交平臺時,刷到一則帖子——照片里的女生外形溫婉可人,穿搭清爽時尚,很奪人眼球。鄭媛點贊并關注了該賬號。
但不多時,鄭媛卻刷到另一名博主揭露用“AI生成人”起號的內容,被打假的恰恰是她先前所關注的這個賬號。“我仔細翻閱了那個女生的賬號主頁,她并未標明使用AI技術,還在評論區(qū)親切地與其他用戶互動。”面對這樣的局面,鄭媛說自己也“糊涂了”。她后來觀察了一個多星期,找到了該賬號圖片確為AI生成的證據——有網友在其他賬號上發(fā)現了妝容和衣著幾乎一樣的“數字人”,而人物介紹卻完全不同。
習慣在直播間購物的北京市民李菲說,自己經常誤入“數字人”直播間,“數字人”主播侃侃而談介紹商品,手部動作還能隨著她說話的節(jié)奏不斷變動,聲音流暢而自然。
“要仔細看才能看到直播間左側一行‘現直播內容為數字人直播,非真人直播’的小字提醒。”李菲說,自己現在習慣了進直播間“先找小字”,確認主播是否為真人,“但真的‘費眼睛’,不是在犄角旮旯,就是字體幾乎透明,不注意根本看不到”。
袁偉(化名)是某985高校計算機系研究生。他告訴記者:“現在一些AI大模型生成的圖,別說中老年人會誤以為真,很多沒怎么接觸過AI技術的年輕人都不見得能分辨真假。”
他隨即為記者演示,向某AI軟件輸入指令“幫我生成圖片:一個容貌姣好的女性,精細的皮膚紋理,室外自然光”,隨即生成的圖片與真人照片相差無幾,如果不是右下角自帶的水印,只讓人覺得是一張普通的美女照片。“如果說早期的AI軟件大多不能生成自然的手指和人體比例,現在技術進步得很快,生成的手指和人體比例已經比較像樣了,更加大了分辨的難度。”
“這樣的AI生成圖片或視頻,如果不作標識提示,會讓很多人信以為真。”袁偉說。
大量賬號未作標識
記者在某社交平臺上注意到一名為“××AI打假人”的賬戶,其發(fā)帖稱自己將致力于“揪出純AI生成的內容博主,幫小白識別真?zhèn)?rdquo;,還表示“關注了很多AI生成非真實的帥哥美女”。
在其關注列表里有300多個賬號,記者隨機選取了其中20個賬號瀏覽發(fā)現,若沒有看到評論區(qū)“這是AI吧,手指的細節(jié)很詭異”“背景里的文字都是亂碼”等留言,記者第一反應只以為他們是普通的顏值時尚類博主。
這20個粉絲量幾百到幾萬不等的賬號,僅有3個賬號在簡介中寫明“虛擬男友”“AI”“友情提示視頻由虛擬現實技術制作”,兩個賬號主頁的內容經平臺審核后被打上了“疑似包含AI創(chuàng)作信息,請謹慎甄別”的標簽。其余賬號在簡介、內容中并未提及“AI”字眼,平臺的監(jiān)測機制也并未識別到,這些賬號甚至還在評論區(qū)熟稔地與其他用戶互動,讓自己看上去更有“真人感”。
在調查過程中,有超過一半的受訪者向記者表示AI生成的“數字人”和真人難以分辨,相關的提示也并不顯眼。
此外,記者發(fā)現,有人還會特意教人如何繞過平臺的“AI打標”。據了解,目前,各平臺已普遍升級AI內容識別系統(tǒng),要求對AI生成作品進行顯著標注。但在調查中,有分享經驗的博主表示花費不到千元就可以購買所謂的AI工具中預配置的鏡像文件,稱用這些鏡像參數一鍵生成的虛擬人形象可以以假亂真,最大限度規(guī)避平臺的AI內容強制標注機制。
細化標準加大懲處
記者梳理公開信息發(fā)現,實踐中,一些有心人士利用“數字人”形象行不法之事。
據報道,張文宏、雷軍等公眾人物形象曾被利用生成“AI數字人”,用來帶貨、惡搞。一些直播間內,“AI數字人”向中老年人群體虛假宣傳保健品,誘導購買。更有甚者,一些不法分子利用“AI數字人”進行敲詐、詐騙等犯罪。例如,山西忻州公安機關工作發(fā)現,犯罪嫌疑人王某某利用AI技術,制作合成“數字人”新聞視頻引流,進而進行有償發(fā)帖、有償刪帖等敲詐勒索活動。2024年,江西一名65歲老人到銀行辦理業(yè)務,聲稱要貸款200萬元給男朋友“靳東”拍戲,后經調查,老人手機里的“靳東”視頻是AI合成的。
重慶大學網絡與大數據研究院副院長羅勇認為,就價值取向而言,AI產業(yè)發(fā)展不能凌駕于網絡安全之上。對于利用AI技術生成的短視頻,網絡用戶特別是未成年人和老年人由于缺乏必要的鑒別能力,往往會信以為真,由此可能產生負面網絡輿情,甚至對網絡安全造成負面影響。
據受訪專家介紹,當前我國已經出臺了《生成式人工智能服務管理暫行辦法》《互聯(lián)網信息服務深度合成管理規(guī)定》等法規(guī),對“AI數字人”和AI生成內容的標識、數據來源等提出了具體要求。
今年3月,國家網信辦等四部門聯(lián)合發(fā)布《人工智能生成合成內容標識辦法》(以下簡稱標識辦法),通過標識提醒用戶辨別虛假信息,規(guī)范內容制作、傳播各環(huán)節(jié)標識行為,為規(guī)范AI生成內容劃定紅線。該辦法將于9月1日起施行。
中國政法大學教授鄭飛指出,相關規(guī)定一定程度存在落地難的問題。一是監(jiān)管和技術手段有限,難以徹底發(fā)現并糾正違規(guī)行為。例如,一些“AI起號”從業(yè)者通過預置“鏡像參數”生成極為逼真的虛擬人像,從而逃避平臺的強制標注要求。而監(jiān)管部門特別是基層執(zhí)法部門,通常面臨職責不清、執(zhí)法手段和執(zhí)法力量不足的問題;二是部分平臺在一定程度上“管不了”也“不想管”。“管不了”在于平臺管理能力與技術手段欠缺,尤其是一些小型平臺,缺乏足夠的審核人力和技術支持。“不想管”則是背后利益驅動。未明顯標識“AI數字人”或合成內容,會讓受眾誤以為是真人或真實事件,從而更容易引起人們的興趣和好奇心,吸引更多的流量和關注,進而帶來更多的商業(yè)利益。
“以網絡社交平臺為代表的網絡服務提供者在AI生成內容的應用場景中,應當進一步完善用戶使用AI協(xié)議規(guī)定,并強化對AI生成內容的審核。”羅勇說。
鄭飛建議,應從明確標識要求和加大責任追究兩方面發(fā)力。標識辦法明確要求,一旦檢測到AI生成內容,傳播平臺應在發(fā)布內容周邊添加顯著提示標識,并在文件元數據中加隱式標識,確保全流程可溯源。在未來落實過程中,可進一步細化技術標準,比如規(guī)定標識文字的最小高度、對比度、展示時長等,讓標識一目了然。另外,對于不按規(guī)定標注的行為,需要嚴厲處罰:除加大行政罰款、暫停業(yè)務或納入不良信用記錄等行政措施外,還要利用法律手段加大威懾。通過明確、顯著的標識標準和更嚴厲的責任追究,才能從根本上震懾違規(guī)不標注行為,實現“AI數字人”應用的透明化、合規(guī)化。