?有圖有視頻未必是真相
“黑化”AI成造謠工具

《中國經濟周刊》記者 鄭雪 | 北京報道

西安發(fā)生了大爆炸?運鈔車遭遇武裝搶劫并發(fā)生激烈槍戰(zhàn)?比亞迪要收購蔚來?一則則聳人聽聞的消息是真的嗎?

監(jiān)管部門調查發(fā)現(xiàn),上述消息都是借助人工智能(以下簡稱“AI”)工具編造,動機則是為了流量。

相關專家在接受《中國經濟周刊》記者采訪時表示,隨著AIGC技術的不斷進步和易獲取,文生圖和文生視頻被用于制造虛假信息。“黑化”的AI技術和謠言的結合,不僅使得謠言數(shù)量增加,也使謠言更加難以判斷。未來可以考慮用技術發(fā)展,特別是利用AI對抗AI謠言。

亂象:謠言數(shù)量和逼真程度大幅提升

隨著AI技術的快速發(fā)展,內容創(chuàng)作的門檻降低、時間縮短。例如文本創(chuàng)作,只需輸入幾個關鍵詞,AI便可迅速提供包含人物、時間、地點、事件的相關內容。

在此背景下,有人為了博眼球、蹭熱度,甚至使用AI技術變造“偽消息”“假新聞”來獲得關注和流量。

如近期有網(wǎng)絡傳聞,一名疑似比亞迪的員工發(fā)文稱,比亞迪要和蔚來合作成立比未來汽車集團。

此后有媒體從合肥市公安局經開分局確認,該謠言系29歲外省男子謝某所做,利用AI軟件合成不實圖文上網(wǎng)傳播,其目的是為提升自媒體賬號的知名度、博取流量。

不只是文字,“有圖有真相”的視頻也可能被AI偽造。

今年6月,一條“廣東省五華縣華陽鎮(zhèn)一70多歲老人被毆打致昏迷,其孫子為此跳河自殺,打人者一審被判九年十個月”的短視頻在互聯(lián)網(wǎng)平臺傳播,引發(fā)大量關注。后經公安網(wǎng)安部門確認,視頻全由AI合成。

AI技術造謠的背后不乏MCN機構的參與。

央視新聞今年6月報道了一起案例,“西安爆炸”消息背后,便是江西南昌一家MCN機構推波助瀾。據(jù)警方調查,這家MCN機構發(fā)布的數(shù)條涉嫌網(wǎng)絡造謠的信息,系通過AI軟件生成內容制作。

這家MCN機構短時間內生成了大量文章,最高峰一天能生成4000至7000篇,最高的一條收入700元,初步估算每天的收入在1萬元以上。

中國社會科學院大學互聯(lián)網(wǎng)法治研究中心主任、副教授劉曉春在接受《中國經濟周刊》記者采訪時說,在生成式AI浪潮之前,網(wǎng)絡上也存在使用網(wǎng)絡機器人制作內容的情況,如評論區(qū)的某些內容、常見的水軍等。但這波AI浪潮出現(xiàn)后,謠言不僅數(shù)量有了大幅增加,其逼真程度也讓人難以判斷。

“以前的內容還有一些明確特征可以判斷是機器生成,而現(xiàn)在以假亂真的水平較高,公眾很難看出這是AI生成的謠言。”劉曉春說。

同濟大學法學院助理教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員朱悅在接受《中國經濟周刊》記者采訪時提示,AI是不會疲憊的,當被有心人利用,其批量生產謠言的潛力會被無限放大。

AI造謠背后,不只個人受影響,企業(yè)也深受其害。

今年4月,清華大學新聞與傳播學院新媒體研究中心發(fā)布了報告《揭秘AI謠言:傳播路徑與治理策略全解析》。報告稱,2023年以來,網(wǎng)絡謠言整體態(tài)勢平穩(wěn),但AI謠言量近半年增長65%。其中,經濟與企業(yè)類謠言占比最高,達到43.71%。

今年5月科大訊飛曾遭遇AI“小作文”,造成當日午后股價跳水,盤中一度跌超9%。

解決:用AI技術對抗AI謠言

相關部門已經陸續(xù)出臺了多個文件,如《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等,對平臺在內容治理中的責任和義務予以明確。

據(jù)記者不完全梳理,AI造謠鏈條環(huán)節(jié)中,主要涉及四個參與方:技術提供者、使用AI技術造謠的人或機構、平臺以及轉發(fā)相關謠言的用戶。當前的法律法規(guī)對于后三個參與方都有相關規(guī)范。技術提供者是否需要承擔責任?又該承擔何種程度的責任?

朱悅提示,對于上述問題的回應要考慮發(fā)展、安全相平衡。一方面,如果是作為一個純粹的技術提供者并不參與后續(xù)傳播,一般不適合給予太重的義務或者責任;另一方面,考慮技術提供者是從源頭提供的技術服務,那么他在算法、結果輸出方面需要做一些平衡設計,如添加一定的標識、留存相應的日志信息等。

值得注意的是,標識成為當下防范虛假內容的重要手段之一。AI生成內容亦真亦假,添加標識不僅起到提示作用,還可幫助確認信息來源。

今年9月份國家互聯(lián)網(wǎng)信息辦公室就《人工智能生成合成內容標識辦法(征求意見稿)》(以下簡稱“征求意見稿”)公開征求意見。

“征求意見稿不僅要求技術提供方要做明顯標識,也要求傳播平臺提供相應標識以明確某內容是否為AI生成。通過標識明確AI生成內容,減少誤導,減弱虛假信息的傳播效果?!眲源赫f。

對于包含謠言在內的虛假信息治理是全世界的共同課題,AI虛假信息的治理,離不開技術。

“可以考慮用AI對抗AI謠言。通過總結謠言規(guī)律,研發(fā)相應的技術模型,以解決AI謠言的問題。”劉曉春說。在她看來,AI造謠還需事后采取相關機制減弱影響。如對某些高頻傳播謠言的賬號予以管控,強化事后辟謠、建立舉報機制等。

近期,來自OpenAI、哈佛大學、微軟、牛津大學的研究者共同撰寫了一篇題為《Personhood creden-tials:Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online》(人格證書:人工智能時代的隱私保護真人驗證工具)的文章。文章提出,可通過人格證書(Personhood Credentials)這種在線身份驗證工具,對抗由AI驅動的包含虛假信息在內的各種行為。

“未來時代的人,疊加AI技術,生產信息的能力會大幅提高,也可能生產謠言。文章提及的人格證書,可以視為通過加強驗證的方式防范上述情況產生?!敝鞇傉f。


頂部