陸洪磊、陸慶悠:打破AI謠言“黑箱”,需要社會共治
作者:陆洪磊、陆庆悠
前段時間的日喀則地震牽動了全國人民的心,一組“小男孩被埋”的圖片也引發廣泛關注。然而經警方查證,這組圖片實為人工智能(AI)工具創作,原圖發佈於2024年11月,在地震發生後被造謠者利用。
無獨有偶,美國加州山火尚未平息,“好萊塢巨型標誌牌被山火吞沒”的影像在社交平台流傳。然而事實上山火併未波及標誌牌附近區域,視頻中標誌牌也存在拼寫錯誤。
雖然地點不同,但接連兩起利用恐慌情緒、借AI傳播謠言的事件,造成了惡劣的影響。AI技術在解放生產力的同時,也在多個層面讓謠言更“真實”、危害更大、治理更難。
首先,AI強化了謠言的欺騙性。根據傳播學的認知一致理論,所謂“眼見為實”,是因為視覺信息往往是最直接、最生動的信息來源。如果是深度偽造技術生成的音頻和視頻,多種信源渠道相互印證下還會形成謠言的迴音室效應,讓欺騙性更上一層。
其次,AI擴大了闢謠與造謠間的成本“剪刀差”。在謠言、尤其是涉災等重大事件謠言的早期傳播中,權威信息披露的速度與公眾強烈的信息需求間存在巨大缺口。過去,造謠者還需要通過剪輯等手段偽造圖像,如今AI只需數分鐘就能從無到有生成一張圖像,讓造假門檻大幅降低。另一邊,識別AI圖像的難度卻在提高。AI圖像的識別分析涉及圖像細節真實性、色差等專業領域,十分複雜。同時,AI圖像識別工具的效率相比海量的AI謠言也顯得杯水車薪。此消彼長之下,附帶AI圖像的謠言數量大增,謠言傳播力和破壞力也隨之上升。
最後,現階段使用AI模型生成謠言的過程具有“黑箱”特性,治理難度很大。AI的深度學習模型包含成千上萬個節點和連接,模型的決策邏輯被隱藏在多層神經網絡之中,且模型激活函數通常是高度非線性的,這使得輸出內容與輸入信息之間的關係十分複雜,難以追蹤和理解。這一不透明的操作機制為相關法律法規的制定帶來了挑戰。
那麼,要想有效應對AI造謠,既要前瞻性地在模型搭建過程中引入防火牆等警示機制,打破技術“黑箱”,提高AI審核完整度與透明度;又要做好動態治理,保持對技術濫用現象的持續跟進與嚴厲打擊,提高造謠成本。
具體而言,在技術層面,一方面要在模型中集成異常檢測機制,對異常行為或數據發出警告。另一方面則要完善AI識別工具與數字水印。目前一些AI生成的圖像會在四角位置標註半透明水印,但這類水印很容易被截除。因此,探索混入圖片元數據、難以移除的隱性水印或許可證,並提高識別工具的效率和準確性,是技術防偽的重要方向。
在平台層面,加強內容審核與快速響應機制仍是短期內提高的主要方向。通過高算力AI識別工具進行核查是平台而非用户的主要責任。作為信息傳播的主要關口,平台有責任有義務持續改進審核技術與流程,消除謠言的傳播土壤。
在用户層面,提高媒介素養與信息辨別能力,多問幾個“真的嗎”“為什麼”是建設理性客觀網絡環境的重要方向。例如,“小男孩被埋”謠言傳播過程中,也有不少細心網民發現了圖中小男孩手指數量異常,提出了質疑。AI生成圖像時常會出現如人物不自然、靜物透視失真等細節“崩壞”問題,這都是AI謠言的突破口。另一方面,針對造謠者嚴厲追責並將案例定期公示,是強化用户使用AI工具最好的警示教育。
今天,各項技術正快速迭代,相關治理手段和路徑也應具有前瞻性和動態性。不存在能夠一勞永逸的解決方案,只有建立技術向善的制度保障、強化平台管理能力、提升網民的素質素養,形成社會共治格局,才是與時俱進、實現長治久安的根本之策。(作者分別是清華大學新聞與傳播學院副教授、博士生導師,新聞與傳播學院碩士研究生)