解釋:高級人工智能模型在錯誤的手中會帶來哪些風險?| 路透社
Reuters

第1項2項AI(人工智能)字母和機器手放置在計算機主板上,此插圖攝於2023年6月23日。路透社/達多·魯維奇/插圖/文件照片
AI(人工智能)字母和機器手放置在計算機主板上,此插圖攝於2023年6月23日。路透社/達多·魯維奇/插圖/文件照片 華盛頓,5月9日(路透社)- 拜登政府準備在保護美國免受中國和俄羅斯侵害的努力中開闢新的戰線,初步計劃在最先進的AI模型周圍設置防護欄,路透社週三報道。政府和私營部門的研究人員擔心美國的對手可能會利用這些模型,這些模型挖掘大量文本和圖像以總結信息並生成內容,以發動激進的網絡攻擊,甚至製造強大的生物武器。
以下是AI帶來的一些威脅:
深度偽造和虛假信息
深度偽造 - 由AI算法訓練而成的逼真但虛構的視頻 - 正在出現 在社交媒體上,在美國政治兩極分化的世界中模糊了事實和虛構。儘管這種合成媒體已經存在了幾年,但在過去一年中,由Midjourney等一系列新的“生成AI”工具推動,使其變得便宜且容易創建令人信服的深度偽造。
由OpenAI和Microsoft等公司提供支持的人工智能圖像創建工具,可以用來製作可能促進選舉或與投票相關的虛假信息的照片,儘管每家公司都有反對創建誤導性內容的政策,研究人員在三月份的一份報告中説。報告中提到,一些虛假信息宣傳活動簡單地利用人工智能模仿真實新聞文章的能力來傳播虛假信息。儘管像Facebook、Twitter和YouTube等主要社交媒體平台已經努力禁止和刪除深度偽造視頻,但它們在監管此類內容方面的效果各不相同。
例如,去年,一家中國政府控制的新聞網站利用生成式人工智能平台推動了先前流傳的虛假主張,聲稱美國在哈薩克斯坦設立了一個實驗室,用於製造生物武器以對付中國,國土安全部(DHS)在其2024年的國土威脅評估中表示。
國家安全顧問傑克·沙利文在華盛頓舉行的一次人工智能活動上表示,這個問題沒有簡單的解決方案,因為它結合了人工智能的能力和“國家、非國家行為者的意圖,以大規模使用虛假信息來破壞民主,推動宣傳,塑造世界的看法”。
他説:“目前,攻擊方在很大程度上領先於防禦方。”
生物武器
美國情報界、智庫和學者越來越擔心外國惡意行為者獲取先進人工智能能力所帶來的風險。研究人員在Gryphon Scientific 和 Rand Corporation 指出,先進的人工智能模型可以提供信息,有助於製造生物武器。Gryphon 研究了大型語言模型(LLM)- 從大量文本中提取信息以生成對查詢的響應的計算機程序 - 如何被敵對行為者利用來在生命科學領域造成傷害,並發現它們“可以提供信息,有助於惡意行為者製造生物武器,通過提供有用、準確和詳細的信息來幫助在這一過程的每個步驟中”。
例如,他們發現,LLM 可以為處理具有大流行病能力的病毒時出現問題提供博士後水平的知識。
Rand 的研究顯示,LLM 可以幫助規劃和執行生物襲擊。他們發現,例如,LLM 可以建議肉毒桿菌毒素的氣溶膠傳遞方法。
網絡武器
國土安全部 表示網絡行為者 可能會利用人工智能“開發新工具”,以“實現更大規模、更快速、更高效和更難以察覺的網絡攻擊”,針對包括管道和鐵路在內的關鍵基礎設施,在其2024年國土威脅評估中。中國和其他對手正在開發可能破壞美國網絡防禦的人工智能技術,國土安全部表示,其中包括支持惡意軟件攻擊的生成式人工智能程序。
微軟在二月份的一份報告中表示,他們追蹤到與中國和朝鮮政府以及俄羅斯軍事情報部門、伊朗革命衞隊有關的黑客組織,這些組織試圖利用大型語言模型完善他們的黑客攻擊活動。
《科技週報》會將最新消息和趨勢直接送到您的收件箱。立即在這裏註冊。