人工智能:中文科技變得更具説服力 - 彭博社
Catherine Thorbecke
可能改變你想法的技術。
來源:DuKai 攝影師/Moment Mobile/Getty Images
你認為與新興技術工具的互動能否改變你堅定的信念?或者讓你做出你本不會做出的決定?我們大多數人認為自己太聰明瞭,但越來越多的證據表明情況並非如此。
在新一代生成性人工智能技術方面,“説服”的力量已被識別為一種潛在的災難性風險,與模型可能獲得自主權或幫助製造核武器的擔憂並列。此外,旨在影響行為的低風險設計已經在我們日常使用的許多產品中無處不在,促使我們在社交平台上無休止地滾動,或打開Snapchat或Duolingo以繼續“連續使用”。
彭博社觀點失去這個小島對美國海軍將是一個巨大問題MicroStrategy具有出售的波動性通用汽車在中國的道路無處可去最高法院應為跨性別青少年站出來但來自中國的這一新興技術的最新進展引發了新的國家安全擔憂。由美國國務院資助並由一家澳大利亞智庫發佈的新研究發現,中國科技公司正處於創造和部署具有“前所未有的説服能力”的技術的邊緣。
從安全的角度來看,這可能會被北京或其他行為者濫用,以影響政治觀點或製造社會動盪和分裂。換句話説,這是一種在沒有任何戰鬥的情況下制服敵人的武器,這是中國哲學家孫子所倡導的戰爭策略。
這份報告來自澳大利亞戰略政策研究所,上週發佈,指出中國的商業部門“已經是全球領導者”,在開發和採用旨在通過利用生理或認知脆弱性來改變態度或行為的產品方面。為了實現這一目標,這些工具在很大程度上依賴於分析它們收集的個人數據,然後量身定製與用户的互動。該論文指出了一些中國公司,稱它們已經在使用這種技術——涵蓋生成性人工智能、虛擬現實以及新興的神經技術領域——以支持北京的宣傳和軍事目標。
但這也是一個全球性問題。中國的私營部門可能在開發勸説方法方面迅速領先,但它遵循的是美國大型科技公司開發的劇本,以更好地理解其用户並保持他們的參與。應對北京風險將要求我們正確分析我們如何讓科技產品影響我們的生活。但新的國家安全風險,加上人工智能和其他新創新如何迅速提升這些工具的有效性,應該在這個勸説已經深深植根於硅谷產品設計的時刻,成為一個警鐘。
解決這個問題的部分原因是它可能是一把雙刃劍。一個 科學 研究在今年早些時候發佈,發現與AI模型聊天可以説服陰謀論者減少他們的信念,即使在那些表示這些信念對他們的身份很重要的人中。這突顯了大型語言模型的積極“説服力”和它們與個性化對話互動的能力,研究人員表示。
如何防止這些力量被北京或其他不良行為者用於惡意活動,將成為政策制定者面臨的一個日益挑戰,這超出了切斷對先進半導體的訪問。
要求更高的透明度將是一個開始的方法,要求科技公司在內容以可能影響行為的方式進行定製時提供明確的披露。擴大數據保護法,或為用户提供更清晰的選擇退出其信息被收集的方式,也將限制這些工具單獨針對用户的能力。
優先考慮數字素養和教育也是提高對説服技術的認識、算法和個性化內容如何運作、如何識別策略以及避免被這些系統潛在操控的必要措施。
最終,需要更多的研究來保護人們免受説服技術的風險,而這些工具背後的公司領導這一行動將是明智的,像 OpenAI 和 Anthropic 已經開始在AI領域這樣做。政策制定者還應要求公司與監管機構和相關利益相關者分享研究結果,以建立對這些技術如何被對手利用的全球理解。這些信息可以用於制定明確的標準或有針對性的監管。
如此複雜的技術所帶來的風險,可能讓北京操控你所相信的或你是誰的能力,仍然看起來像是一個遙遠的科幻擔憂。但對全球政策制定者來説,賭注太高,不能等到這一切被釋放後再做反應。現在是全球重新審視我們給予科技公司多少個人信息和影響力的時刻。
更多來自彭博社觀點:
- ChatGPT的 $8萬億禮物 給大型科技公司:奧爾森和西爾弗曼
- ChatGPT 尚未足夠重要 以至於需要廣告:戴夫·李
- 特朗普是一個黃金機會。中國將浪費它:裴敏欣
想要更多彭博社觀點? OPIN <GO>****。或者你可以訂閲 我們的每日通訊**。**