ChatGPT的進展將AI虛假信息風險置於聚光燈下 - 彭博社
Joshua Brustein
圖片插圖:731;照片:Alamy2015年1月,新成立的、名字宏大的未來生命研究所(FLI)邀請人工智能專家在波多黎各聖胡安度過一個長週末。結果是一張合影,一份 研究優先事項清單以及一封關於如何調整人工智能研究以獲得最大人類利益的公開信。這些文件的語氣主要是樂觀的。FLI預料到的潛在挑戰之一是自動駕駛汽車將美國每年的4萬起汽車死亡事故減少一半,不是“收到2萬封感謝信,而是2萬起訴訟。”該信承認很難預測人工智能對人類文明的確切影響會是什麼——它列出了一些潛在的顛覆性後果——但也指出“消滅疾病和貧困並非難以想象。”
FLI於3月29日發佈的公開信有所不同。該團體警告稱,人工智能實驗室正在參與“一個失控的競賽,開發和部署越來越強大的數字思維,甚至它們的創造者也無法理解、預測或可靠控制。”它呼籲立即暫停最先進的人工智能研究,吸引了成千上萬的簽名,包括該領域許多知名人士,以及一輪主流媒體報道。
對於試圖理解當前對人工智能的恐慌的任何人來説,這封信在多個層面上都具有啓發性。這是一個生動的例子,説明關於新技術的討論如何從目瞪口呆的樂觀轉變為深沉的悲觀。FLI的副總裁兼董事會秘書安東尼·阿吉雷説,2015年波多黎各活動的氛圍是積極的和友好的。他還幫助起草了最近的信函,受到他認為技術發展中令人不安的轉變的啓發。“當時沒有的是巨大公司之間的競爭,”他説。
回顧過去,擔心自私的科技公司會主導該領域的風險似乎是顯而易見的。但這種擔憂在2015年的文件中並沒有體現出來。還沒有任何提及工業規模的誤導傳播,這是許多技術專家現在認為是強大聊天機器人最令人恐懼的後果之一。
然後是對上個月信函的反應。可預見的是,領先的人工智能公司如OpenAI、Google、Meta Platforms和Microsoft都沒有表明這會導致他們改變他們的做法。FLI還面臨着許多知名人工智能專家的抨擊,部分原因是因為它與極具爭議性的有效利他主義運動和多次利益衝突和引人注目行為而聞名的捐贈人和顧問埃隆·馬斯克有關。
除了硅谷內部的爭吵之外,批評者表示FLI之所以造成傷害並不是因為發表關切,而是因為專注於錯誤的問題。FLI的信中明顯帶有一種存在威脅的色彩,明確提出了人類失去對我們建立的文明的控制的可能性。對於計算機超智能的恐懼在科技圈內是一個長期存在的話題,但同樣存在一種傾向,即極大地誇大了當前處於最新炒作週期中的技術的能力(例如:虛擬現實、語音助手、增強現實、區塊鏈、混合現實和物聯網等)。
預測自動駕駛車輛可能會使交通事故死亡人數減半,並警告AI可能會終結人類文明,似乎處於技術烏托邦光譜的兩端。但實際上,它們都推動了這樣一種觀點,即硅谷正在構建的東西比普通人理解的要強大得多。這種做法偏離了不那麼轟動的對話,並破壞了解決更現實問題的努力,麻省理工學院AI政策論壇的學術聯席主任Aleksander Madry表示。他説:“這實際上是適得其反的。”他談到FLI的信時説:“這不會改變任何事情,但我們必須等待它消退才能回到嚴肅的關注點。”
AI領域的主要商業實驗室正在迅速連續地發佈重大公告。OpenAI不到六個月前發佈了ChatGPT, 緊隨其後推出了GPT-4,在許多方面表現更好,但其內部運作對公司外部的人來説基本上是一個謎。其技術正在為微軟公司發佈的一系列產品提供動力, 這是OpenAI最大的投資者,其中一些產品做出了令人不安的事情,比如表達對人類用户的愛。谷歌匆忙推出了一個競爭性的由聊天機器人驅動的搜索工具, 巴德。Meta Platforms Inc.最近向同意一定參數的研究人員提供了其一個AI模型,然後該代碼很快就在網上其他地方出現了。
“從某種意義上説,我們已經處於最糟糕的情況下,”普林斯頓大學計算機科學教授阿爾温德·納拉亞南説。他表示,最好的人工智能模型由少數幾家公司控制,“而稍舊的模型則廣泛可用,甚至可以在智能手機上運行。” 他表示,他更擔心的是壞人獲取人工智能模型,而不是人工智能的發展發生在公司研究實驗室的閉門之後。
儘管名為OpenAI,但其實際觀點基本相反。在2015年最初成立為一個將產生和分享人工智能研究的非營利組織後,它在2019年增加了一個盈利部門(儘管該部門限制了投資者可以實現的潛在利潤)。 從那時起,它已成為保持人工智能技術嚴密保護的主要倡導者,以防止壞人濫用。
OpenAI less than six months ago 發佈了 ChatGPT。攝影師:Gabby Jones/Bloomberg在博客文章中,OpenAI表示,它可以預見未來將其模型提交獨立審查,甚至同意以關鍵方式限制其技術。但它尚未説明將如何做出這些決定。目前,它認為減少其技術可能造成的損害的方法是限制合作伙伴對其最先進工具的訪問級別,通過許可協議來管理其使用。OpenAI聯合創始人、現任總裁和主席格雷格·布羅克曼表示,對於較老和不那麼強大的工具,控制不一定要那麼嚴格。“你希望有一些差距,這樣我們就有一些喘息的空間來真正專注於安全並做到位,”他説。
很難不注意到這種立場與OpenAI的商業利益如何契合——一位公司高管公開表示,競爭考慮也影響其對公開內容的看法。一些學術研究人員抱怨OpenAI決定限制對其核心技術的訪問會使人工智能變得更加危險,因為這樣會阻礙客觀研究。一位公司發言人表示,他們與獨立研究人員合作,並在發佈最新版本模型之前經歷了六個月的審查過程。
OpenAI的競爭對手對其圍繞人工智能的重大問題的方法提出質疑。“作為一個公民,當那些擁有知識的人説‘這太危險了’時,我總是有點疑惑,”Meta公司AI研究副總裁、麥吉爾大學教授Joelle Pineau説。Meta允許研究人員訪問其AI模型的版本,表示希望外部人員可以探究其中的潛在偏見和其他缺陷。
Meta的方法的缺點已經變得明顯。今年二月底,該公司讓研究人員訪問了一個名為LLaMA的大型語言模型——這項技術類似於ChatGPT所使用的技術。斯坦福大學的研究人員很快表示,他們已經將該模型用作他們自己項目的基礎,近似於投入約600美元的先進人工智能系統。Pineau表示,她尚未評估斯坦福的系統運行情況,儘管她表示這樣的研究符合Meta的目標。
但是,Meta的開放性,從定義上來説,意味着對LLaMA發生的事情控制較少。大約一週後,它在4chan上出現了下載鏈接,這是互聯網惡搞者首選的主要留言板之一。“我們對泄露並不感到高興,”Pineau説。
關於OpenAI或Meta誰的想法更正確,可能永遠沒有明確的答案——這場辯論只是硅谷最古老的爭論的最新版本。但它們不同的道路確實突顯了AI安全保障決策完全由少數大公司的高管來做出的事實。
在其他行業中,潛在危險產品的發佈只有在私人機構向公共機構證明其安全之後才會進行。在3月20日的一篇博客文章中,聯邦貿易委員會警告技術專家,“已經起訴了散佈潛在有害技術而未採取合理措施防止消費者受傷的企業。” 十天後,AI與數字政策中心,一個倡導團體,向委員會提交了申訴,要求停止OpenAI在GPT-4上的工作。
能夠構建某物但選擇不這樣做並不是一個新穎的想法。但這與硅谷快速行動、破壞的持久衝動相悖。雖然AI與社交媒體大不相同,但許多參與這場淘金熱的人之前也參與過社交媒體的競爭。在決策者開始認真回應之前,這些服務已經根深蒂固,而且可以説取得了很少的成就。2015年,似乎還有很多時間來應對AI可能帶來的一切。但今天看來這種説法不太正確。閲讀下一篇:當性聊天機器人拋棄它們的人類戀人會發生什麼