OpenAI和Sam Altman可以通過變得更加開放來重建信任-彭博社
Parmy Olson
Sam Altman可以讓OpenAI的未來更加光明。
攝影師:David Paul Morris/BloombergOpenAI員工現在稱之為“The Blip”的董事會醜聞正在威脅着與其綽號相符 —— 這不應該發生。
該公司最近宣佈了對首席執行官Sam Altman去年十一月被解僱的獨立法律審查結果,並將結果描述為在很大程度上洗清罪名。OpenAI的新董事會“對Altman繼續領導表示充分信任”,這是基於法律公司的分析;科技行業的大部分人已經忘記了這件事,急切地等待今年晚些時候ChatGPT的升級。
但這場醜聞並不是小事,調查結果值得審視。
OpenAI表示,律師證實其董事會並非因為擔心產品安全性或公司財務狀況而解僱Altman。相反,公司與Altman之間存在“信任破裂”,他的行為“並未要求解僱”。這仍然是對OpenAI的更廣泛的保密外衣的譴責,因為它向世界發佈強大的AI模型。隨着包括Alphabet Inc.的Google和Microsoft Corp.在內的少數不透明技術公司控制着商業和社會多年來見過的一些最具變革性的創新,信任變得愈發關鍵。
值得注意的是,OpenAI自己的溝通方式削弱了其信譽。本月早些時候,作為對埃隆·馬斯克的訴訟的回應,它發佈了高管的早期電子郵件,其中包括其首席科學家承認OpenAI分享技術細節是“為了招聘目的”,而不是出於真正的為人類服務的願望。也許OpenAI知道其公開表述在很大程度上被視為幻象。
但Altman可以改變這一點,不僅修復與董事會的信任,還與公眾建立信任,並通過一些關鍵步驟將“開放”重新放回OpenAI。首先,使公司像其名稱所暗示的那樣透明,特別是圍繞其用於訓練模型的數據。我們知道OpenAI四年前使用了45TB的純文本數據來構建其GPT-3模型因為在一篇研究論文中如此説明。但它沒有説明使用了哪些網站,甚至對支撐ChatGPT的新模型更加守口如瓶,稱“競爭環境[和]安全影響”。
發佈訓練數據的細節不會不安全。這隻會使研究人員更容易審查一個已經顯示出在招聘決策中存在種族和性別偏見的工具,根據最近彭博新聞的調查。
它可以揭示用於訓練的網站是哪些 —— 類似於《華盛頓郵報》進行的流行數據集的分析 —— 更好的是,使這些信息易於訪問,以便那些不是程序員的人可以探索它是否存在有害副作用。這將為“社會科學家、監管機構、記者和權利活動人士”打開大門,如Google道德AI團隊的前聯合負責人、目前擔任AI公司Hugging Face Inc首席倫理科學家的瑪格麗特·米切爾所説。
OpenAI擁有安全機制和過濾器,以確保ChatGPT不會説出冒犯性的話,但並沒有説明這些系統是如何運作的。根據Hugging Face的另一位AI科學家Sasha Luccioni的説法,這種情況應該改變。
最後,該公司已經與Axel Springer SE和美聯社等組織簽訂了一些許可協議,向它們支付特別訪問數據以訓練AI模型。但有成千上萬的藝術家和作家的數據已經被未經同意地免費獲取,而且他們沒有資源達成協議。要求OpenAI對其中一些創作者進行補償可能是不現實的,因為這將是昂貴且耗時的。但至少,Mitchell表示,它可以為他們提供一個選擇退出讓其內容用於訓練AI的系統。
OpenAI的女發言人拒絕置評。
Sam Altman表示他“很高興整個事情結束了”,據Axios報道,這是指律師事務所WilmerHale的調查。現在那兩位迫使他離開的董事會成員已經離職,他正在與一個更加友好的企業董事會合作,其中包括來自索尼集團、Instacart Inc.和Salesforce Inc.等公司的高管,這可能會使OpenAI的AI發展比以往更快。再加上OpenAI從非營利性質轉變為更廣泛的趨勢,使其引入新的舉報熱線顯得空洞。
Altman被解僱是因為原董事會嚴格遵守了對“人類”的受託責任,他們認為他沒有向他們坦誠,從而損害了OpenAI的使命。他的無罪釋放加強了他在公司的地位,但也使那些看到潛在危害的員工更難開口。這是一個非常渺茫的可能性,但如果Altman至少朝着更加透明的方向邁出一步,這將在一定程度上恢復對企業的信心。當只有少數幾家大公司控制AI的發展時,信任是社會依賴的基礎;目前,這種信任供應不足。
更多來自彭博觀點:
- AI革命需要 芯片、軟件和管道:Liam Denning
- 埃隆·馬斯克對 OpenAI的虛偽是正確的:Parmy Olson
- 開源軟件的價值 將繼續增長:Tyler Cowen
想要更多彭博觀點嗎? OPIN <GO>。網頁讀者,請點擊 這裏 。或訂閲 我們的每日新聞簡報 。