伊利亞·蘇茨克沃:那位告知薩姆·阿爾特曼被解僱的OpenAI天才——《華爾街日報》
Robert McMillan
上週五,伊利亞·蘇茨克維給他的老闆兼董事會同事山姆·阿爾特曼發了一條短信。太平洋時間中午能開個視頻會議嗎?
通話中還有OpenAI董事會的其他成員,但傳達消息的是公司首席科學家兼聯合創始人蘇茨克維。阿爾特曼被解僱了,“消息很快就會公佈。”
這次會議引發了一個週末的動盪、OpenAI員工的集體抗議,最終以蘇茨克維的道歉收場。週一他在X平台(原推特)上寫道:“我對自己參與董事會行動深感後悔。”
這對蘇茨克維來説是戲劇性的72小時,也是他15年曆程的高潮——從一個擺弄冷門算法的年輕研究生,成長為發動董事會政變罷免硅谷最具影響力人物之一的領導者。
OpenAI首席科學家伊利亞·蘇茨克維是人工智能領域備受尊崇的技術先知。照片:jack guez/法新社/Getty ImagesSutskever是人工智能領域備受推崇的技術遠見者。在以色列開放大學短暫工作後,他轉至多倫多大學。起初,他的研究顯得極具實驗性。2010年《多倫多大學雜誌》的專題報道描述,Sutskever開發的軟件生成了類似維基百科但毫無意義的條目,例如“阿克爾瑪的阿爾塞西亞小調(包含)夏威夷州卡西奧儀式”。
但在2012年,他因合著一篇論文而聲名鵲起,該論文展示了Sutskever與多倫多大學同事共同研究的“深度學習”算法的非凡能力。這篇與Geoffrey Hinton和Alex Krizhevsky合著的論文證明,深度學習能以前所未有的水平解決模式識別問題。這引發了一場探索深度學習新應用的競賽——一年後,三位研究者均加入了谷歌。
在谷歌期間,Sutskever參與了公司最先進的AI系統TensorFlow的開發。
到2016年,Sutskever成為OpenAI的首席科學家,專注於兩個核心理念:一是AI系統可能實現人類級別思維(即人工通用智能AGI);二是若這些系統未能與人類價值觀“對齊”,將可能帶來危險。
“他聰明絕頂,但最廣為人知的成就是在OpenAI的工作,希望他別搞砸了。”華盛頓大學研究人工智能的名譽教授奧倫·埃齊奧尼説道。
據熟悉董事會想法的消息人士透露,被罷免的OpenAI首席執行官薩姆·奧爾特曼(淺色褲子)與公司首席科學家伊利亞·蘇茨克沃(深藍色西裝)在安全問題上存在衝突。圖片來源:Jack Guez/AFP/Getty Images現任和前任員工形容方下巴、神情嚴肅的蘇茨克沃以近乎宗教般的狂熱對待人工智能問題。去年年底的一次全體會議上,他告訴員工:‘如果你醒來和入睡時都感受不到通用人工智能(AGI),你就不該待在這家公司。’知情人士稱,蘇茨克沃曾向員工表示,他擔心未來AGI系統會像人類現在對待動物那樣對待人類。
在今年早些的一次播客訪談中,德克薩斯大學奧斯汀分校計算機科學家、現於OpenAI從事安全工作的斯科特·阿倫森描述了與蘇茨克沃的每週通話:‘我會彙報進展…而他會説‘這很棒斯科特,你該繼續研究。但我們真正想知道的是——如何用數學定義AI愛人類的意義?’’
近年來,蘇茨克維對人工智能安全問題日益關注。在OpenAI,他領導公司的超級對齊團隊,該團隊旨在利用公司20%的計算能力,確保所構建的AI系統不會對人類造成危害。
雖然阿爾特曼被罷免的具體原因尚不明確,但熟悉董事會想法的消息人士稱,蘇茨克維與阿爾特曼在安全問題上存在衝突。在週日晚上發送給OpenAI員工的備忘錄中,公司剩餘四位董事會成員表示,這並非解僱阿爾特曼的原因。“山姆的行為及其與董事會互動中缺乏透明度,削弱了董事會有效監督公司的能力,“他們寫道。
蘇茨克維和其他董事會成員選擇接替阿爾特曼的人選埃米特·希爾曾在9月表示,出於安全考慮,他支持放緩AI發展速度。“如果我們現在的速度是10,暫停意味着降到0。我認為我們應該以1-2為目標,“希爾在X上寫道。
週一早上,蘇茨克維在X上發文收回自己的行動。“我從未想過傷害OpenAI,“他説。“我熱愛我們共同構建的一切,我將盡一切努力讓公司重新團結起來。”
阿爾特曼迅速回應了蘇茨克維的X貼文,將其轉發給自己的200萬粉絲,並附上三顆紅心。
迪帕·西塔拉曼對本文有所貢獻。
聯繫羅伯特·麥克米倫,郵箱:[email protected]
刊登於2023年11月22日印刷版,標題為《告知阿爾特曼被解僱的OpenAI天才》。