伊利亞·蘇茨克維爾表示,具有推理能力的人工智能將變得不那麼可預測 | 路透社
Jeffrey Dastin
伊利亞·蘇茨克維爾,OpenAI的聯合創始人和首席科學家,在以色列特拉維夫大學的演講中發言,時間是2023年6月5日。路透社/阿米爾·科恩/檔案照片温哥華,12月13日(路透社) - 前OpenAI首席科學家伊利亞·蘇茨克維爾,人工智能領域的知名人物之一,週五發表了一個預測:推理能力將使技術變得更加不可預測。
在接受“時間考驗”獎時,他的2014年論文與谷歌的(GOOGL.O)奧里奧爾·維尼亞爾斯和阮國,蘇茨克維爾表示,人工智能的前景將發生重大變化。他説,他的團隊十年前探索的一個想法,即通過“預訓練”AI系統來擴大數據規模,將使其達到新的高度,正開始達到極限。更多的數據和計算能力導致了OpenAI在2022年推出的ChatGPT,受到了全球的讚譽。
“但我們所知的預訓練無疑將結束,”蘇茨克維爾在温哥華的NeurIPS會議上對數千名與會者宣稱。“雖然計算能力在增長,”他説,“數據並沒有增長,因為我們只有一個互聯網。”
蘇茨克維爾提供了一些方法來推動這一困境的前沿。他説,技術本身可以生成新的數據,或者AI模型可以評估多個答案 然後為用户選擇最佳響應,以提高準確性。其他科學家已將目光投向現實世界的數據。但他的演講以對未來超級智能機器的預測結束,他表示“顯然”在等待着這一點,某些人對此表示不同意見。今年,Sutskever共同創辦了 安全超級智能公司,這是在他在Sam Altman短暫被迫離開OpenAI後的結果,他在幾天內表示對此感到遺憾。他説,長期以來一直在開發的AI代理將在未來時代實現,具有更深的理解和自我意識。他表示,AI將像人類一樣推理解決問題。
但有一個問題。
他説:“它推理得越多,就變得越不可預測。”
通過數百萬個選項進行推理可能使任何結果變得不明顯。舉個例子,Alphabet的DeepMind構建的系統AlphaGo以其難以理解的第37步令複雜棋類遊戲的專家感到驚訝,最終在2016年的一場比賽中擊敗了李世石。
Sutskever同樣表示:“國際象棋AI,真正優秀的那些,對最好的國際象棋選手來説是不可預測的。”
他説,我們所知道的AI將是“截然不同的”。
路透社日報簡報提供您開始一天所需的所有新聞。請在 這裏註冊。
報道由傑弗裏·達斯廷和安娜·湯在温哥華撰寫;編輯:薩姆·霍爾姆斯
- 建議主題:
- 人工智能