不,人工智能機器不會思考——《華爾街日報》
Andy Kessler
做好準備吧。不久之後,數字精英們就會宣佈人工智能機器已通過圖靈測試,超級智能與有感知能力的計算機時代就此來臨。他們許諾的應許之地是人工通用智能(AGI)。但請別上當——你顱腔內的內在聲音和自我意識會告訴你原因。
1950年,計算機先驅艾倫·圖靈提出一個簡單的"模仿遊戲"測試來回答"機器能思考嗎?":如果審訊者通過盲測無法根據回答區分機器與人類,則判定機器能思考。圖靈預測到2000年,機器在五分鐘對話後能有70%概率模仿人類。隨後他又推翻自己的分析,認為"‘機器能思考嗎’這個問題本身毫無意義,不值得討論"。圖靈測試本質只是檢驗機器能否愚弄人類——不妨查查動詞"模仿(ape)“的本義。
儘管如此,危言聳聽者仍大行其道。在硅谷的雞尾酒會上,“你的p(末日)值是多少?“已成為流行談資。這個極客指標用來衡量AI滅絕人類的概率,許多人給出的數值超過30,而我的答案是零。
簡單的圖靈測試存在諸多缺陷。你以為AI會產生幻覺或胡編亂造?現實中許多會思考的"機器”(你知道的,那些有皮膚的)同樣荒誕:男人能懷孕,無聊猿NFT價值連城,男人髮髻,和平抗議。
Inflection AI首席執行官、被谷歌收購的DeepMind聯合創始人穆斯塔法·蘇萊曼近期提出一項新圖靈測試:給機器10萬美元,觀察它能否通過阿里巴巴等電商平台將資金增值到100萬美元。這很荒謬——按此標準,連垃圾郵件機器人也算得上智能!
19世紀數學家阿達·洛芙萊斯的思想遠超時代。她對查爾斯·巴貝奇1837年發明的早期計算機"分析機"寫道:“它不具備任何創造能力,只能執行我們明確指令的任務。“真正的洛芙萊斯測試或許是:“AI能否產生真正原創的內容?“且需令人愉悦性,而非如諺語所説讓一千隻猴子亂打出的小説。電影、音樂和藝術同理。倫斯勒理工學院教授塞爾默·布林斯約德2001年就提出"(更優)洛芙萊斯"測試來檢測創造性。
我們真正需要的是對思考、智能和感知的準確定義。計算機已在許多任務上超越人類——除非你是"雨人”,否則電子表格算加法比你快;優步調度優於人工;2016年穀歌展示的計算機在圍棋中擊敗人類;1997年IBM"深藍"通過每秒計算數億步棋路,戰勝國際象棋大師(兼《華爾街日報》撰稿人)加里·卡斯帕羅夫;IBM"沃森"甚至贏得電視競答節目《危險邊緣》。這些成就固然驚人,但……
但這些是有限系統。我們姑且稱之為二維世界。國際象棋有64個方格,雙方各16枚棋子,遵循既定規則。OpenAI為ChatGPT開發的大型語言模型擁有上萬億參數(其中許多涉及版權爭議)和龐大服務器羣,但終究存在邊界。在規則明確的世界裏,算力決定一切。
然而現實生活沒有規則。人類是三維、四維乃至無限維度的存在。我們擁有近乎無限的選擇自由——儘管常被道德與宗教規範約束(而這些約束也常被無視)。法律維持着社會秩序,但多數人仍保有自由意志。據萊斯特大學研究者估算,人類每天要做超過3.5萬次有意識決策。要模擬人類,計算機需處理10的10萬次方量級的可能選擇(約等於3.5萬的階乘)——這個數字連天文學家都難以想象。
批評者將生成式AI和ChatGPT貶為"自動補全工具"或更刻薄的"隨機鸚鵡”。實則它能同時分析數千詞語的關聯模式。但AI真正的智慧源自詞語與句子間嵌入的人類邏輯,這足以實現基礎推理。AI的真正潛力尚未完全釋放,但要説它能思考?我站圖靈這邊。
為何?因為生命充滿變化與驚喜。人類被賦予遠超理性範疇的諸多矛盾特質:共情、歡愉、野心、創造力、情感、愛、忠誠、幽默、責任感、信仰、信任、喜悦、絕望、直覺、固執。再加上弗洛伊德的本我與自我、內心聲音、自我意識、靈魂。真正的通用人工智能需要模擬這一切。
AI的發展軌跡令人驚歎,將在許多二維邊界內的領域超越人類。如今的AI只是模式匹配的超級機器。有知覺?會思考?或許能矇騙部分人,但我認為遠未實現。電影《銀翼殺手》中,通過檢測脈搏和瞳孔反應的沃伊特-坎普夫測試能區分人類與複製人。在荒謬的"AI有意識"論調掩蓋現實前,我們需要這種現代版無可辯駁的圖靈或洛夫萊斯測試——提示:AI可能不擅長雙關語和悖論。
聯繫郵箱:[email protected]
圖片來源:英國王室版權2021年/路透社刊載於2024年1月8日印刷版,標題為《不,AI機器不會思考》