會問因果,才是真正的“智能”_風聞
风云之声-风云之声官方账号-2019-08-13 09:21
【本文作者Yitong,中信出版集團高級編輯,文中部分內容整合自《為什麼:關於因果關係的新科學》,風雲之聲獲授權發佈此文】
每當別人跟我提起“無人駕駛”汽車技術如何強大,又被大眾賦予了怎樣的期待,我都會想起HBO電視劇Silicon Valley《硅谷》中的一個情節:
硅谷大亨風險資本家Gregory的助手安排了一輛無人駕駛汽車送創業公司的小員工Jared回家,本以為這個劇情只是為了詮釋一種硅谷式傲慢,剛上車時一切也都很順利,誰知路程走了一半,這輛汽車突然開始執行日程中之前設置好的指令,罔顧乘客Jared高呼着“Stop”和“Help”,自顧自的奔向了另一個目的地:四千英里開外的一個荒無人煙的海中孤島。
電視劇《硅谷》截圖
Jared最終得救了,就在我以為劇情要改為《荒島餘生》後。對多數觀眾而言這只是劇中設置的一個黑色笑點,而藝術本就源於現實,在現實中,若無人駕駛的汽車突然失控,會導致怎樣的後果才是真的難以想象。
2016年5月7日,美國佛羅里達州,一位駕駛特斯拉Model S的車主使用了自動駕駛(Auto Pilot)模式後,發生車禍並身亡。這是第一起自動駕駛模式下的致死車禍,這次事故也讓所有為無人駕駛狂熱的人們不得不直面這項技術帶來的安全隱憂。
特斯拉曾發佈消息:
“無人車的正確率達到99%相對容易,但要達到99.9999%卻要困難的多,而這才是我們最終的目標,因為以70英里每秒行駛的車如果出現故障後果不堪設想。”
特斯拉並沒有説100%。
在未來,即便這些科技公司聲稱無人駕駛的技術已經發展到無比成熟,或許依然有人很難放心的坐上一輛無人駕駛的汽車,從心理角度來説,這類汽車相對“自我操控”而言永遠都“不夠安全”。
無人駕駛技術的巨大發展離不開深度學習算法,而在貝葉斯網絡之父朱迪亞·珀爾(Judea Pearl)的眼裏,深度學習,恰恰是人工“不”智能的體現,因為其研究對象是相關關係而非因果關係,處於因果關係之梯的最底層。珀爾曾在《量子雜誌》採訪中説到:深度學習取得的所有巨大成就在某種程度上都不過是對數據的曲線擬合而已。從數學層次的角度來看,不管你如何巧妙地操作數據,以及你在操作數據時讀取的內容,它仍然是一個曲線擬合的訓練過程,儘管它看起來比較複雜。
人工智能的發展在很多方面都得益於珀爾早期的研究,他卻在最新著作《為什麼:關於因果關係的新科學》中推翻了自己,珀爾認為當前的人工智能和機器學習其實處於因果關係之梯的最低層級,只可被動地接受觀測結果,考慮的是“如果我看到……會怎樣”這類問題。而強人工智能,則需要實現第三層級的“反事實”推理。
例如,如果無人駕駛汽車的程序設計者想讓汽車在新情況下做出不同的反應,那麼他就必須明確地在程序中添加這些新反應的描述代碼。機器無法自己弄明白手裏拿着一瓶威士忌的行人可能對鳴笛做出不同反應,處於因果關係之梯最底層的任何運作系統都不可避免地缺乏這種靈活性和適應性。所以説,無法進行因果推斷的人工智能只是“人工智障”,是永遠不可能透過數據看到世界的因果本質的。
因果關係之梯的每一層級都有一種代表性生物
(來源:《為什麼:關於因果關係的新科學》馬雅·哈雷爾繪圖)
2016年3月,AlphaGo以4比1的成績戰勝了多年來被認為是最強的人類頂尖圍棋高手李世石,震驚了世界,在為人們帶來危機感的同時,也點燃了很多人對人工智能發展的暢想。
可惜,這一人工智能壯舉只能證明:對讓機器完成某些任務來説,深度學習是有用的。人們最終意識到,在可模擬的環境和狀態下,AlphaGo的算法適用於大規模概率空間的智能搜索,而對於那些難以模擬的環境裏的決策問題(包括上文提到的自動駕駛),這類算法也還是束手無策。深度學習採用的方法類似卷積神經網絡,並不以嚴謹或清晰的方式處理不確定性,且網絡的體系結構可以自行發展。完成一個新的訓練後,程序員也不知道它正在執行什麼計算,或者為何它們有效。
AlphaGo團隊並沒有在一開始就預測到這個程序會在一年或者五年內擊敗人類最好的棋手,他們也無法解釋為什麼程序執行能產生這樣好的結果。如果機器人都如同 AlphaGo一般,缺乏清晰性,那麼人類也無法與他們進行有意義的交流,使之“智能”的工作。
假定你的家中有一個機器人,當你睡覺的時候,機器人打開了吸塵器,開始工作,在這時你告訴它,“你不該吵醒我。”你的意圖是讓它明白,此時打開吸塵器是錯誤行為,但你絕不希望它將你的抱怨理解為不能再在樓上使用吸塵器。
那麼此時機器人就必須理解背後的因果關係:吸塵器製造噪音,噪音吵醒人,而這會使你不高興。
這句對我們人類而言無比簡短的口令實際包含了豐富的內容。機器人需要明白:你不睡覺的時候它可以吸塵,家中無人的時候它也可以吸塵,又或者吸塵器開啓靜音模式的時候,它仍然可以吸塵。這樣看來,是否覺得我們日常溝通所含的信息量實在是太過龐大?
一個聰明的機器人考慮他/她的行為的因果影響。
(來源:《為什麼:關於因果關係的新科學》馬雅·哈雷爾繪圖)
所以説,讓機器人真正“智能”的關鍵在於理解“我應該採取不同的行為”這句話,無論這句話是由人告訴它的,還是由它自己分析所得出的結論。如果一個機器人知道自己當前的動機是要做 X=x0,同時它能評估一下,説如果換一個選擇,做 X=x1,結果會不會更好,那它就是強人工智能。
《人類簡史》的作者尤瓦爾·赫拉利(Yuval Noah Harari)認為人類發展出描繪虛構事物的能力正是人類進化過程中的認知革命,反事實推理是人類獨有的能力,也是真正的智能。人類的每一次進步與發展,都離不開反事實推理,想象力幫助人類生存、適應並最終掌控了整個世界。若想實現真正的強人工智能,則應嘗試將因果論提供的反事實推理工具,真正加以應用。
針對能否開發出具備自由意志的機器人的問題,珀爾的答案是絕對會。他認為:人們必須理解如何編程機器人,以及能從中得到什麼。由於某種原因,就進化方面而言這種自由意志在計算層面也將是需要的。機器人具備自由意志的第一個跡象將是反事實溝通,如“你應該做得更好”。如果一組踢足球的機器人開始用這種語言溝通,那麼我們將知道它們具備了自由意志。“你應該傳球給我,我剛才一直在等,但你沒有把球傳給我!”這種“你應該”的句式意味着你本應該做什麼,但是沒做。因此機器人產生自由意志的第一個徵兆是溝通,第二個是踢出更好的足球。
以前人們討論強人工智能大多隻限於哲學層面,學術界也一直對“強人工智能”保持着謹慎的態度,並不敢抱有太多奢望。但科學的進步從不因失敗而停止,不管是無人駕駛,還是其他各項人工智能技術的發展,最終都依賴於“人”,人類會研究出能夠理解因果對話的機器人嗎?能製造出像三歲孩童那樣富有想象力的人工智能嗎?回答這些問題的關鍵依然離不開“人:如果人類自身還無法理解因果之梯,又要怎麼樣使“人工”變得“智能”?
機器不必複製人類,卻可以比人類表現的更優秀,這着實是一個可怕的事實。若是能用因果關係來取代關聯推理,沿着因果關係之梯,走入反事實推理的世界,那麼機器的崛起便不可阻擋。珀爾在書中為如何實現這一目標給出了相當清晰通俗的講解。
回想起來,其實我的日常生活與“人工智能”這個詞並沒有產生多少緊密關聯,但我也曾在得知AlphaGo戰勝李世石那個瞬間,產生了一股莫名又強烈的敬畏感。科技的發展速度似乎總是超出我們的想象,打開手機搜索“重大突破”這個關鍵詞,瞬間就會被滿眼的科技快餐所淹沒,機器究竟會變成怎樣?它們又會怎麼對待人類?只有試着去理解因果關係,才能在面對這些問題時,少一些茫然,多一些信念。