JDD大會《Life 3.0》作者Max Tegmark談人工智能
11月20日,由京東集團、京東數字科技聯合主辦京東JDD-2018京東數字科技全球探索者大會在中國國際展覽中心新館召開,來自科技界、產業界、金融界、學術界、投資界五大圈層的大咖雲集現場,共話數字科技。美國麻省理工學院教授、人工智能領域暢銷書《Life 3.0》作者Max Tegmark受邀參會,並以“如何用人工智能是我們更強大,而不是被制服”為主題發表演講。
Max Tegmark 是美國麻省理工學院物理系終身教授,世界人工智能領域的權威專家,也是未來生命研究所創始人,該組織彙集了包括史蒂芬·霍金、埃隆·馬斯克、比爾·蓋茨、拉里·佩奇在內的8000多名全球頂尖人工智能專家。
談到人工智能及人類的未來,Max Tegmark在演講中表示,技術的力量相當強大,在人工智能的未來應用上,需要注意的是,“別讓技術制服我們,而是賦能我們”。
以下為Max Tegmark現場演講全文:
我今天的發言主題,是技術。技術的發展確實給我們帶來一些負面的影響,但我們也要看到,技術也有很多是正面的。有一個非常好的比喻,就是把人工智能比作發射火箭,如果你想讓人工智能變得非常強大,有一個好的結果,那單有強有力的動力還不夠,我們必須要很好地掌握方向,並且瞭解怎麼樣去應用它。關於人工智能的發展,我認為至少要思考三個方面的問題。
動力
首先,是發展動力的問題。人工智能是一種智能,而不是一個生物性的東西,本質上就是信息處理。我們以前看到機器人不能走路,但是它們現在甚至可以跳躍了;以前我們還沒有自動駕駛汽車,現在已經有了自動飛行火箭;以前人工智能還無法進行人臉識別,現在它們甚至可以生成人臉、模擬人臉;以前人工智能無法在圍棋上打敗我們,AlphaGo和人類對弈,打敗了人類。
也就是説,以前我們對人工智能進行的更多是一些抽象研究,但是現在它已經深入到我們的生活中來。比如説,人工智能在醫學上的應用,使得它甚至比人類的醫生更好,可以更好診斷各種各樣的疾病,從而挽救更多人的生命。對於中國這樣一個步入老齡化的國家而言,人工智能在養老陪護方面也許還能發揮更重要的作用。也就是説,人工智能在很多方面都得了很好的應用,所有這些都是人工智能帶來的積極變化和進步。
我們已經取得了很多在人工智能方面的積極進步,但是依然面臨很多問題。
再舉一個例子,如果把海平面代表人工智能,那隨着氣侯變化、海平面上升,人工智能的能力就會不斷增長。但是面對海平面的上升,我們還必須小心謹慎,要考慮這個海平面會上升多少,是否會把所有的陸地都淹沒。放在對人工智能發展方面的思考,那就是要考慮人工智能是否會替代人類所有的工作?人工智能到底能夠做到什麼地步?
很多人説不要害怕,因為人可以打敗人工智能,可以做很多工作。也有人認為,人工智能可以比人做的好,而且可以進一步創造更高級的人工智能。所以,未來的人工智能還會更強。也就是説人工智能自己可以自我演進,越來越改進,最終成為超級人工智能。
那超級人工智能到底是科幻小説還是應該嚴肅認真對待的話題呢?,我有一個同事認為通用人工智能要過幾個世紀才能發生,另外一位谷歌公司的朋友則説超級人工智能會來的比想象更早。
所以最終的問題是,超級人工智能來了以後會發生什麼?如果機器可以做所有的東西,而且勞動成本更低,那人還有什麼用呢?留給人類的也許只剩一個選擇,那就是隻管造機器就行了。
方向
所以,我們要考慮到人工智能發展的方向,這就是我們火箭發射比喻的第二點。即火箭有了動力之後,必須要考慮到它未來飛行的方向。
我發起的一個組織——生命未來研究所,主要議題就是思考各個國家在人工智能方向該如何發展。我個人是非常喜歡技術的,我對技術是樂觀派。但我認為技術發展的前提是,人要和技術同步成長。我們生活中的許多東西,都是基於不好的教訓發明出來的。比如説着了火,我們才發明滅火器;出了車禍,然後才發明了紅綠燈、安全帶等等。從科學進步角度來説,我們還是需要讓技術變得強大,但是一定要從技術當中要吸取教訓。
比如説發展超級人工智能,我們還是應該積極來考慮。有人説超級人工智能不是什麼好東西,但我認為它也並非就一定是害人的東西,只是我們應該做好“安全工程”。所謂“安全工程”,是指我們要做好應對最壞結果的打算。比如我們在發射衞星前,就要考慮到發射衞星的整個過程中可能有什麼問題,要不然發射之後人在天空中怎麼辦。
技術的發展方向是全球所面臨的問題,任何國家都無法迴避,也無法單獨解決這個問題。但我認為中國在這方面可以發揮更多作用,可以為全球引導出一個正確的人工智能發展方向。一方面是中國有技術,另一方面中國有文化。技術層面,目前中國在人工智能方面已經是一個非常領先的國家,中國的領導人也非常重視人工智能的發展,我瞭解到京東在技術發展方面一直在引領行業。但是同時必須考慮人工智能的安全性問題,這方面,中國是一個擁有古老文明的國度,看待問題目光長遠,所以,中國可以幫助全球制定一個全球共同認同的目標。
我所在的生命未來研究所,在2017年1月提出了一個23項人工智能的發展原則——阿西洛馬人工智能原則。在我們的發展原則中,我們認為發展人工智能,一方面要堅決避免武器的競爭,因為從技術角度來説,武器一方面可以保護人,另一方面可以傷害人。我們發展人工智能,一定要避免它們對人造成危害。
阿西洛馬人工智能原則中另外一個重要原則,就是人工智能的發展應該能給人帶來收入增長,改善人的生活品質。目前我們大多數人都認為人工智能可以帶動經濟大幅增長,增長到什麼程度我們不知道,反正是很多人都能從中獲益。那人工智能是否也要考慮“安全工程”的問題呢?比如用人工智能進行基礎決策時,要確保其決策的可信度。所以這就要求人工智能的發展要考慮到價值同盟,價值同盟是什麼意思呢?以超級人工智能為例,我們發明了超級人工智能,一定要讓他理解我們的目標,同意我們的目標,維護我們的目標,這樣才能確保方向不出錯。
目標
那我們的目標到底是什麼呢?這就是我剛才舉的火箭發射例子裏的第三點。火箭有動力了,又有了方向,但是它的目標到底是發射到哪呢?
目前基本沒有人談論人工智能的發展目標。因為所有的人工智能發展目標都是短期的目標、商業性的目標。我們生命未來研究所的阿西洛馬人工智能原則最後一個,也是最重要的一項原則,就是超級人工智能必須得有助於人類才應該繼續發展。中國國家主席曾經提出要構建人類命運共同體,這個人類命運共同體和我們的原則是高度一致的。因為人工智能的力量如此強大,發展到一定階段,要麼就是讓我們共同成功,要麼就是讓我們共同毀滅。所以我們應該站在更高的高度看待這個問題,首先所有的國家都應該共同發展人工智能,但是一定要有長遠的眼光,要考慮風險,否則這很可能是人類歷史上犯的最大的一個錯誤,甚至會帶來整個星球上前所未有的災難,甚至會導致人類的滅絕。為了避免這個最壞的結果,所以需要全球進行合作,一起來解決人工智能“安全工程”的問題,這樣可能帶來我們美好的未來。
總而言之,對於人工智能的發展,我的態度是非常積極的。只是發展的原則應該是技術別超過我們人類的力量,最終應該讓人工智能給我們人類賦能,這樣才是正確的發展方向。