薩提亞·納德拉:發展人工智能必須要有正確的價值觀和設計原則
人工智能發展的軌跡,及其對社會的影響才剛剛開始。要真正把握這個即將到來的時代的意義,我們還需要從多個方面進行深入分析。
人工智能並不是威脅
未來,人工智能將成為一種更常見、更重要的陪伴者。人工智能助理會知道你在工作且有10分鐘的空餘時間,然後幫你完成待辦事項中優先級靠前的事項。人工智能將會讓我們的生活更富成效和更具創造性。
毫無疑問,我們是在創造一個新的物種,一個在智力上可能沒有上限的物種。一些未來主義者預測,所謂的奇點,即計算機智能超越人類智能的時刻,可能會在2100年之前到來,而另一些人聲稱這將仍然只是科幻作品中的暢想。奇點這種可能性聽起來令人振奮,但也讓人覺得有點可怕——也許兩者都有一些。人工智能的發展最終會對人類有益還是有害呢?我堅信是有益的。
斯坦福大學“人工智能百年研究”項目報告指出,到2030年,人工智能和機器人技術將應用在“世界各地那些難以吸引年輕人的行業中,比如農業、食品加工業、訂單履行中心和工廠”。該報告沒有發現有任何理由擔心人工智能是對人類的一種迫在眉睫的威脅,“沒有任何具有自我維持的長遠目標和意圖的機器被開發出來,也不可能在不久的將來開發出來”。

人工智能資料圖(圖/視覺中國)
跳出對抗性思維
為了確保人工智能對人類是有利的這種情況的發生,我們需要跳出“機器對比人類”的框架來思考。科幻作家常常陷入到數字對人類的遊戲中,甚至技術創新者本身也是如此,就好像是雙方在開展一場爭奪霸權的戰爭一樣。
2016年,谷歌DeepMind的阿爾法圍棋(AlphaGo)戰勝了韓國圍棋高手李世石。毫無疑問,這是科學和工程上的巨大成就。但是,除了計算機在遊戲中擊敗人類之外,未來還有更光明的前景。最終,人類和機器將進行合作——而不是相互對抗。想象一下,當人類和機器共同努力解決最大的社會挑戰——疾病、無知和貧困的時候——可能會發生什麼事吧。
現在有太多關於人工智能未來的辯論都忽視了機器和人類合作的潛在之美。我認為,人工智能方面最有成效的辯論並不是善與惡的對抗,而是要看一看創造這種技術的人和機構被灌輸了怎樣的價值觀。如果不用情商來搭配智商使用,人工智能就會走向失敗。
第三代系統平台
有很多先驅都對人工智能的風險進行了思考。科幻作家艾薩克·阿西莫夫(Isaac Asimov)幾十年前就在思考這個挑戰。在20世紀40年代,他提出了“機器人三法則”(Three Laws of Robotics),首先,機器人不應該做出傷害人類的事情,也不應該通過不作為來傷害人類。第二,它們必須服從人類的命令。第三,它們要保護自己。

計算機先驅艾倫·凱(Alan Kay)則表示:“預測未來的最好辦法就是發明它。”從人工智能的角度來説,他的意思基本上是,不要預測未來會是什麼樣子了,而要以一種有原則的方式來創造未來。我同意這個觀點。和任何軟件設計上的挑戰一樣,一個平台在建立之初就應該採取這種有原則的做法。
從軟件開發的角度來説,人工智能正在成為第三代系統平台——也就是下一個系統,程序員在這個系統之上構建和執行應用程序。PC是微軟開發應用程序的第一代系統平台,這些應用程序包括Office工具套件——Word、Excel和PowerPoint等。今天,Web是第二代系統平台。而在人工智能和機器人的世界中,即第三代系統平台,生產力和溝通工具是為一個全新的平台構建的,這個平台做的事情不僅僅是管理信息,還包括從信息中學習,與物理世界交互。
人工智能的發展方向
如今,人們對人工智能發展的方向,正在決定第三代系統平台的面貌。在我們推動人工智能發展的過程中,最重要的步驟就是對人工智能設計達成一個倫理和同理心的框架——這是開發那種不僅規定了技術要求,而且還規定了倫理和同理心的系統的一種方法。人工智能的設計初衷必須是為人性提供幫助,人工智能設計應該要樹立一些原則和目標。
人工智能必須是透明的。不僅僅是技術專家,我們所有人都應該明白技術是如何運作的,其規則是怎樣的;人工智能必須最大限度地提高效率,同時又不會損害人的尊嚴。它應該保護文化承諾,賦權於多樣性;人工智能在設計上必須有注重智能隱私,能夠為個人和羣體信息提供精密的保護,程度要足以贏得人們的信任;人工智能必須具備算法問責制,這樣人類就可以撤銷那些引發意外傷害的做法。我們必須為預期中的和預料之外的情況設計這些技術。
雖然對如何進入人工智能時代,目前還沒有清晰的路線圖,但在以前的工業革命中,我們已經看到社會轉型並不一帆風順,總是充滿艱難與挑戰。但是,如果我們擁有正確的價值觀和設計原則,如果我們為人類所需的技能做好了準備,那麼即使在我們改變世界的同時,人類和社會也會蓬勃發展。
(本文摘自微軟CEO薩提亞·納德拉新書《刷新:重新發現商業與未來》。)

中信出版集團2018年1月出版