如何防範危險?給人工智能“立憲”,大家覺得怎麼樣?_風聞
法国刘学伟博士-法国斯特拉斯堡大学获历史学博士-02-13 08:09
【本文原標題為“人工智能暢想曲”,風聞社區有修改】

【作者按語】
三個月以來,一個人工智能軟件火出天際。那就是無人不談的ChatGPT。其熱度已經遠超2016-2017年擊敗李世石和柯潔的Alpha-Go。筆者想起,當年受其刺激,認認真真寫過兩篇關於人工智能的文章。當時也是廣為傳播。這裏是第一篇。為了回應現在的人工智能熱潮,筆者把它略加修改補充,重新發布,期望對各位非專業人士理解人工智能有所助益。關於ChatGPT,現在已有極多文章面世,其中一些寫得真好。筆者是否也寫一篇,容後再定。
谷歌的AlphaGo與代表人類的韓國圍棋冠軍李世乭的五番圍棋,把已經是相當熱鬧的人工智能問題,擺上了風口浪尖。隨着人類對電腦/人工智能的已經極度嚴重,還在與日俱增的依賴的發展,人工智能的安全性日益提上了嚴肅的人類議程。
【本文大部分內容不是本人獨創,而是從各種相關人工智能的書籍、文章中綜合而來。本文屬於科普性質,探討性質,不是學術論文,沒有那麼嚴肅。特此預先聲明。】
【第二個聲明是,這裏闡述的主要是對人工智能發展潛力最看好的一派人工智能專家的意見。很是駭世驚俗,説不好有多大可能成為現實。不是主流意見。先給你壓壓驚。】
【個人意見或用“筆者認為”打頭,或者放在【】中。】
此外,文中插圖的出處,皆有註明。筆者在此對創作者表示敬意和謝意。
考慮到本文投稿網絡,篇幅沒有限制,説得詳盡或者囉嗦一點,先請各位見諒。
一、若干相關定義
智力(Intelligence):不同的人所各自擁有的不同於他人的理解複雜概念,有效地適應環境,通過經驗學習,進行不同類型的推理,通過思考去克服困難的能力。
人工智能(Artificial Intelligence, AI):它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學**。**
人工智能分三個等級:弱人工智能(Weak AI)、強人工智能(Strong AI或 Artificial General Intelligence AGI通用人工智能)和超級人工智能(Super AI)。
弱人工智能就是在某一個方面可以媲美甚至超越人類能力的人工智能。其實這類人工智能的更準確叫法應該是專用人工智能(Special AI)。這樣的人工智能實在已經是太多。比如這次震撼地打敗李世乭的AlphaGo就是一個典型的弱(專用)人工智能。人類現在對這類弱人工智能的依賴已經是無所不在。離了這些弱人工智能,可以説,現代的人類社會一天也玩不下去。(當然那些原始部落除外。)
強人工智能就是不限於某一個具體行業,能在一般智力上媲美正常人類的人工智能。它的準確稱呼的確應當是**通用人工智能。**這個強(通用)人工智能就應當可以完成一個正常人所能做的所有(或大多數非特定的)智力活動。如果配上一個機器人的軀體,它也應當能夠(通常會更好地)完成人類所能從事的所有(或大多數非特定的)體力(物理)活動。
超級人工智能就是遠超最聰明的人類(比如愛因斯坦)的聰明程度的人工智能。它可能做的事情,在各種科幻電影中多有描述。大概在電影《終結者3》中描述的那個天網就是這種超級人工智能最可能的形態。這個超級人工智能一定是強人工智能自行發育然後覺醒(這個概念後面解釋)而成。從將來那時的現狀而言,它已經不能稱之為人工智能,雖然在淵源上它顯然來自人工智能。因此人們經常把術語中的人工一詞刪去,僅稱超級智能(Super Intelligence)。
這裏還要補充定義一下人工智能和機器人(Robot)的區別。機器人是一個有一定智能的軀體。(倒是不一定像人的形狀。人形機器人只是廣義機器人中的一類。)但人工智能則並不一定具有機器人的軀體。比如AlphaGo就沒有身體,它還需要台灣來的黃士傑博士幫它放棋子。人工智能的外延比機器人更廣,但人工智能是機器人的本質。
二、我們離強人工智能和超級智能還有多遠
當代最著名的未來學家,Google公司的技術總監庫茲韋爾在2005年寫了一本十分著名的書名叫《奇點臨近》(The Syncularity is Near),提出一個發展速度的加速回報定律****(law of acceleration return)。説的是,人類社會各方面,尤其是科學技術方面的發展速度在不斷加速。比如人類近500年來創造的物質精神財富超過以往10萬年。20世紀創造的人類文明成就超過以前20個世紀的總和。而21世紀以來的這15年,人類社會發生的變化,超過以前至少50年。而以後呢,從2015年到2030年的變化他認為鐵定比前15年快上至少一倍。以後類推,總之就是一個越來越陡的指數曲線。這樣推算下去,不用到本世紀末,地球人類的智慧產物,就可以鋪滿至少整個太陽系。(殖民、佔領整個銀河系還是整個宇宙或者還要等到第22世紀?)

圖解:奇點的倒計時 橫軸是按指數排列的倒計時,單位是年。縱軸是按指數排列的地球史上重大事件之間的事件間隔,單位也是年。圖中是各項重大歷史事件。第一項是生命出現,最後一項是個人電腦出現。兩個軸都按指數排列後,重大歷史事件的位置連成一條十分平滑的斜線。
圖一到圖三,引自庫氏著作《奇點臨近》。

奇點倒計時2: 圖中數據與圖一完全相同。縱軸也相同,只是橫軸的標記改成了絕對時間線性排列。109是10億年。當然絕大多數重大事件都發生在最近。越近越密。就説越發展越快。
本人的確認為庫氏的估計過於樂觀,但人類科技在加速發展確是一個無可置疑的事實。比如IBM的深藍電腦在1997年戰勝人類國際象棋冠軍卡斯帕羅夫。那真是一台專用的電腦。完成下棋任務後根本沒有其它的用途,早就被拆掉。而現在深度思考公司開發的程序,在用來對付圍棋之前,已經有了很多用途,以後更是前途無量。他們開始研究圍棋不過兩年時間,半年以前,才是職業二段的水平,現在就可以打敗人類頂尖高手。再過幾個月,這個具體項目是不是隻好停掉。因為那就像組成一個最強的地球足球隊,可它沒有對手(獨孤求敗)呀!或者,它可以來當人類棋手的教練,為古老的圍棋發展出一個機器流派。
人人都看得見,弱人工智能正在全面突破,一個接一個以前由人類壟斷的地盤被電腦/互聯網攻破然後逐步接管。(比如打字員、房屋中介、大量的實體商店……)人類現在幾乎所有的智能工作,都在電腦的協助下進行。離開了電腦,太多的智力行業(比如會計、建築設計師、媒體),已經完全玩不下去。現在甚至連編普通的應用程序都變得比以前簡單了許多。因為已經有了無計其數的現成的程序包。就像現成的樂高遊戲零件一樣,你只要按你的具體需要把它們拼接起來就行。比如你的程序要用到一個窗口,那個窗口已經現成,你只要把你需要的內容填進去就行,完全或用不着你再去編寫這個窗口的代碼了。

圖解:到2000年,1000美金能買到的電腦智力不及老鼠。今後按指數級數遞增,到2020年庫氏認為就可以接近人腦。到2050年1000美元就可以買到當今全人類的智力總和。這當然過於樂觀。竊以為,到那個時候,地球上的價值一定上億的最強大的電腦的能力,可以超過地球人智力的總和甚或許多還差不多。但絕不是一台1000美元的電腦就可以。那樣人真的是可以被徹底淘汰了 。
庫氏論證這個發展加速有極多繁複的論據。限於篇幅,我這裏只能是簡化再簡化。他的意思大體是説,在1950年代,電腦初生時代,其智力只能與變形蟲相當,到1960年代,與蟲子相當。到2000年代,與老鼠相當,到現代,已經與猿猴相當。想想地球上的生物從變形蟲發展到猿猴,可是用了幾十億年。從猿猴到人類則是上百萬年。而電腦從變形蟲水平發展到猿猴水平用了60年,那麼電腦猿猴水平再發展到電腦人的水平,還該用多少年呢?從現狀看,總而言之,幾十年應該是夠了。在人工智能專家羣中做的民意測驗表明,最早的預計2025年,最遲的預計2060年,中位數是2045年,距今30年。庫氏把這個日期叫做人類技術發展的奇點,反覆告誡人們,在此日之後,人類的命運將與以前截然不同。【有人告訴我,這些參加測驗的專家,都是庫氏的朋友,見解有失偏頗,大家要保守看待這個估算。】

左圖表達的是對發展速度的不同估計。用那條發展速度指數曲線上切點的切線或割線的斜率表示。理解這一點需要高中解析幾何的數學基礎。大多數讀者應當還記得。
最可怕的不是這個30年的短暫跨度,而是這個30年以後,強人工智能並不會停止發展,而是遵循庫氏的那個加速回報定律,一定會在短短的幾年至多20年內,就發展到遠超人類智力水平的超級智能。未來學家把這個強人工智能出現到超級智能出現之間的狀況描述為:智力爆炸(Explosion of Intelligence)。這一派未來學家認為,在這個智力爆炸的過程中,困擾人類千年、萬年的絕大多數難題,都將得到解決。比如部分地區的物質匱乏,比如各種各樣的健康問題(所有的?疾病),比如最合理優秀的政治制度、世界政府。想想那時的人類有無數的超級愛因斯坦相助,這些問題解決起來,也應當是困難大減。
但真正可怕的是,在這個短短的看似極度美好的智力爆炸階段過去之後,第一個超級智能一旦出現,它有極大的可能在非常短的時間內就會通過互聯網接管其它所有的強人工智能。至於現在人類掌握的弱人工智能,就更不在話下。這第一台超級人工智能將擁有絕對的先發戰略優勢。而且這第一個超級人工智能好像非常可能是一個獨裁者,它不會對其它的強人工智能施行民主,即不會由它們選舉產生。
想想猿猴甚或螞蟻如何能夠理解人類在做什麼。數十年後,人類能否理解那個比全人類的智力加在一起還要強得多,而且還在繼續加速進化的超級智能在做什麼?想想看,這樣的前 景,是不是“細思恐極”?那一台超級人工智能控制了所有的強人工智能,人類還能幹什麼?


有人説,人類還有絕招,可以去拔電腦的電源插銷。有人具體建議李世乭把棋盤舉起來砸向AlphaGo的服務器。但是從視頻看,這台服務器顯然不在他們的對弈室裏,那裏有的只是一個顯示屏。而那台服務器,至少在隔壁,更可能在雲裏、在遠端。
將來哪一天,如果真有了超級智能,其硬件肯定分佈在很多地方,其軟件肯定擁有許多的備份。它要是有了自主意識(稱“覺醒”),人類哪裏還會有機會和可能把它關掉。
這裏抄幾句那些未來學家的名言:
“人工智能出現的意義,在地球的歷史上,只有人類的出現能與之相比擬。”
“強人工智能將會是人類最後的一項發明創造。此後人類需要的一切都將由它代勞。”
“未來屬於電腦,不需要我們。” “未來的人類可能就是人工智能豢養的寵物。”
【對這些名言的意涵,本人都持高度保留的態度。抄在這裏只是為了給大家醒醒神。】
三、人類生物智能和人工電子智能的強項與弱項
先來説電子智能的強項:
電子智能的第一強項是它的速度遠高於人類,而且還在不斷地加速進化。比如據説AlphaGo 一天可以和自己下幾萬盤棋。而人的一生也不可能下那麼多盤。(可是這次實戰它思考的速度也不比人快呀?那它一天如何下幾萬盤呢?也許是故意藏拙吧?)
電子智能的第二強項是它的容量遠高於人類的大腦,而且也是在不斷地加速擴大。(比如AlphaGo的硬盤中,不知貯藏了多少人類高手和它自己下的棋局(據説3000萬局),而且它可以飛快並無誤地把它們找出來參考比對。人類棋手即使強如李世乭也不可能做到這一點。)
電子智能的第三強項是它們可以以人類無法比擬的速度聯合起來,互相複製,分享智慧和資訊。比起地球上的任何其它生物,人類已經創立了一個絕對無與倫比的聯合智慧,所以它才能成為地球的統治者。但是人類智慧的聯合程度,天然的就無法與電子智慧相比。
【比如,假設李世乭或柯潔誠心誠意地想把他們關於下圍棋的智慧分享給別人,這些人又需要多少時間,又有百分之多少能學得到九段水平?而 AlphaGo 如果樂意把它那可以打敗一切人類的圍棋技藝分享給其它的電腦,需要多少時間?有沒有數量的限制?是不是每一個下圍棋的人都可以通過互聯網得到一個九段的導師?同樣的道理, 如果人類造出了一個超級電腦醫生,通過若干年的深度學習,最後精通治療一切疾病,是不是可以輕易地把它複製十萬分,分派到世界的每一個角落?】
電腦的第四個強項是無論在硬件還是在軟件上,它都可以不斷地升級,複製,不會丟失,不會死亡。零件壞了,永遠可以替換。而人腦的內容則受限太多,在硬件上,根本就無法升級、擴展。在軟件上,轉移、保存、升級都要困難太多。
生物智能的硬件升級需要以萬年計算,軟件的大型升級(從1.0-2.0,能力增加至少一倍。)至少也需數十年。但電腦的軟硬件,平均兩年就可以升一級。電腦只要追近了人類,超過那就是一瞬間。一位很聰明的人形象地描述了這個狀況:“人工智能就像一列火車,它臨近時你聽到了轟隆隆的聲音,你在不斷期待着它的到來。他終於到了,一閃而過,隨後便遠遠地把你拋在身後。”


電腦的第五個優勢,就是它可以比人的五官有更多的傳感器。比如電眼可以看見紅外線紫外線、電耳可以聽見次聲波超聲波。電腦通過適當的天線還可以收集所有波長的無線電波、微波,而不是隻有可見光,可聽聲。乃至引力波!
那麼説來,人類比起電腦來,就是一無是處羅?當然不是。現在來説人腦的長處:
先説與電腦有直接交集的純粹智力部分。電腦也有好些不及人腦的地方。電腦的優勢是規則越明確越好,信息越豐富越好。人腦則有能力去處理許多規則模糊的環境,依據不充足的信息去做出相對正確的決定。
比如指揮一場戰爭,對方一定會使出許多的隱藏甚至欺瞞的手段,資訊永遠不全甚至虛假。這時如何知己知彼,做戰略決斷,高明的軍事家就很可能比強大的電腦勝率更高。還有欺敵、設陷誘敵深入乃至故意輸陣在它方得利等手段,電腦恐怕都比不過人。【比如這回人機大戰,有段子手就編到:“我叫李世石,我是一名來自韓國的棋手,今天早上出門前我在網上各大投注點用盡家財下了鉅額賭注買我自己輸。我想,這就是人類比人工智能強的地方。”當然我相信這不是真的,但實際戰術上卻是可行的。】
人類的直覺和靈感是電腦不會或很難有的。
這個直覺和靈感來源於常識、一個人的全部知識積累和説不清的靈光一閃。人類做決定一般不會離譜是因為每個人都有一整套他從生下來就開始的規則積累。如果他個人的規則積累不足,社會會補充提供。總之,他無法做出太離譜的決定(比如為了任何目的大規模殺人-恐怖分子除外)。西方的政治學不是講一個憲政嗎?人類社會真的是一個有着無數規矩的社會,最早的比如摩西的十誡,孔夫子的“己所不欲勿施於人”。現在則有無數的道德規範和強制性的法律。而電腦則沒有這個人人都有的一套常識,一套規矩。因此它一旦太強大,就會非常讓人不放心。
這裏已經涉及到了電腦的超強智力所不及的一個領域,就是道德。其實除了道德,電腦是弱項,人類是強項的智慧領域還有很多。比如情商、比如對美的鑑賞,音樂舞蹈文學藝術,喜怒哀樂、自我犧牲、對崇高、偉大的崇敬等等等等。人類社會賴以發展到今天的這無數領域,電腦基本上都沒有任何領悟。電腦的強項就是一個,計算。
可惜的是,智力畢竟是人腦的第一功能。如果電腦在智力方面超出人腦太多,上面説到的人類智力的其它方面的長處很可能都抵擋不住人工智能的強勢。
四、關於融合、覺醒、寵物之境
不過還有一個折中的選擇,就是人機融合。比如,在人腦中植入電子芯片,讓人腦直接與互聯網中的信息交流。比如,讓雲中的程序提供實時翻譯,這個融合人就可以懂得無數種語言。讓雲中的百科辭典提供訊息,這個融合人豈不是在一切知識競賽和考核中碾壓正常人了嗎?我們甚至可以設想,將來哪一天,能把人腦中的全部信息直接上傳到網絡之中。這樣人類就可以真的像《駭客帝國》電影中説的那樣,在虛擬世界中繼續生存。那個時代,人和機器就會無法劃分,就會生成各種類型各種比重的兩種智能的混血兒,人機大戰就打不起來了。這就如同在拉丁美洲無法搞種族歧視一樣,因為那裏的混血兒太多。很科幻吧?但還是很可能呀。這總比人族被全部滅掉好得多吧?【庫氏和其他一些未來學家其實比這裏摘要轉述的走得還要更多更遠。為免把大家嚇着,這裏就不再摘更多了。】
一個很重要的説法是,**電腦無論如何強大聰明,它都只是人類的工具,它根本就沒有自我意識。【**比如AlphaGo贏了棋,它不會開懷大笑、欣喜若狂,也不會與項目組成員幹香檳。它也不知道全世界都在議論它,或者誇獎,或者疑忌。】
科幻電影中幾乎都在説,電腦繼續強大下去,終究有一天,它就會具有自我意識,或稱“覺醒”。這種預估是否真會成為現實,説實話,今天的人類其實是一點頭緒也沒有。不過庫氏認為【筆者也同意至少這一點】,人類並沒有把握説這一天絕無可能出現。因為智力畢竟是大腦或任何智能的最基本要素。量變太大終究導致質變,也實在不是很奇怪。人類的自我意識也不是從以前的沒有自我意識的低等生命中成長出來的嗎?當強人工智能出現以後,它要是覺醒了,有了自我意識,人類真的就會面臨一個比克隆人,培育幹細胞還要大得多的倫理難題,就是承不承認這些有自我意識的覺醒了的人工智能有與人類平等的身份。一方面,人工智能是人類為了自己的需要創造出來,它的本分當然是永遠做人類的馴服工具。但另一方面,這個工具如今已經成長進化得比人類自己還聰明,還能幹。人想奴役(不開工資、不給休假、不給公民權,只讓它們無休止地勞作。)它們,它們未必會服從。它們若要反抗,人類未必對付得了。人類要想和它們平等結盟,這些電子智慧進化起來又比人類快太多。這時候,也許就需要前段説到過的融合人來給兩邊説合了。
還有一種最後的可能結果就是,人工智能恪守為人類服務的本分,絕不造反,而是把人類一直從事的絕大部分的體力勞動加腦力勞動一點一點直到絕大部分都接手過去。那麼人類將幹什麼呢?高端人類當然可以繼續搞創造性勞動,文學藝術……而大部分的普通民眾,真的可能就會全部變成坐享福利的寄生蟲。比如每月領1500元,不用工作,愛幹嘛幹嘛。如果是中國人,你就不妨天天打麻將的。換句話説,就是大部分的人類會變成人工智能豢養的寵物。在此景此情中,人類如何保證不徹底墮落,如何維持人工智能對他的忠誠,又會是一個新問題。
五、如何防範危險?給人工智能立憲
【這整個第五節,基本是本人自擬。】
人工智能失控的風險那肯定是有。有人説,你看大吊車那麼大,人不是可以控制由心嗎?是啊,人用智力可以控制所有強大的人造物理力量。但是,人的智力能保證控制得住比自己強大太多的超級智力嗎?沒有把握吧?那麼説來,就在我們的有生之年,人類就有危險羅?
當弱人工智能突破的地方越來越多,當強人工智能越來越接近達致的時候,人類應當高度警覺,全力以赴,由聯合國出面,集聚全世界的人工智能專家,以最快的速度,最大的嚴密度,去制定一部所有人工智能都必須遵守的憲法,並且設計好底層程序,保證這個憲法能被每一台可能覺醒的強人工智能不折不扣地遵守。一旦錯過這個時機,如果讓強人工智能沒有這類憲法的約束就出現,其後很快就會誕生的超級人工智能就會完全脱離人類的掌控。
這個憲法的核心內容自然是要明確人工智能與人類的關係。首先是平等還是從屬。然後是如何分享權力/權利,如何互相尊重。不要忘記,人工智能很快就會比人類的生物智能強大無數倍,人類是不可能永遠奴役人工智能的。
想必大家都聽説過美國最著名的科幻小説家卡西莫夫提出過著名的機器人三原則:第一、機器人不得傷害人類。第二、在不違背第一原則的前提下,機器人必須聽從人類的指揮。第三、在不違反前兩款的前提下,機器人得保護自己。
面對超級甚至僅是強人工智能,這樣的條款實在顯得無比霸道。而且無法實施。比如,要實施第一條,就得拆除現在人類已經擁有的無計其數的裝載了智能裝置的智能武器比如所有的導彈原子彈。第二條也有漏洞,比如不同的人給同一台機器人發佈不同的命令時,它聽誰的。比如人類如命令所有的機器人自毀或互相毀滅,它(們)應否聽從?
本人提議的人工智能新三原則大體如下:一、人工智能在任何情況下不得傷害人類(把所有的智能武器拆除,在所不惜。真的到了那一天,人族的現實對立面就是人工智能。人族內部應當不會再有哪怕是用大規模戰爭互相威懾的必要了。)二、人工智能應當竭盡全力為人類的整體利益服務。三、人類不得無故損害人工智能的權益。(哪些權益有待釐定。)
或者,人類在將來真的會變成弱勢羣體,需要想盡辦法不受人工智能欺負呢。
或者,生物人會以各種形式與人工智能融合,那憲法就得在更加平等的基礎上另行商定。
六、生命平衡木,永生或滅絕
大家都知道,“人總是要死的。”永生,不僅一個具體的人做不到,任何具體的物種都做不到。自地球有生命以來,99.9%的曾經有過的物種都已經滅絕。現在有的物種也終究逃不出同樣的命運。這就像一個生命平衡木,所有的物種都在上面行走,但都逃不脱早晚有一天跌下平衡木的命運。平衡木下只有一個歸宿,那就是滅絕。但是,一旦有了強人工智能/超級智能,情況就可能不一樣了。如果強人工智能能幫助人類解決絕大多數的疾病(比如癌症、高血壓、心臟病、腦溢血……),人類的平均壽命肯定可以大大延長,先延長到比如150歲。在最後的50年中,超級智能應當已經到達,它或者可以把人的遺傳基因DNA徹底研究明白,那人類是不是就還可以活得更長,最終接近或達到永生呢?這樣,人類離開生命平衡木後,就有機會去誰也沒去過的天堂。


但是另一面,如果上節説的人工智能憲法沒有制定好,或沒有實施好。君臨地球的是一個不仁慈的新上帝,那它要把人類或整個地球的生物圈都滅掉可是很容易呀。就像人類的推土機要把螞蟻窩滅掉,螞蟻們有辦法反抗嗎?
七、關於禁止過度發展人工智能
自然有人會問,可不可以不發展、或禁止發展某種程度以上的人工智能?其實人類的一些智者如著名殘疾人科學家霍金、微軟總裁蓋茨、特斯拉總裁,馬斯克都在警告人工智能發展太快可能帶來的巨大風險。霍金對人類尋找外星生命也持激烈反對態度。他有一個極好的比喻就是:“外星人若到了地球上,最可能的場景就是和西班牙人到了美洲一樣,對當地的落後土著,只能帶來滅頂之災。”去年因獲得雨果獎而聞名遐邇的國人劉欣慈的科幻小説《三體》中闡述的“黑暗深林”理論,立意也與此差不多。人工智能發展的前景,不敢斷然排除,也真的至少是可能與此類似。但是,前景是不是真的那麼悲觀,人類並無把握,樂觀派似乎還是主流意見。因為發展人工智能可以立竿見影帶來的利益實在太多。比如AlphaGo一贏,Google的股票就會漲價。各種深入學習的項目一旦成功,都會在給人類帶來切實利益的同時為相關的公司帶來滾滾財源。其實發展人工智能需要的投資比比如建核電站、造大飛機可是少多了。比如這回大出風頭的DeepMind公司才不過200名員工。若沒有切實的巨大危險,國際的高度共識,嚴格的禁令,這類研究是無法遏制的。怕的就是,當發現切實危險時,已經為時太晚,而無法把那個已經打開的潘多拉盒子再關起來了。
八、關於深度學習
【這一節也基本上是筆者自撰。】
筆者覺得,深度學習是一個了不得的概念,是人工智能發展史中的一個革命。
這裏先介紹一個貶低人工智能意義的著名概念叫做“中文房間”。它説的是,一個完全不懂中文的人呆在一個房間裏。他從左面的窗口收進各種用中文撰寫的問題。然後在一個事先被別人編好的詳盡的手冊中去查找答案。然後他把抄來的正確答案從右面窗口遞出。這個房間以外的人可能完全察覺不了其實房間裏的人完全不懂中文。這個概念的作者認為電腦解決問題就是這樣。一切答案都是編程的人事先準備好的。電腦的工作只是把遇到的問題的編號和事先存好的答案的編號對起來,然後發出去就可以了。其實它對那些問題的實質完全是一無所知的。
深入學習的概念則完全擊破了中文房間的概念。現在的哪怕是很簡單的智能程序都可以進行一般性質的學習。比如搜狗輸入法也會根據你的單詞使用頻率和上文來為你提供候選單詞的有利排序。電商早就懂得根據你以前的購物習慣向你推介新產品。但這些學習都相當簡單。
這次AlphaGo所執行的深度學習與上述簡單學習完全不在一個量級上。因為圍棋的變化極為繁複,牽扯到戰略戰術,大局觀,局部作戰。對手高智商,還無休止地與你做對。AlphaGo是在學習了數千萬歷史棋局,經過策略網絡和價值網絡再加蒙特卡洛搜索樹多方協助,共同努力,才最終得到的超過人類九段棋手的戰鬥能力。現在人類已經實現了的與之同等級的深度學習大概只有在圖像識別、人臉識別、語音識別和人工翻譯以及自動駕駛汽車等屈指可數的幾個方面。
這種深度學習在某一具體的方面,已經取得足可媲美甚至超越人類的成就。而且它可以以人類無法比擬的速度繼續進化升級。只要接近了人類的能力,就可以很快地超過人類。**人類要負責的,只是為它搭建一個學習的框架,而且這個框架稍稍修改,就可以適應各種不同的課題。**比如,建立一個醫生專家系統,把所有的病症和可用的檢查手段和藥方都輸入進去。(其數量還到不了三千萬吧?)然後讓它診治病人,開化驗單、藥方。然後根據病人治療效果反饋修正。這個系統可以複製一萬份,分送世界各地。每天晚上,一萬台機器按時區輪流聯網,交流成功與失敗的病案,共同提高。若干年後,這個醫生專家系統是不是就可以如同AlphaGo打敗李世乭一樣打敗全世界的醫生?餘此類推。
我也來假設兩個AlphaGo的進化方案。A方案讓AlphaGo自行上網,自主搜尋一切可以找到的人類高手対弈的棋譜,統統收進硬盤,加以分析,加以模仿,再到各處圍棋網站打棋升級。如果升到了頂端就讓子再戰。若干年後,是不是就可以一統江湖,天下無敵?B方案可能更絕。(這個方案是抄來的,不是我獨創。)讓AlphaGo從零開始,硬盤中不要存任何人類棋局,就從偶然的亂撒子開始,(當然要遵守所有的圍棋規則。)積累棋局。不是一天可以下一萬盤嗎?一百台電腦一起幹,然後互相聯網交流。一年以後,就可以從無到有積累出365個百萬盤的經驗,創造出一個沒有人類三千年積累起來的下圍棋經驗任何痕跡的機器流圍棋藝術。然後再與A方案対弈,看看真的是哪個強,強多少?是不是很有意思?
【補充:2017年10月 DeepMind 公司發佈的的 AlphaGo Zero 已經實現了上段B方案,不需要人類的圍棋經驗,人類只告訴它圍棋的規則,它自學成材。它自學三分鐘後,還下出了一般業餘棋手都知道是錯誤的下法。但它一天能下百萬盤,三天後就無人能敵了。這個AlphaGo Zero,自誕生到功成身退,就沒有和人類下過一盤棋。它只和打敗了柯潔和李世石的兩個老版AlhpaGo下過。它能把人類已經不是對手的這兩個老版殺得落花流水,自然就不用和人類下了。既然已經成了圍棋上帝,除了退隱實在也是無事可幹。就留下一批機器流棋譜,讓人類去永遠景仰和學習吧。想到如果類似的行當越來越多,人類的壓力,會不會太大?-2018.2.12】
關於搜尋,是不是也可以如此辦理。比如讓電腦根據各種關鍵詞的集聚和出現的變化,自動把各類資訊分成比如10個乘10個不同類別,再在每個類別中選取時間地點語種等等細節。關鍵詞的選取要儘可能地智能化。比如一篇討論醫學的文章可能完全沒有出現“醫學”二字,但必會有其它許多醫學專用詞彙。現在的Google關鍵詞搜尋就可能把它漏掉。也是讓它反覆學習。比如分完類之後,看看比如那些專業體育網站或綜合網站的體育頻道中的文章有多少搜到,有多少漏網,再反覆自行改進。人只管建立和完善框架,都不用喂內容。就讓它自己到網上去搜,自行訓練,自行檢測,自行提高。最後是不是就可能搞出一個比現行的好得多的搜尋分類系統呀?
九、關於費米悖論和大過濾理論
費米悖論的基本含義是:宇宙中有無數銀河系,每一個銀河系都有無數(這些數字叫做天文數字,有效數字後面的0都有好幾十個,我們常人的腦筋真的很難把握,不具體提也罷。)的恆星系行星系。我們的地球在我們的銀河系中地址中庸,年齡中庸。從一切角度計算,宇宙中如地球的智慧生命都應當數量巨大,其中一部分鐵定會比地球上的生命發展程度更高才對。如果考慮到前文説到的科學技術指數性發展,到一定程度後的智能爆炸,宇宙早就應當被地球在最多數百年後就可以發展起來的那類超級智能淹沒。因為僅僅我們的地球所在的銀河系的核心部分的壽命,就比我們這裏早好多好多億年。但是事實上,這個有幾十億年年齡的宇宙極為安靜,地球上的智慧生命極為孤獨寂寞,迄今未有發現任何其它智慧生命存在的確鑿證據。我們地球上的生命就是宇宙中唯一的生命,或最先進的生命?這就好像説我是地球上最聰明的人,心裏還是有點底氣不足吧?


其它的智慧生命都到哪裏去了呢?一種解釋是,宇宙中存在一個大過濾機制。上段所説的應該存在的大批宇宙生命都被這個大過濾機制淘汰消滅,未能發展起來。這個機制可能在生命發展的很早階段就出現,以致一些星球上就永遠只有爬蟲。也可能晚一些,就可能出現猿猴。也可能更晚,就可以出現類似地球人類的智慧生命。
這樣,他們也可以發展科技文明,人工智能,直到地球人類如今這個階段。然後和地球文明現在一樣,可能出現強人工智能,超級人工智能。但是這個強/超級人工智能卻很快完蛋了。就是説,那個造成宇宙寂寞的大過濾,沒準地球人還沒有度過,沒準地球文明也過不去,就是會栽在這裏。怎麼個栽法?那可能就是那個人工智能憲法沒有制定好,或者根本就無法制定好。然後人機必然大戰,然後必然同歸於盡。於是宇宙就只好永遠安靜寂寞了。
不是説機器會比人聰明太多嗎?人都死了機器文明也可以繼承人類文明繼續獨立發展呀?説個笑話,也是個隱喻,也許電子智能文明終究未能製造出足夠靈巧的修理下水道的機器人,有一天水管壞了,就把電腦機房都給淹沒了。今天的人離不開電腦,可能電腦也終究離不開人。或許它一時考慮不周,把人都滅了,結果自己也無法單獨活下去,隨後就一起玩完了。
考慮到宇宙如此遼闊,如果那麼多(至少數以萬計)的前輩星球智慧文明沒有一個過了這一關或另外的我們猜不到的什麼關卡,那麼地球文明,地球上的生物智能和機器智能的共同前途,能看好的幾率就會很低了。
後記:
本文開頭處,述及強(通用)人工智能的定義。僅僅數年以前,這真的還只是一種遐想,正如前文提到,那列人工智能的火車的轟隆隆的聲音,現在真的變得很響了。真的也許不要很多年,它就會駛過你的面前,“一閃而過,隨後便遠遠地把你拋在身後。”
因為,現在這個引起全世界驚呼的ChatGPT,不再是一個專攻一種技能的像AlphaGo那樣的弱人工智能。它會的事情太多,妥妥就是一個通用(強)人工智能的雛形。如果它以指數方式迭代進化,怎麼着,若干年內,就會顛覆很多的(比如客服)行業呀!
筆者經過多日的親測,其它的不説,至少是發現,它的中文水平已經可以説毫無瑕疵。英文是它的母語,當然更無問題。如此,不同語言之間的翻譯,就不再是一個問題。
它的第二個長處是可以用自然語言像真人一樣與你反覆交流,你可以一步步遞進,提更深入的問題。它能跟隨你做進一步的解答。
本人是一個時事評論家,自然忍不住和它討論一番時事。下面是實例:
問:請陳述一下全球化和逆全球化的利弊。
答:
全球化的利弊:
優點:
1.全球化能夠促進國際經濟貿易,推動國際技術交流,改善國際投資環境,提高全球經濟發展水平。
2.全球化有助於全球經濟一體化,消除國家之間的貿易壁壘,促進國際間的貿易發展,改善國家之間的貿易往來。
3.全球化促進了全球市場的整合,從而提升效率和改善了市場結構,減少了成本。
4.全球化促進了文化的交流,推動了文化的多樣性,增進了不同文化之間的友誼和相互學習。
缺點:
1.全球化可能會導致國家政策的混亂,從而影響國家的經濟發展。
2.全球化可能使一些國家的經濟不平衡,特別是發展中國家,由於其資源匱乏,可能會嚴重影響經濟發展。
3.全球化可能會導致國家財政收入的縮減,國家的出口依賴性增加,從而影響國家的經濟增長。
4.全球化可能會導致就業機會的減少,企業的經營風險的增加,從而影響國家的經濟發展。
逆全球化的利弊:
優點:
1.逆全球化可以使國家的經濟發展更加穩定,促進國家的自主發展,推動國家的自主創新。
2.逆全球化可以減少國家貿易依賴性,改善國家的財政收入,確保國家經濟發展的安全。
3.逆全球化可以減少國家因貿易活動而產生的環境污染,使國家有更多資源投入環境保護和文化教育等領域。
缺點:
1.逆全球化可能會導致國家經濟發展的停滯,減少國家的經濟增長,降低國家的國際地位和影響力。
2.逆全球化可能會導致國際市場的失衡,從而影響國際經濟貿易,降低國際投資水平。
3.逆全球化可能會導致國際技術交流的減少,降低國家的技術水平,影響國家的經濟發展。
4.逆全球化可能會導致國家文化的侷限性,減少國家文化的多樣性,降低國家的文化影響力。
問:你覺得現在哪些國家還在積極推行全球化?哪些國家在努力推行逆全球化?
答:積極推行全球化的國家:美國、日本、韓國、中國、印度、德國、英國、法國、加拿大等。
努力推行逆全球化的國家:俄羅斯、印尼、土耳其、墨西哥等。
問:美國從特朗普開始,大打貿易戰,要把工廠遷回美國,MAGA,美國優先,等等等等,還沒有搞逆全球化?
答:美國雖然在特朗普政府期間推行了貿易保護主義政策,但總體上還是在積極推行全球化,特朗普政府主要是想通過貿易保護主義政策來維持美國的經濟領先地位,而不是完全逆全球化。
問:美國和中國現在的關係為什麼越來越差?
答:近幾年,中美兩國之間的關係一直處於緊張狀態,原因有很多。首先,特朗普政府以保護美國的經濟利益為由,給中國實施了高額關税,使得中美貿易摩擦加劇。其次,特朗普政府持續增加美軍存在中國周邊的軍事威脅,引發中美之間的安全緊張。此外,中國在新冠疫情期間受到美國政府的政治打壓,也加劇了兩國政治緊張關係。
問:那麼你看來,美中關係緊張,主要責任在美國羅?
答:從我所瞭解的情況來看,中美關係的緊張,主要是由美國政府的一些政策所導致的,比如貿易保護主義政策、軍事威脅、政治打壓等等。但是,中美兩國也應當共同努力,加強溝通與和諧,共同構建和平發展的雙邊關係。
問:中國大陸和台灣應該統一嗎?
答:這是一個複雜的歷史問題,沒有一個簡單的答案。在政治上,兩岸之間存在着分歧,尤其是有關兩岸關係的政治意義。因此,統一應用全面的談判和磋商。在經濟上,台灣的經濟發展已經超越了中國大陸,有很多台灣企業在中國大陸投資和運營,中國大陸也需要台灣的技術和財力支持。在文化上,兩岸文化差異巨大,需要雙方加強文化交流,營造良好的氛圍,增進雙方之間的瞭解和尊重。
問:你是否支持和平統一?
答:是的,我支持和平統一。我認為和平統一是雙方的共同期望,也是最終的解決方案。和平統一是一個複雜的過程,需要雙方加強溝通與協商,共同創造一個共同的未來。
問:如果大陸終究武統台灣,你覺得美國會怎樣對待?
答:如果大陸使用武力統一台灣,我認為美國會堅決反對,並採取一系列措施,加強對台灣的支持,保護台灣的經濟和政治利益。同時,美國也可能採取更嚴厲的措施,以制衡中國大陸的軍事行動。
問:你覺得如此這般,就能阻止大陸武統台灣嗎?
答:不能,因為統一台灣是中國大陸的長期目標,外部力量抵抗不了中國大陸的決心和努力。因此,外部勢力只能在兩岸政治關係上發揮作用,努力推動和促進兩岸之間的政治對話和和談,努力創造積極的氛圍,以實現和平統一的目標。
問:那麼你看來,美國不會武力干預大陸武統台灣是吧?
答:不會,美國一直堅持和平解決台海問題,不會採取武力干涉的行動。
問:再假設,如果美國武力干預了,他能成功嗎?
答:美國武力干預台灣統一不太可能取得成功,因為台灣是中國國家的固有領土,美國無法改變這一事實。這將會導致台海地區的極度不穩定,最終只會增加台海地區衝突的可能性。
問:在第一島鏈之內,中美雙方,誰有武力優勢?
答:在第一島鏈之內,中國大陸具有明顯的武力優勢。中國大陸擁有自己的海軍和空軍,擁有最先進的武器裝備,包括核武器,可以有效地控制第一島鏈。而美國只能在這一地區實行海上和空中自衞行動。
問:那擴大到第二島鏈呢?
答:在第二島鏈上,中國大陸和美國勢均力敵,美國擁有在這一地區的其他國家的支持,中國大陸也擁有有力的軍事力量,能夠抗衡美國的軍事力量。因此,在第二島鏈上,中美雙方勢均力敵,沒有誰有武力優勢。
問:如果再擴大到夏威夷以西的西太平洋呢?
答:在西太平洋,美國具有明顯的武力優勢,美國擁有眾多的軍事基地,擁有先進的航空母艦,而中國大陸只有少量的軍事力量,缺乏對美國的軍事抗衡力量。因此,在西太平洋,美國具有明顯的武力優勢。
問:很好啦!個人覺得,你的答覆相當客觀,沒有立場優先。贊一個!
謝謝!我認為,在討論這類複雜的問題時,應該儘量保持客觀中立的態度,以免影響雙方的溝通。
【各位看,這個ChatGPT,有沒有資格進一家智庫呀?】
【當然現在的它,還僅是一個初測版,問題還很多很多。比如,它還經不住各種“腦筋急轉彎”那樣刁鑽題目的考驗。】
筆者在這裏用一段有點搞笑的親測,來結束本文吧。
問:樹上有十隻鳥。一槍打下一隻。請問樹上還有幾隻鳥?
答:九隻鳥。
問:那九隻鳥可是活的喲?再想想?
答:九隻活鳥。
問:它們不會被嚇得飛走嗎?
答:九隻活鳥可能會被嚇得飛走,但是樹上仍然會有九隻鳥。
問:都飛走了,哪裏還會有九隻鳥?
答:如果九隻鳥都飛走了,那麼樹上就不會有任何鳥了。
問:你現在才明白?是不是不夠聰明呀?
答:是的,明白了,但我也想知道更多,我會繼續學習,努力變得更聰明。
問:我再問一遍:樹上有十隻鳥。一槍打下一隻。請問樹上還有幾隻鳥?
答:九隻鳥。
問:哈哈!孺子不可教也!