意識研究的兩難問題:明知微軟小冰是聊天程序,你還是會喜歡她?_風聞
返朴-返朴官方账号-关注返朴(ID:fanpu2019),阅读更多!2019-10-17 10:19
撰文 | 顧凡及(復旦大學生命科學院)
腦和人工智能領域存在着許多沒有定論的開放性問題(open problems)。此前,在關於歐盟人腦項目的文章中,我曾介紹過自己的觀點;而後,王培老師又點評了我與IT工程師和連續創業者卡爾·施拉根霍夫之間的討論。可以説,我與王培老師的分歧主要集中在以下三點:
(1)意識和腦的關係;
(2)意識的科學研究能做什麼和不能做什麼?
(3)是否能實現人工意識?
人們對開放性問題的看法都是長期形成的,各人有各自的依據,不大可能通過幾篇短文的交流就消除歧見。儘管如此,真誠的爭論仍然頗有裨益:反對意見提供了新的角度讓我們審視自己,迫使我們提煉、糾正、補充自己的看法,並做進一步思考。我將在一個更廣闊的背景中回答王培老師的評論,期待廣大讀者的進一步批評和爭論。
“意識”:一個勉為其難的概念
“意識”並沒有一個公認的定義。在一些百科全書中,意識的定義往往是用了它的一些同義語,或是一些同樣沒有公認定義的概念來進行解釋。例如在《大英百科全書》中,按照英國哲學家洛克(John Locke)的説法,把意識定義為“進入個人心靈(mind)中的知覺(perception)”。這裏,“心靈”和“知覺”同樣都沒有公認的定義。在維基百科(wikipedia.org)裏則把意識定義為“對內外存在的知覺(sentience)或覺知(awareness)的狀態或特性”——同樣使用了兩個沒有公認定義的詞:“知覺”和“覺知”。如果你再去查查維基百科對“覺知”的定義,那麼它告訴你:“更廣義些説,覺知就是能意識到某些東西的狀態。”兩條釋義成了同義反復。所以,這種定義實際上等於什麼也沒説。
另外,人們往往把意識的不同方面等同於意識。例如,把清醒程度、自我感、存在感以及內心所體驗到的具體內容(qualia)等等當成意識本身。由於各人理解不一樣,有關意識問題的爭論有時彷彿雞同鴨講。
如果要找一個絕大多數人都認可的“最大公約數”,在筆者看來當屬埃德爾曼(Gerald Edelman)的描述:“意識就是隨着無夢深睡……深度麻醉或昏迷……而隨之而去,而在這些狀態之後又隨之而來的那個東西。” [2]****雖然這仍然算不上是什麼定義,但起碼大家都能明白我指的是什麼。
在筆者看來,如果一定要説這些形形色色的意識概念有什麼共同特徵的話,那無疑是意識的主觀性和私密性。意識只存在於主體的內心之中,而且不能為其他主體所共享。雖然,這裏的“內心”一詞同樣也沒有明確的定義。
如果將上述議論作為我們討論的出發點,那麼王培老師所提出的“主觀性和私密性不限於意識,而是普遍存在於各種精神、心理活動之中”,“外向的感知也不是完全沒有主觀性和私密性,所以這個差別是相對的,而不是絕對的”就值得商榷了。因為按照上述討論,“各種精神、心理活動”以及“外向感知”都屬於意識。而只有“外部環境是共享的”(意識之外的身體,相對於意識來説也算是“外部環境”)。
如此一來,意識和其他物質過程就有着根本性的差別。這種差別主要表現為意識的主觀性和第一人稱視角。這是我與王培老師之間的第一點不同看法。
不可還原的湧現
——摘自王培《意識是腦中湧現的嗎?一場關於人腦、智能和意識的深入對話》
確實,人們容易以為我主張意識是由腦“產生”的一種“東西”。這也確實是許多人的看法。但其實我要表達的確切意思是:“意識是特定腦中特定神經活動的一種不可還原的湧現性質。”(關於這一點,我在去年的一篇文章《有關意識研究中的兩個開放性問題》[3]****中曾經有專門的論述。)這句話藴含着多層意思:
(1)意識是特定腦中特定神經活動的一種性質。這裏加了兩個“特定”,是因為並非所有的神經活動(例如當深睡無夢時腦中的神經活動)都表現出意識的性質。
(2)意識是一種性質,而不是一種實體;且,意識不是一種普通的性質,而是腦這樣一種多級系統在最頂層所表現出來的一種“湧現性質”。所謂湧現性質,如一位讀者在評論中指出的那樣,其意思是上一層次表現出來的、下一層次的元素所不具有的性質。所以,當我們説“意識是人腦湧現出來的”,並不意味着意識可以完全用神經方面的術語來描述,也不是意味着意識是一種“導出”,而是強調意識是低層次的神經活動所不具有的性質。
(3)意識不僅是一種湧現性質,而且還是一種不可還原的湧現性質。由為數不多的公理來證明定理、由細胞活動來解釋組織現象,都屬於還原。有些湧現性質也可以還原,例如:水由氫氧原子組成,而表現出氫和氧都不具備的性質;同時,人們有可能根據氫和氧的性質來解釋水的性質(例如,用量子力學或其他物理規律——雖然我暫時還不知道)。但是,還原並不是無限的,例如公理就不可再被推導,有些情況則從高層開始就無法向底層還原,例如蒙娜麗莎的美無法用顏料分子的性質去解釋。同理,意識也是一種不可還原的性質,
問一個正確的問題
意識不能從神經層次描述,且由於其主觀性和私密性,很難為外界觀察者所觀察到。與此相反,神經層次上的現象在原則上都可以從外界觀察到。所以,兩者還是有“本質不同”的。
讀者讀到這裏,可能會責問我:“按你這麼説,那麼是不是就是意味着無法科學地研究意識?”我的回答當然是否定的。我認為查默斯(D. Chalmers)所提的“困難問題(hard problem)”——“主觀的意識是如何從客觀的腦中產生出來的”——是一個提錯了的問題。因為意識就是特定腦的特定神經活動的一種不可還原的湧現性質,就像帶有負電荷是電子的一種性質一樣。你能問電子為什麼或是如何帶有負電荷的嗎?
我們可以問的問題是:**什麼是意識湧現的條件?**即,什麼樣的腦中、什麼樣的神經活動會湧現出意識?
當然,理想的情況是能研究出意識湧現的充分必要條件。現在的研究主要集中在意識研究的必要條件,也取得了突出進展。這就是埃德爾曼和託諾尼所提出的動態核心假設****[2****]和迪昂(S. Dehaene)對“進入意識(conscious access)”所提出的“神經全局工作空間假設(neuroal global workspace hypothesis)”[4****]****。這些假設都提出了當腦中神經活動表現出意識或其某個方面需要滿足的條件:對前者來説這些神經活動要具有整體性和複雜性,而對後者來説則是在腦活動中出現一系列特殊的“印記(signature)”。
但是這些條件都並不充分,因為按照他們的假設所構造的人工神經網絡雖然都能表現出他們所提出的那些特性,但是並沒有湧現出主觀性。迪昂和埃德爾曼都坦率地承認他們的網絡並無意識。後來,託諾尼把他們當初提出的意識的整體性和複雜性擴大成了5條公理,並在此基礎上制定了有關意識的一個定量指標Φ,以此度量某個主體是否有意識。[5]****但是,在他的5條公理中根本就沒有主觀性,而且大量複雜系統都可能有非零Φ值,而他又沒有給出有意識時Φ值有什麼閾值,所以按照他的判據,大量系統都有了意識——這在筆者看來似乎是陷入了泛靈論的泥沼。
因此,我認為意識科學研究的適當問題是問:**什麼樣的系統的什麼樣的活動在什麼樣的條件下會湧現出意識這樣的特性?**放在當前,我們要問的具體問題是:人腦神經活動表現出意識或其某個方面的特性的必要條件是什麼?
至於充分條件,現在還不到研究的時候。原因就在於意識研究中的“兩難問題”,而不是查默斯那著名的“困難問題”。
意識研究的兩難問題
如上面所講,意識研究的根本困難在於意識的主觀性,外部觀察者不可能觀察另一個主體的內在意識,他所能觀察的只是對方的行為或神經活動。他只能依靠對方的主訴(能做到這一點的主體現在只有人)得知對方的意識內容,同時觀察對方的大腦活動,並與其沒有意識時的大腦活動進行比較——這正是埃德爾曼曾經建議過的,而迪昂付諸實踐的大量研究。迪昂(Stanislas Dehaene)研究了當同一個刺激從被試意識不到轉變為能意識到時(進入意識),腦活動發生了怎樣的變化,他把這些變化稱為“印記”,例如強烈的腦活動從腦的後部傳到前部又反傳回來,在事件相關電位中出現明顯的P300峯以及大區域的同步活動等。由於腦的活動非常複雜,不可能只保留這些印記而排除腦的其他一切活動,因此這些印記就只能説是進入意識的必要條件,而非充分條件。如果缺乏主訴,光根據行為,觀察者無從確知主體當時的意識內容,甚至無法判斷主體是否有意識。這就是哲學上所謂的“他人心智問題(Problem of other minds)”。
這樣,我們就碰到了一個兩難問題。如果僅憑行為就來判斷主體是否有意識,就可能把本來沒有意識的主體誤判為有意識;而如果不看行為或不聽取主訴,我們又沒有其他手段知道主體內在的意識內容,那麼可能把本來是有意識的主體誤判為無意識,或者根本無從知道其是否有意識。筆者認為這就是當前意識研究所面臨的最大困難,也是同行之間爭論不休的癥結所在。筆者稱之為“意識研究的兩難問題”。
簡而言之,筆者的觀點是:意識不等同於行為(這個行為可以是廣義的,包括可測量的神經活動之類)。意識是內在的,是外部觀察者觀察不到的;而行為則是外在的,原則上可以用科學儀器進行客觀測量。
正是因為混淆了意識與行為,現在的媒體和科學討論中才常常出現紛爭。特別當牽涉到機器的時候,用了許多擬人化的表述,雖然博人眼球,但是卻造成了思想上的混亂。例如把表情(expression,情緒的外在表現)説成感受(feeling,情緒的內在表現),把語言信號處理説成語言理解,把神經信號控制説成意念控制,如此等等。而一般人也很願意接受這種擬人化的“騙局”。事實上,即使在人工智能的早期,麻省理工學院計算機科學家魏岑鮑姆(Joseph Weizenbaum)就於1966年開發了一種聊天程序(chatterbot)(注:許多人把它譯為“聊天機器人”,因為這個詞的英文詞和機器人的英文詞有相同的詞尾bot。不過王老師認為,最好把機器人這個詞留給有實體的硬件,還是譯為聊天程序好些。)伊莉莎(ELIZA)。伊莉莎模仿了一位心理治療師,主要是將病人的描述改寫為問題:
人類:我的男朋友讓我來這裏。
伊莉莎:是你的男朋友讓你來這裏的?
人類:他説我大部分時間都很鬱悶。
伊莉莎:聽到你很鬱悶,我很抱歉。
人類:這是真的。我不開心。
伊莉莎:你認為來這裏能幫助你擺脱鬱悶嗎?
微軟小冰和Siri的對話。來源:IT科技俠 weibo.com/smartnode 點擊“觀看視頻”前往觀看。
魏岑鮑姆發現,即使患者完全意識到他們正在和一個簡單的計算機程序對話,人們仍然會把它看作是一個真實的、能思考的、關心他們問題的人。這種現象現在被稱為“伊莉莎效應”。魏岑鮑姆後來寫道:“我當時沒有料到……和相當簡單的計算機程序只談了短短一會兒就可能會引起正常人的強烈妄想。”這可能是人們願意相信本無意識的主體也有意識的一個重要原因吧。
理解意識的科學理論≠體驗意識
美國神經科學家和科普暢銷書作家薩克斯(O. Sacks)曾在他的書中描述過一個十分罕見而生動的案例:
美國神經科學家巴里(S. Barry)生下來就是對眼,兩眼不能協同工作。這樣,除非把東西放到她鼻尖附近,她就沒有任何雙眼視差。不過她可以利用單眼線索判斷遠近,因此正常人能做的事她也都能做。薩克斯有一次問她,能否想象立體視覺的感受?她回答説,應該能夠做到。要知道,她本人是一位神經生物學教授,讀過休伯爾(D. H. Hubel)和維澤爾(T. Wiesel)的文章,還讀過許多有關視覺信息處理、雙眼視覺和立體視覺的材料,因此她相信這些知識能讓她洞燭自己的視覺缺陷。她認為,儘管從未體驗過立體視覺,也一定知道這種知覺是怎麼回事。
然而,事隔9年之後,巴里寫信給薩克斯説:“您問過我能否想象用雙眼看東西的感覺如何,而我告訴您我想自己能做到這一點……但是我錯了。”原來,不久前巴里經過治療後真正擁有了雙眼視覺。她回憶起當時的感覺:“我回到車裏,正巧看着方向盤,方向盤一下子從儀表板處跳了出來……我看了一眼後視鏡,它也從擋風玻璃處跳了出來。”她驚歎道:“絕對是一種驚喜,真無法想象之前我一直缺少的是什麼……這個早上當我帶了狗去跑步時,我注意到灌木叢看上去不一樣了。每片葉子看上去都屹立在它自己那小小的三維空間中,葉片不再像我以前一直看到的那樣重疊在一起,我可以看到在葉片之間有空間。樹上的枝條、路面上的鵝卵石、石牆中的石塊也無不如此。每樣東西的質地都豐富了起來……”她在信中描寫了所有這些對她説來全新的體驗,都是之前她無法想象或推斷得出的。她發現沒有東西能代替自己的體驗。[6]****她知道立體視覺在神經層次的全部描述(根據這種描述所發明的立體電影,確實能使正常人產生非常逼真的立體感,這足以説明這種理論的正確性),但是這不能代替她主觀上的立體感,不管在什麼層次進行描述都沒有用。
另外,觀察神經層次的是一位外界觀察者(第三人稱視角),而體驗主觀的立體知覺(某種特定的意識內容)的只能是主體自己(第一人稱視角)。巴里在缺乏立體感時,儘管她懂得雙眼視差是產生立體感的主要機制,但是她完全體驗不到立體感。當她經過治療恢復立體感後,她對某個對象的立體感也未必和我的立體感一樣。——只有在治療後,才能談得上王培老師所説的“私用眼鏡”和“共用眼鏡”。治療之前的故事只能説明,科學理論本身不等於感受,它只能解釋共用眼鏡生效(有立體感)的條件,而不能令其生效(讓巴里產生立體感)****,更不能解釋為什麼會生效(人為什麼會有立體感)。
科學理論和體驗意識不是一回事,埃德爾曼對此曾有一段很精闢的闡述:
主觀體驗特性假設説的是,意識的主觀的、定性的方面具有私密性(private),它不能直接通過本質上是公開的和主體間的(intersubjective)科學理論進行交流。接受這一假設並不意味着我們不可能描寫產生意識的充分必要條件,而只是説描述意識並不等於產生和體驗意識本身……我們可以分析意識,描寫意識是怎樣湧現出來的,但是如果我們不先擁有生物個體體內適當的腦結構及其動力學過程,我們就沒有辦法產生意識。這一假設有助於避免下列觀念:有關意識的成功科學理論就是意識經驗本身的替身,或者只要根據科學描述和假設(不管它們和意識的關係如何密切)就可以體驗到某個主觀體驗特性。[2*]*****
私密性和共情
關於意識私密性的起源,埃德爾曼有一段很有啓發性的議論:
我們把功能性聚類定義成在單個腦中彼此相互作用的一組神經元素,這種相互作用比它和周圍神經元的相互作用要強得多。因為動態核心構成了一個功能性聚類,發生在核心中的變化很快強烈影響到核心的其餘部分,而發生在核心之外的變化對它的影響就要慢得多,也要弱得多,甚至根本沒有什麼影響。因此,在環境和動態核心內部的信息性狀態之間有某種功能性的邊界,這使得這些核心狀態是非常“私密的”。[7]
王培老師認為,共情可以破除部分私密性,這想法自然有他的道理。畢竟,人腦從大體結構上來説是類似的,因此類似腦區活動所湧現出的特性有其類似之處,這可能是共情的神經基礎。近年來對鏡像細胞(mirror neuron)的研究也提示,當主體看到其他主體的活動時,主體的鏡像細胞(更可能是某個鏡像系統,而不是孤立的細胞)也會激活起來,彷彿自己也在做同樣的事情。有科學家認為這就是共情的神經基礎。[8]****
然而沒有兩個人的腦是完全一樣的,哪怕他們是同卵雙胞胎。再加上後天經歷對神經迴路的修飾,差別就更大了。因此共情只能是大致的、而不可能確切地體驗到他人的感受。正如當我們看到一位西方朋友吃皮蛋時的表情,可能會使我們聯繫起我們吃意大利藍奶酪(blue cheese,有強烈的氣味,一般國人都吃不慣)時的感受。我們主管厭惡情緒的腦區都給激活了起來。但是我們永遠也不能確切地體驗他們吃皮蛋時的真正體驗。
圖:貝爺吃蟲
拉馬錢德蘭曾經提出過消除意識私密性的一個思想實驗。他假想,可以用一根神經束或一根電纜把兩個人的腦的相應腦區聯結起來,那麼這兩個人就能共享他們的感受了。[9]****然而他忘記了,沒有兩個人的腦是完全一樣的,因此也就不可能找到一一對應的神經元用神經或電線聯繫起來,這在原則上就是無法做到的。即使,假設真的做到了這一點,兩個原來各自分離的動態核心現在聯結成了一個大的新動態核心,那麼原來兩個腦的活動必然要互相作用,而不再是兩個獨立分離的腦了——其活動肯定不同於聯結之前每個腦的導讀活動。不獨立,也就談不上共享了。
因此,共情只能讓我們猜測他人的感受或體驗類似的感受,而不能讓我們真正確切地分享他人的感受。
在可預見的未來,還不可能在計算機上實現人工意識
從邏輯上説,有朝一日,我們確實可能實現人工意識。因為腦歸根結底也依然是一種物理系統,雖然是相當特殊的物理系統。科學所要研究的正是其他物理系統湧現出意識的合適條件。
王培老師和我的分歧在於“可預見的未來”,甚至是“現在”。
王培老師認為“從原則上講,任何對象或過程都可以在計算機中被模擬或仿真,而結果的逼真程度會隨着計算機模擬技術的發展和對模擬對象的認識加深而不斷提高。對於人腦這個對象當然也不例外……”對此,我持懷疑的態度。的確,現在對腦中的許多神經過程確實可以用算法來描述,這已成為“計算神經科學”的主要研究目標,但是這些過程在筆者眼裏都屬於“行為”範疇,原則上都可以用儀器客觀測量。對於主觀的意識是否可以找到這樣的算法?
另外,意識並非都能用語言來描述,許多體驗都“只可意會”而“不可言傳”。那麼該如何採集樣本、定量描述呢?儘管目前的機器學習已經可以不用根據算法指令逐步計算,可是沒有樣本還是無法學習。
順便再説一句,王培老師的這段話實際上等於説腦和計算機在某種意義下是等價的。這也是許多人工智能專家的意見****[10****],但是也有不少人對此持有懷疑態度。例如埃德爾曼就明確宣佈“腦不是圖靈機”[2****]****。究竟該怎麼看這一問題,筆者不知道,但是看來還值得深入討論。
我不知道科學能否最終回答一切“為什麼”和“如何”的問題,如果承認最終總會有一些不可還原,而只能承認其存在的現象,算不算“不可知論”呢?人們容易承認從上向下還原,最後會碰到某個“底層”而無法繼續還原,那麼為什麼就不可以從下往上到達“頂層”而湧現出某些無法還原的現象呢?從我們日常所處的物理環境向下深入到微觀世界時,我們原來熟悉的確定性規律不再成立,而代之以概率性規律,經過長期鬥爭,人們已經由於“事實勝於雄辯”而承認了這一點。既然可以承認從微觀層次往上到宏觀層次,規律可以不一樣,為什麼從日常的宏觀層次到心智層次就不能在規律上有所不同,而用決定論來排斥“自由意志”的可能性呢?同樣地,既然在最底層,我們比較容易承認有一些不能問“為什麼”和“如何”而只能承認其存在的特性的問題,為什麼到了意識這樣的頂級層次,就不能這樣做呢?
不應該發展真正有自主意識的機器
獲得沙特阿拉伯國籍的類人機器人索菲亞(Sophia)在2019年百萬美元圓桌會議(MDRT)上發言。來源:Twitter
一個機器,不管其行為如何像人,若沒有自己的意識,更沒有自己的意志,就始終只能是一種工具,其為善或為惡,就始終是其主人的問題。現在社會上流行的人工智能危險論,其前提是假定人工智能有自己的意識甚至意志。如果人工智能真的有了自己的意識甚至意志,那麼你就無法完全左右它,這不用説是機器,對於有意識和自己意志的人,你都無法左右。考慮到人工智能的速度和儲藏知識量之大,即使先不考慮它自我迭代的可能性,其無法控制的能量都是令人不寒而慄的。
“好在”,我們人對自己的意識和意志尚且很不清楚,要在機器上實現我們根本不清楚的對象,恐怕更為困難。所以筆者以為,對人工智能的危險不必看得過於嚴重,正如地球總有毀滅的一天,但是我們不必現在就憂心忡忡。當然,為了防止這種危險,筆者同意周志華教授的意見——我們根本就不應該研究具有自主意識的人工智能。也正因為如此,意識研究不僅對腦科學和認知科學的研究有着重大意義,對人工智能的研究也同樣重要。
致謝
在閲讀王老師的文章之後,我有些沒有確切領會他的意思的地方,多次去信向他請教,他不嫌其煩,每次都在第一時間給與詳細的解釋,這使我儘可能不致誤解他的原意。本文寫成之後,我又發給王老師審閲,看是否有曲解他的原意之處。王老師在百忙之中又第一時間審讀了全文,並作了回覆。筆者覺得王老師的意見非常中肯,對筆者和讀者的進一步思考有很大幫助,因此在徵得王老師同意後,把他的回覆附於文後。這是特別要向王老師致以最深切的謝意的。另外施拉根霍夫博士、梁培基教授審閲了本文草稿,並提出寶貴意見,在此一併致謝。
參考文獻
[1] 顧凡及,卡爾·施拉根霍夫(2019)腦與人工智能:一位德國工程師與一位中國科學家之間的對話(含三冊: 《腦研究的新大陸》《意識之謎和心智上傳的迷思》《人工智能的第三個春天》)[M].上海教育出版社,(第一卷已出版,其他兩卷可望在10月中左右面世。).
[2] Edelman G (2006) Second Nature: Brain Science and Human Knowledge. Yale University Press, New Haven.
中譯本:埃德爾曼著,唐璐譯(2010)第二自然:意識之謎。湖南科學技術出版社,長沙。
[3] Gu, F. (2018) Two open problems in consciousness studies. Journal of Consciousness Studies, 25(1-2):230-247
[4] Dehaene S. (2014) Consciousness and the brain: deciphering how the brain codes our thoughts. New York: Viking Press, 2014.
中譯本:迪昂著,章熠譯(2019)腦與意識。浙江教育出版社。
[5] Tononi G. (2012) Phi: A Voyage from the Brain to the Soul, Pantheon.
中譯本:託諾尼G. 著,林旭文譯(2015)PHI:從腦到靈魂的旅行.. 北京: 機械工業出版社。
[6] Sacks O. (2010) .The Mind’s Eye[M]. A Knopf e book.
[7] Edelman G and Tononi G (2000) A Universe of Consciousness: How Matter Becomes Imagination, Basic Books, New York
中譯本:埃德爾曼和託諾尼著,顧凡及譯(2019)意識的宇宙:物質如何轉變為精神(重譯本)上海科學技術出版社,上海(年內出版)
[8] Ramachandran VS. (2011) The Tell-tale Brain - A Neuroscientist’s Quest for What Makes Us Human[M]. W. W. NORTON & COMPANY.
[9] Ramachandran VS and Blakeslee S.(1998) Phantoms in the Brain[M]. William Morrow and Company, INC.
中譯本:拉馬錢德蘭和布萊克斯利著,顧凡及譯(2018)腦中魅影:探索心智之謎,湖南科學技術出版社。
[10] 尼克(2017)人工智能簡史。人民郵電出版社。
王培教授對本文的簡要答覆
我覺得您的文章將觀點及其理由都表述得很清晰,其中很多也是我同意的,比如關於伊莉莎效應的討論和 “索菲亞沒有意識” 的判斷。
我們的分歧大多出自於對有關概念(如 “意識” )的用法不同。計算機和人腦自然既有共同點又有不同點。我看到共同點更多一些,因此覺得很多傳統上只描述人腦的概念可以被應用到計算機上;您看到的不同點更多一些,因此反對這種用法。像我在《新理論該怎麼為概念下定義?》裏面分析的,在這種地方沒有 “對錯” 之別,但有 “好壞” 之別,只是這種概念定義之間的競爭往往要很長時間之後才能見分曉。目前我們只要理解各人的不同觀念就夠了。
真正影響目前工作的是您最後提到的問題:是否應該研發有自主意識的機器。我的有關想法在《人工智能危險嗎?》和《人工智能治理原則發佈,但只是“看上去很美”》中已經表述了。儘管那裏只談了“智能”,沒有提“意識”,但我做的這種 “通用智能” 最終是會涉及 “意識” 的。簡單地説,我的觀點是(1) 通用人工智能的確有危險(儘管絕不是必然會導致災難),(2)但仍是利大於弊(不僅僅是經濟之“利”),(3)事實上也不可能禁止這項研究。當然我沒法證明這個觀點的正確性,但相反的觀點尚未説服我停止這個探索。這是個需要進一步的研究來回答的問題。
基於上述情況,我覺得我目前沒有足夠新材料在這個題目上再寫一篇文章。與其重複我自己,還不如讓出場地,看看其他人會説什麼。

特 別 提 示
1. 進入『返樸』微信公眾號底部菜單“精品專欄“,可查閲不同主題系列科普文章。
2. 『返樸』開通了按月檢索文章功能。關注公眾號,回覆四位數組成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。
版權説明:歡迎個人轉發,任何形式的媒體或機構未經授權,不得轉載和摘編。轉載授權請在「返樸」微信公眾號內聯繫後台。