意識是腦中湧現的嗎?一場關於人腦、智能和意識的深入對話 | AI那廝_風聞
返朴-返朴官方账号-关注返朴(ID:fanpu2019),阅读更多!2019-08-31 10:50
**撰文 |**王培(美國天普大學計算機與信息科學系)
物理學能統領萬物嗎?心理學可以還原成腦科學嗎?筆者認為,各層面的理論自有其獨特價值,不可以互相完全替代,因為一個特定的現象往往只能在某個層次上討論。一個常見的誤區是,許多人認為某個層次比其它層次更基本甚至更真實,而其它層次只不過是建築在其上的近似描述,因此原則上可以都“還原”到這個基本層。筆者之所以不同意很多人堅信的“意識是從腦中湧現出來的”,因為這隱含着“神經層描述是基本的(或真實的),而意識層描述是導出的(或虛構的)”的預設。
提示:本文是一篇嚴肅的書評。閲讀本文發表您的感想至留言區,並在返樸微信公眾號點擊“在看”,截至9月7日中午12點,我們會選出5條留言,每人送一本《腦與人工智能》,點擊’“返樸”參與。
微博同步進行活動,截至9月7日中午12點,評論點贊數最多的4位讀者將獲得《腦與人工智能》一本。
顧凡及和卡爾·施拉根霍夫(注:考慮到中西方不同的習慣,我下面分別稱二位為顧先生和卡爾,而不考慮二者不屬於同一個稱謂體系這一問題)合著的《腦與人工智能:一位德國工程師與一位中國科學家之間的對話》[1****](以下簡稱《對話》)從許多方面來説都是獨特的。即使不提其中英文對照的形式,兩位專業和文化背景都迥然不同的資深專家通了幾年的電郵來討論共同關心的問題,這本身就是很罕見的。像各國的腦模型計劃、深度學習在圍棋等領域的成功這類話題,近年來已經成媒體新寵,各路專家也都登台亮相過了,但不同觀點的深入交鋒並不多見,還不要説這種交鋒還是在惺惺相惜的氣氛下進行的了。
點擊“閲讀原文”可購買此書
我覺得《對話》首先可以被看成科學討論的範本,尤其是青年科技工作者們可以從中學到如何既保持開放心態又不淪為隨聲附和,既不放棄自己的原則又尊重對方的觀點等等“基本對話禮儀”。這種對話本應是科學研究的重要形式,但又是在媒體中和教科書中看不到的。二位作者在各自的領域中都已是功成名就了,但仍能願意認真地考慮不同意見,並不恥於承認自己的缺失和疏漏之處,這是難能可貴的。能夠保持赤子之心和君子風度,這隻有在對話目的純粹是滿足求知慾和推動科學發展(而非眼前的功利或證明自己的高明)時才能做到。
《對話》的另一個特點是話題的廣度。圍繞腦科學和人工智能這兩個核心領域,書中以通信文本和背景專欄兩種方式介紹了大量相關知識,並不時將討論提升到科學哲學、科學政策的層面,而又緊扣當前的問題,絕無賣弄學識之嫌。這不僅將有關思考置於更大的背景之上,也增加了閲讀體驗的生動和愉悦。比如説卡爾在榮升外祖父之際開始意識到“祖父母在系統化、彙總和篩選知識以及教授相關知識和技能方面做了大部分工作”,生動地表現出一個思想者時時處處都不忘“理論抽象”的特質,令人忍俊不禁。由於《對話》中談到了大量話題,在這篇短文中無法逐個加以評論。下面我僅選幾點加以討論。
對腦模型計劃的質疑
《對話》的源頭是顧先生對歐盟“人腦計劃”(HBP,用計算機模擬整個人腦)的質疑(可參閲《歐盟人腦項目:有錢有大計劃,就能做出基礎科學突破性成果嗎?》),而卡爾也恰有同感,故二人相互補充,對這個當時炙手可熱的計劃進行了剖析,而其主要預測已被後面的歷史發展所證實。我個人在這個問題上的觀點和二位作者高度一致,即認為
1. 我們對腦的認識尚不足以支持全腦範圍的計算機仿真,
2. 智能計算機未必要在細節上覆制人腦。
這兩個論斷都是關於人腦和計算機的功能等價性的,只是關注的方向恰好相反。
從計算機被髮明出來那天起,其和人腦的等價性就是個被反覆探討的問題。由於計算機就是被造出來完成人腦的某些任務的,功能與人腦自然有重合。而在另一方面,由於計算機是個機電設備而人腦是個生物組織,這二者顯然又有根本差別。因此,計算機和人腦的關係不是“相似還是不似”的問題,而是“在哪些方面相似,相似到什麼程度”的問題。這聽上去像是常識,但在討論中人們往往會注重於這個關係的一個方面,而有意無意地忽略了相反的證據。
從原則上講,任何對象或過程都可以在計算機中被模擬或仿真,而結果的逼真程度會隨着計算機模擬技術的發展和對模擬對象的認識加深而不斷提高。對於人腦這個對象及其內部過程當然也不例外,因此我並不懷疑腦模型研究的理論和實用潛力。這裏需要注意的是,除了當前計算技術的限制之外,腦模擬主要受限於模型本身的精確程度,因此囿於當前腦科學的水平。一個不正確的模型對腦科學的價值就相當有限了,不管它工程上如何宏大。卡爾反覆強調“模型”和“理論”的差別,顧先生指出不能把人腦當作人造物件,理由都在這裏。這不是靠砸錢就能解決的,而“大科學”的運作方式在此類情形下反而會阻礙科學進步,包括集中資源時對其它研究思路的抑制和失敗後的殃及池魚。
即使腦模型尚不能準確模擬人腦,它能否為智能機器的設計提供思路呢?原則上這當然是可能的。像我在《當你談論人工智能時,到底在談論什麼?》中所分析的,從廣義上説所有人工智能的研究路線都是對人類智能的某種模仿,其差別只是在抽象程度和覆蓋範圍上。目前的“類腦智能”把智能看作腦的產物,進而在神經元水平上模擬腦結構,這自然不無道理,但認為這是實現通用智能的唯一途徑就未免至少是想象力不足了。近期關於“類腦智能新突破”的報導都忽略了所謂的“新功能”在人工智能歷史上大多已經被其它技術用更簡單的辦法做到了,當然那些技術有別的弱點,因此現在不常被提起了。比如説所謂“災難性遺忘”就是人工神經元網絡獨有的問題,因此這裏的進展是不能被用來證明這條技術路線的優點的。二位作者在《對話》裏提出了相當充分的論據,來説明智能機器不一定是越“類腦”越好,而且除了腦結構之外,身體的作用和社會環境對智能系統也是不能忽略的,所以即使有理由走這條路,現在考慮到的因素也遠遠不夠。
我完全同意顧先生的下述結論:“探索腦功能機制和開發智能機器是兩個不同的任務,雖然它們是相互關聯的,但不應該混淆兩者。”各種腦模型的支持者常常聲稱這種研究有一石二鳥之效,但很少為這個結論提供超出直覺之外的論據。而一旦分別討論這兩個目標,評價標準就不一樣了。如果腦模型主要服務於腦科學,則其主要標準就是它在多大程度上相似於大腦;如果是作為實現智能的手段,那就要在功能和效率等方面論證其優於其它手段之處,而不能只靠“類腦”來説事。
主觀性和私密性
《對話》後期的核心議題是“意識”,包括它如何在人腦中出現和能否在計算機中出現。顧先生和其他一些學者一樣,認為這個現象的根本特徵是主觀性和私密性,因而和科學研究所要求的客觀性和公共性不相容。即使我們可以(從第三人稱的角度)透徹地描述一個認知過程,但這和(從第一人稱的角度)直接感受它畢竟不同,因此“討論人工意識的問題還為時尚早”。卡爾認為人工智能在未來可能會有意識,但承認這是個非常困難的問題,目前還看不出如何解決。
這個問題大概是我和《對話》作者們觀點差異最大之處了。我同意意識的主觀性和私密性,但不認為這為對意識的科學研究和計算機實現設置了不可逾越的障礙。在直接討論意識之前,讓我們先看看精神活動的主觀性、私密性和對這種活動的科學研究之間的關係。
首先,主觀性和私密性不限於(狹義的)意識,而是普遍存在於各種精神、心理活動之中。以感覺為例,正像卡爾説的:“我們永遠都不能確定你所看到的紅色究竟是否就是我看到的紅色”,這不僅因為感覺的結果只直接呈現於感官屬於的認知主體之中,也因為感官的微小差異也會造成感覺能力和結果上的差異。比如説某人也許對某種顏色(或味道)比其他人更敏感。
當討論範圍從感知移至認知,私密性依舊,而主觀性更甚。像我在《“意思”是什麼意思?》中所説的:“由於概念和語詞的意義均由相關的經驗決定,而不同的系統總是有不同的經驗,所以意義從根本上説是私人的和主觀的。”我們的觀念取決於我們的軀體、和環境相互作用的歷史、從語言和經驗中習得的概念體系,等等,因此我們之間的觀念差異既不是任意的,也不簡單地總有個誰對誰錯。這就好像我們都是帶着一副有色眼鏡看世界,而每個人的眼鏡又不完全一樣。請注意這裏不存在“摘下眼鏡看世界的本來面目”的可能性。儘管我們仍然可以説世界獨立於所有認知主體而存在,但對世界的任何描述必須依賴於一個概念體系,而不同的體系用不同的方式“分割”世界,使我們得以聚焦於具體事物。
比如説《對話》中討論到的翻譯問題。嚴格地説,完全精確的翻譯是不可能的,因為不同的人類語言自帶不同的概念體系,因此對應於一副特定的“眼鏡”。這也就是有些語言學家主張“不同的語言對應不同的世界觀”的根據。和很多人想象的相反,並不存在一種“上帝的語言”可以描述世界的“本來面目”。所謂“裸眼”其實也是一種眼鏡,否則如果連聚焦功能都沒有,怎麼“看到”事物?
如果是這樣,科學理論的客觀性又如何可能呢?在這裏“客觀性”實際上是指“公共性”而非“無主體”。我在《“意思”是什麼意思?》中解釋過,“意義的客觀性成分主要是通訊和社會化的產物,因為這些過程為不同系統提供了相似的言語經驗和社會經驗,並促使它們按照約定和習俗使用語詞”,而軀體、自然環境、社會環境的相似性越高,這種約定和習俗也就越容易建立和保持。在書中,卡爾也提到了“通訊”和“共情”在消除主觀性上的作用。
就此説來,即使某個心理現象具有主觀性和私密性,這也不妨礙我們建立相關的科學理論和計算機實現。比如説關於大腦是如何辨認色彩的,我們已經有相當好的理論(儘管不是十全十美),而且可以在計算機上實現同樣的功能(儘管細節上與人腦不同)。當然,計算機仍然不能享受到卡爾看到他喜愛的那種藍色時的感覺,但我們其他人也不能呀。這裏科學技術所需要的並不是卡爾的那一副不可分享的“私用眼鏡”,而是大家都可以用的“共用眼鏡”,儘管用這種眼鏡看不到某些用“私用眼鏡”才能看到的東西。
描述層次
把理論當作“眼鏡”這個比喻還可以進一步展開。即使都是“共用眼鏡”,也仍可以有“度數”(放大倍數)之差,而度數不同的眼鏡會使我們看到不同的景象。對應到科學領域中,不同的學科使用不同的概念體系,以此確定了其中的理論的描述層次。一個“低層理論”就像高度數的眼鏡(或者説顯微鏡、望遠鏡),可以看清更多的微觀細節;一個“高層理論”則提供了更大的視野,適合於描述系統的整體或宏觀特徵。
在多種描述層次共存的情況下,各層上的理論自有其獨特價值,是不可以互相完全替代的,因為一個特定的現象往往只能在某個層次上討論。比如在某個觀察距離上能看到的一條山谷,在離得太近或太遠時就看不到。“只見樹木不見森林”也是説的這個理。這些層次之間當然有關係。“推進鏡頭”(至下一個層次)往往可以更好地瞭解某個成分的內部結構和過程;“拉開鏡頭”(至上一個層次)往往可以更好地瞭解某個成分的外部功能和聯繫。
説不同的學科(物理、化學、生物等等)對應用不同的描述層次,這可以算是常識,但相關討論中有兩個常見的誤區。一是認為某個層次比其它層更基本甚至更真實,而其它層次只不過是建築在其上的近似描述,因此原則上可以都“還原”到這個基本層。**這種觀點的極端形式就是“物理主義”,即認為唯有物理學有可能提供一個“萬物理論”。**在和本文直接相關的討論中,這種還原論對應於“心理學可以還原成腦科學”的假設,同時也是“只有類腦計算才能完全實現人工智能”的信心來源。
在科學哲學中關於還原論的討論已經有很多,《對話》中也有涉及,我這裏只補充兩個不常被提到的分析角度。其一是以往討論的重點常常是“哪種理論準確地描述了對象”,因此低層理論會以其細節的豐富而勝出。這裏被忽略的是理論的使用者在信息加工能力上的限制和要説明的現象。包括過多無關細節的理論常常是不好用甚至沒法用的,而這正是上升到更高的描述層次的主因之一。另一個因素就是同一個高層過程常常與多個低層過程相對應,而對很多目的而言,區分這些低層過程毫無必要。舉例來説,一棟建築物當然是由原子組成的,但我們不會在原子水平上進行建築結構設計。為什麼?不是因為不可能,而是沒必要和太麻煩。
在討論理論層次關係時常犯的另一個錯誤就是認為不同層次上的描述之間有因果關係,比如説某個心理層面上的事件A是由某個神經層面上的事件B“造成的”,而實際上A和B是在用兩組不同的語彙描述同一個過程,所以不存在因果關係。比如説我們可以用“大量分子碰撞”來解釋“熱運動”,而不能説前者是後者的“原因”。不管怎麼定義“因果關係”,説的總是不同事件之間的關係,所以如果A和B根本上是被不同的語彙所描述的同一個過程,那麼在二者之間是無因果可言的。
直面意識問題
基於上述分析,我不同意《對話》作者們(以及很多其他科學家)“意識是從腦中湧現出來的”的説法,因為這隱含着“神經層描述是基本的(或真實的),而意識層描述是導出的(或虛構的)”的預設。我認為神經層描述(甚至物理層描述)仍然是使用特定概念完成的,因此和意識層描述並無本質不同,都是一個觀察者以一種特定的觀察方式得到的。
和很多重要概念一樣,“意識”並沒有一個公認的定義。但儘管如此,其核心含義仍是關於一個認知主體的自我認識,因此這種“內向”的自我感知和“外向”的環境感知有很多共同點。其差別我認為主要在兩點:
1. 內部環境是獨享的,而外部環境是共享的,這就強化了意識的主觀性和私密性。但如前面分析的,外向的感知也不是完全沒有主觀性和私密性,所以這個差別是相對的程度之差,而不是絕對的本質之差。儘管我們無法直接體驗他人的內心感受,共情、推理等機制還是使我們有一定的“設身處地”、“推己及人”的能力。
2. 我們對自身認知活動的感知是直接實現在概念層上的。比如説如果我問你“你剛才在想什麼?”你對這個問題的答案當然在你“腦海”中對應着相關神經元的活動,但你直接“感到”的是“念頭”。這和視覺、聽覺等從物理信號開始的多層抽象有根本不同。我們的“內心感受器”直接感受到“意義”,而不像其它感官那樣只提供信號,將對其“意義”的獲取留給後面的知覺、識別、理解等過程。其結果就是我們描述內心感受與活動的“心理語言”和描述外部感知的“物理語言”(廣義的,也包括化學、生物等層面的詞彙)使用不同的概念語彙。即使我們有辦法藉助某種設備精確地在神經元層面觀察一個過程,從中得到的“第三人稱”描述也和當事人的“第一人稱”描述不同。可以説我們觀照內心時所用的“眼鏡”和觀察世界時所用的不是同一副,它們產生的結果甚至都不在同一個描述層次上,因此不可以精確互譯。
由於上述原因,當我們由於想法A採取了行動B,然後看到外顯後果C的時候,A是用心理語言描述的,C是用物理語言描述的,而它們之間的關係被描述為“A是C的原因”。這往往被看成“精神變物質”,而外界事件引發的心理活動則成了“物質變精神”。但這種跨層次的因果關係所造成的“解釋鴻溝”可以更自然地被歸因於兩種不可直接互譯的語言被分別用來描述這兩個被聯繫的事件。
上述的情景完全可能在人工智能系統中出現。在**[2****]**中,我們描述了一個具有簡單自我感知和自我控制能力的智能推理系統,其中的“自我”概念的基本內容是“我在什麼條件下可以採取何種行動來導致何種後果”,即上述的“ABC”關係。雖然目前還非常簡單,這一機制已經具有產生上述意識現象的能力,即系統本身有“內部心理經驗”(某種“意識流”),並可以根據過去的經驗和當前目標選擇行動。這就是説某種人工智能系統完全可能有意識,儘管和人類的意識內容不會一樣。當然,這並不是説現在所有自稱“人工智能”的系統都會有意識,因為它們的行為基本與經驗無關,更不必提內部經驗了。
一個可以預料的反對意見是説這仍僅僅解決了查默斯所謂的“簡單問題”,而沒有解決“困難問題”,後者是説明主觀感受如何能從神經元活動中產生出來(《對話》中對這個區分有詳細介紹)。我認為這裏有兩個要點。一是在人工智能系統中只要是由感官直接提供給系統的信號構成的輸入流就是系統的“主觀經驗”。這種經驗的私密性就在於即使我們可以將其複製或解釋成我們可以理解的形式,對於我們這些外界觀察者而言這也不再是第一人稱的主觀經驗,而是第三人稱的客觀經驗,但這不能作為系統自身沒有主觀經驗的理由(“子非魚,安知魚之樂?”)。另一個要點就是主觀感受本來就不是“從神經元活動中產生出來的”,而是系統自身的直接觀察結果,而其中所用的感官是根本“看不到”神經元(或電子線路)的。我們對相應神經元活動(或電信號活動)的描述只是在另一個層次上從另一個視角對同一個過程的描述,因此二者之間並無“生成”關係可言。這就是説查默斯的“困難問題”本來就不是個正確的問題。我在這個問題上的看法與顧先生在《對話》中表達的看法不同,雖然我完全同意他對意識的主觀性和私密性的強調,以及“意識活動不能被還原成腦活動”的結論。
儘管有這些不同意見,我仍然確信在近年出版的大量關於人腦和人工智能的書籍中,《對話》應該算是最深刻的之一。讀者們一定可以從中受益,並被激發出更深入的思考與研究。
參考文獻
1. 顧凡及,卡爾·施拉根霍夫.《腦與人工智能:一位德國工程師與一位中國科學家之間的對話》(含三冊: 《腦研究的新大陸》《意識之謎和心智上傳的迷思》《人工智能的第三個春天》)[M]. 上海教育出版社,2019
2. Pei Wang, Xiang Li, and Patrick Hammer. Self in NARS, an AGI System, Frontiers in Robotics and AI, Volume 5, Article 20, 2018
注:本文所提到之作者其他文章,可進入公眾號底部菜單“精品專欄-AI那廝”查閲。點擊https://cis.temple.edu/~wangp/Chinese.html,可查閲作者所有科普文章和科普視頻。
版權説明:歡迎個人轉發,任何形式的媒體或機構未經授權,不得轉載和摘編。轉載授權請在「返樸」微信公眾號內聯繫後台。
特 別 提 示
1. 進入『返樸』微信公眾號底部菜單“精品專欄“,可查閲不同主題系列科普文章。
2. 『返樸』提供按月檢索文章功能。關注公眾號,回覆四位數組成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。