王培對我的《心智、語言和機器——維特根斯坦哲學和人工智能科學的對話》的評介_風聞
徐英瑾-复旦大学哲学学院教授2018-10-31 14:09
美國天普大學計算機與信息科學系的王培老師對我的《心智、語言和機器——維特 根斯坦哲學和人工智能科學的對話》做了評介,如下:
多年之後,“人工智能”(AI)重回公眾視野,而徐英瑾的《心智、語言和機器——維特根斯坦哲學和人工智能科學的對話》(人民出版社,2013,以下簡稱《對話》)的出版可謂恰逢其會。
和很多哲學家站在人工智能之外對其評頭論足不同,徐英瑾此書的最大特點就是真正進入到這個領域之中,對工作技術方案的哲學前提和後果進行分析。因此,對於希望對這個領域進行深入思考的讀者,尤其對在相關問題上工作的研究人員來説,閲讀此書應當會是一次既有挑戰又有收穫的思想歷程。
因為我本人和徐英瑾有長期合作關係,也在本書的寫作過程中參加過意見,這篇書評就不能是站在局外品評其成敗之處,而更多的是對其的介紹和補充。當然,作為一個人工智能工作者,我的分析和結論和作為哲學工作者的徐英瑾不會完全相同。但正因為如此,希望這篇書評能夠幫助讀者加深對有關問題理解。
(一)人工智能的理論預設
徐英瑾的《對話》把人工智能和哲學史上的主要流派和代表人物在觀念上的關係進行了一番詳細的梳理。他的論題既有“不同國家的哲學文化對於AI科學發展的影響”之類的宏觀概括,又有對笛卡爾、萊布尼茨、霍布斯、休謨、康德等人的思想和AI關係的介紹,尤其是對維特根斯坦和人工智能的關係進行了詳細和獨到的分析。有代表性的人工智能哲學研究也均有論及,並在此基礎上總結出了他對這個領域中成果所應達到的標準。作為人工智能哲學的引論性著述,這本書已經相當完整。
在這裏我要補充討論的是人工智能工作者們的哲學觀念,儘管這些觀念常常不是用哲學術語表達的。正像《對話》(第1頁)開頭所説,很多人工智能工作者覺得哲學討論都是空談,殊不知他們的很多基本觀點實際上屬於哲學性的。一般來説,任何一個科學技術領域均有哲學觀念的問題,因為每個理論都有其邏輯起點,包括基本預設、覆蓋範圍、直觀背景等等。在這些問題上的爭論往往不能完全在該領域之內得到解決,而需要在更大的尺度和範圍中進行考慮,因而進入了哲學的範圍。由於人工智能的研究對象涉及智能、認知、思維、心靈、意識等在哲學中被反覆討論和使用過的概念,和哲學的關係就比其它領域更密切和複雜。
在這一點上,人工智能和其它科學技術領域最大的不同是其中研究規範的龐雜。一個領域內有多個相互競爭的規範並不奇怪,但在其它領域中,主要的爭議是對現象的解釋和對問題的解決方法,而在人工智能領域中的爭議首先是什麼是要解釋的現象和要解決的問題。“人工智能”直觀意義很簡單,可以説就是“讓計算機像人腦那樣工作”。但計算機畢竟不是人腦,也不可能在所有方面都像人腦,因此一個人工智能系統只能是在某個方面像人腦,而在其它方面可能完全不像。

在這一點上,人工智能主流的觀點是把智能看成“能解決那些人腦能解決的問題”的能力。在這裏,“問題”可以是具體的實際應用,如“下圍棋”和“開汽車”,也可以是抽象的認知功能,如“推理”和“學習”。(Russell & Norvig 2010)這種把“智能”看作“解題能力”的觀點實際上是一個關於智能和思維的哲學信念,儘管絕大多數人工智能工作者們是將其作為一個自明的前提來接受的。造成這個現狀主因是人工智能是作為計算機科學的一個子領域發展起來的,因此繼承了其基本研究規範,而計算機科學的基礎又是從數學中繼承來的那些為解題過程提供規範的理論。(Feigenbaum & Feldman, 1995)
徐英瑾的《對話》(286頁)中所介紹的戴維·瑪爾的“三層次説”就是這一觀點最廣為人知的表述之一。在瑪爾看來,要解決某個問題,第一步是把該問題嚴格定義為對每個可接受的輸入值指定輸出值的“計算”或稱“函數”,第二步是把該問題一個解法表達成明確地一步一步將輸入變成輸出的“算法”,第三步是把該算法實現在計算機中,而後計算機就可以依照此算法在這個問題的各個實例上完成這個計算了。這三個步驟也可以被看作對該解題過程的三個描述層次。按照這種信念,所謂“智能”無非是一組算法的總稱,而人工智能和計算機科學的其它分支的差別只是由於它所研究的算法對應於人腦所表現出的問題解決能力。
因此,儘管人工智能需要研究各個問題的具體解決過程,其基本理論需求並未超出現有的理論範圍,其中主要是集合論、數理邏輯、概率論、可計算性理論、計算複雜性理論等。在一本流行的人工智能教科書中(Russell & Norvig2010),1987年被選為“人工智能開始採用科學方法”的標誌年份(以Judea Pearl關於貝葉斯網絡專著的出版為標誌事件),而這是因為“此後更常見的做法的是理論用現有的而非新造的,結論來自嚴格的定理或實驗證據而非直覺,結果表現為現實應用而非簡單例子。”在很多人看來,人工智能界主流是從早期的好高騖遠變成後來的腳踏實地。
但從另一方面來看,這也可以説是在理論上轉向保守,將研究目標由通用系統轉為專用系統,希望用技術手段解決理論問題,並在評價研究成果時強調近期應用而忽視遠期潛力。儘管取得了一定的應用成果,人工智能的這一轉向事實上抑制了對智能的基本問題的理論探索,以至於作為這個領域的奠基人之一的閩斯基抱怨説“AI已經腦死亡了”。 (Baard, 2003)
一些AI圈外人(如《對話》中提到的德瑞福斯、塞爾、彭羅斯等),感到了人工智能在這方面的問題。他們正確地指出人的思維不能在人工智能現有的理論框架中得到解釋,但錯誤地以此作為“真正的人工智能不可能實現”的理由。這些人工智能的批評者在這裏和他們的批評對象一樣,把計算機的一種特定的使用方式(遵循算法來解決問題)當做了其唯一可能的使用方式,因此不能為這個領域中的突破指引方向。(Wang 2007)
把“智能”看成一組算法的另一個後果就是人工智能領域的“身份危機”。由於“只有人腦能解決的問題”是一個隨時間而變的概念,以其為目標導致人工智能説不清自己和計算機科學的其它領域的區別何在,更遑論建立一個統一的理論基礎。一個常見的現象就是當一個以前只有人腦才能完成的甲任務被計算機完成後,總會有人視其為“人工智能的里程碑”,並期望乙任務、丙任務、丁任務等也會很快被完成。但過不了多久,大家就會發現完成甲任務的方法基本無法推廣,而在其它任務被完成之前,即使甲任務的“完成”也是打了很多折扣的,且和傳統的計算機應用相差不遠。
這時“真正的人工智能不可能實現”的論斷又會重現,甚至先前的“里程碑”也會淪為其“技止耳”的證據。這種“季節變化”在人工智能的歷史中已經反覆上演。很多人工智能工作者抱怨自己的工作得不到應有的承認,並試圖使大家相信人工智能已經在我們身邊,但往往説服力有限,因為人們靠直覺就可以感到所謂“智能系統”和人類思維的根本差別。把“智能”看成一組算法也造成了人工智能領域的碎片化。在把每個問題獨立定義和解決的過程中,各個認知功能之間的內在聯繫被割斷了。其結果之一就是這些功能在很多所謂“人工智能”系統中的表現和它們在人的思維活動中的完全不同。
對於那些主要以人工智能作為研究人類智能或一般智能的途徑的研究者來説,這種“分而治之”的辦法是有根本缺陷的。即使完全從應用的需要來看,各個認知功能的協調運用在解決問題過程中也常常是不可或缺的。以自然語言理解為例,説“語言理解不需要思考”聽上去明顯有問題,但至今語言理解系統一般都沒有多少推理能力。
正是對上述問題的思考導致了近年來“通用人工智能”思潮的興起,其主要特徵就是對智能的通用性和整體性的強調,以及對主流人工智能的基本預設的挑戰。(Pei Wang & Ben Goertzel 2007) 要理解這一類研究工作和傳統人工智能的區別,我們需要重新審視“智能到底是什麼”和“怎樣在計算機中實現智能”等基本問題。
(二)納思的理論預設
納思(非公理化推理系統,Non-Axiomatic Reasoning System,NARS)是我設計的一個通用人工智能系統。徐英瑾在《對話》中在用通俗易懂的語言和實例介紹人工智能中的主要技術方案(符號進路、人工神經元網絡、遺傳算法、貝葉斯網絡)之後,重點介紹了納思的主要成分,並以“相關性問題”為例分析了其理論意義。在書的後幾章中,他更詳細建議了用納思處理視知覺和中文的方法。由於上述功能在納思的規劃中仍處於設計階段,這些建議對今後的工作是有重要意義的。關於納思的詳細技術性描述,可見我已經發表的論文和專著(Wang 1995, 2006a, 2013)、主頁中收集的文章(http://cis-linux1.temple.edu/~pwang/papers.html),以及納思網(https://github.com/opennars/opennars/wiki)中收集的源代碼、文檔、實例等。在這裏我主
要介紹納思的主要哲學背景和理論預設,尤其是其中和主流人工智能的不同點。
納思和其它人工智能系統的不同很多都可以追溯到對智能的理解。在我看來,智能是“一個適應系統在知識和資源不足的條件下工作的能力”。所謂“知識和資源不足”,具體説來是下面幾點:
(1) 智能系統只能依賴於有限的信息加工資源。這裏有限性主要指處理器的數目和速度以及存儲空間的容量。對於智能機器人,有限性也包括能量儲備和直接感知運動能力。
(2) 智能系統必須實時工作。這就是説新任務可能在任何時刻出現,並且均有完成時間要求,如“五分鐘之內”或“越快越好”等等,因此多個任務會爭奪系統資源。
(3) 智能系統必須對未來經驗報完全開放的態度。這就意味着新知識可能和已有知識相沖突,新問題可能超出系統的知識範圍,而這些情況均不應導致系統的癱瘓。
在這種條件下工作意味着系統中的所有來自過去經驗的知識都可能被未來經驗挑戰,而且系統在解決一個問題時一般沒時間考慮到所有的相關知識,因此無法保證所有結論都是絕對正確或最優的。這種情況下的理性只能是一種“相對理性”,即適應性,就是説系統只能用過去經驗來盡力應對目前的新情況,用有限的資源來儘量滿足當下的要求。按照這種想法設計的系統和目前常見的主流人工智能系統有着根本性的不同。由於系統經驗和資源需求隨時間變化,系統對一個問題的解答往往不是固定的,因此“問題”和“解答”不能被看成經典意義下的“計算”或“函數”,並且解題過程也不遵循一個確定的“算法”,而是具體問題具體分析。
即使是同一個問題實例,在不同的情形下所得到的處理也可能很不同。
這個意義下的人工智能不再是傳統計算理論所能涵蓋的。實際上這二者在前提上是互補的:前者研究知識和資源不足時的工作方式,而後者研究知識和資源充足時的工作方式。這就解釋了納思為什麼不是基於現有理論基礎之上的。在一個數學理論中,有關的知識一般都已經在公理和定義中,而解題時所用的資源是忽略不計的(只需是有限的)。這和我們日常的問題解決過程完全不同。
當現有的理論不能滿足問題的要求時,正確的辦法是嘗試建立新理論,而不是削足適履,把問題限制在已有理論所能覆蓋的範圍。正像徐英瑾在《對話》(第276頁)所指出的那樣,建立一個正確的“戰略”往往不像在“戰術”上打主意見效快,但從長遠看來卻是更有效率的,因為戰略上的錯誤是不能用巧妙的戰術來彌補的。納思的上述理論預設並沒有使其無法再現有的技術條件下實現。具體説來,納思是在一個推理系統的框架裏設計的,主要包括一個“邏輯”部分和一個“控制” 部分。和數理邏輯致力於刻畫從公理推出定理的證明過程不同,納思所使用的是一個“非公理化邏輯”,其基本功能是根據系統的經驗確定概念的意義和陳述的真值。它是“非公理化”的,因為其中沒有一個來自經驗的陳述具有
“公理”的邏輯地位,即其真值不可能被未來的經驗所挑戰。
儘管不再有傳統意義下的“保真”性,非公理化邏輯的規範性仍然可以在相對理性的基礎上被建立起來,而其中的推理規則的有效性則體現為其結論的真值恰當地衡量了前提所提供的證據。這樣一來,傳統邏輯中無法包容的歸納、類比等非演繹推理得到了在統一基礎上的實現和辯護。納思的“控制” 部分的任務是有效地分配系統的資源。在大量推理活動競爭有限資源的情況下,系統的時間和空間均是按競爭者(概念、任務、知識等)的優先程度分配的,其中綜合了競爭者的自身特徵、系統對其以往效用的評價、與當前系統目標的相關性等因素。
儘管一個完整的問題解決過程不再遵循任何給定算法,其中的基本步驟仍各自遵循相應的算法,只不過這些“微算法”之間的組合依賴於系統的歷史和環境中的很多因素,因此其整體效果一般是不可精確預測或嚴格再現的。
在納思中,推理系統的框架得到了逐步擴充,以統一實現各種(傳統上不被看作推理的)認知功能,如學習、聯想、規劃、感知、決策、操作、通訊等。這些功能不是被彼此獨立的模塊分別完成的,而是同一個過程的不同側面。當然,納思內部也是由各種“部件”組成的,但其劃分和目前人工智能諸子領域的劃分完全不同,而且這些部件均不能被單獨用來解決應用問題,因為它們之間有極強的相互依賴性。
由於納思的智能不是直接體現在其解決問題的能力上,而是體現為一種“元能力”(即獲得解決問題能力的能力),它自然就是通用的,而其解決某一領域中的問題的能力完全來自於系統自身的經驗,包括通過感知運動界面得到的直接經驗和通過語言界面得到的間接經驗。因此,這種對智能的理解導致計算機是在信息加工原則上像人類靠攏,而非複製人的個別解決問題能力。儘管讓計算機
解決各種問題自然是有其重大價值的,但這種工作並不一定加深我們對思維一般規律的理解。人工智能幾十年的歷史已經充分説明了這一點。按照我這個智能定義,智能不是全知全能,智能系統也經常會犯錯誤。納思需要通過大量的學習來達到在某個領域內有實用價值的水平。即使在達到這種水平之後,學習也不會停止,尤其是在環境不斷變化的情況下更是如此。這種學習不僅限於知識的積累,也包括技能的習得和動機的演化。納思的初始動機是由外界(設計者或用户)設定的,然後系統會從中生成派生動機,並維護整個動機體系的協調性和有效性。
納思的概念設計和計算機實現已經基本完成,目前的工作已轉向調試。儘管離實際應用還很遙遠,目前的系統已經表現出很多與其它人工智能系統不同,而更像人類思維活動的特徵。儘管納思不是作為一個心理學模型來設計的,其智能定義和在此基礎上建立的理論模型仍可以統一地解釋很多心理現象,包括注意、遺忘、靈感、直覺、審美、情感等等。由於系統經驗上的根本差別,在計算機中這些現象在具體表現上和人類很不一樣,但在功能和原理上卻足夠接近,以至於可以用相同的概念來描述。
在納思的設計過程中,對我影響最大的哲學家包括羅素、休謨、卡爾納普、皮爾斯、庫恩、拉卡託斯等人,大概是由於他們關注點和表達方式和我的理工背景和研究興趣比較吻合(徐英瑾對這一點有所評論,見《對話》第9頁)。對於維特根斯坦,在遇到徐英瑾之前我只是瞭解其語言理論,尤其是其“意義即用法”和我的“基於經驗的語義學”可以説是有“家族相似”在其間的。經過徐英瑾的大力開掘,居然在維氏和納思之間建立起密切的聯繫,以至於將納思看作“對於維特根斯坦哲學理想的工程學逼近”(《對話》第242頁),這自然是我所樂於得知的。
(三)人工智能近期發展分析
在徐英瑾的《對話》完稿後的兩年中,人工智能又一次經歷了由“春”到“夏”的季節變化。這些新發展是否挑戰了書中的結論?這是本節要討論的話題。這次變化的主要動因是深度學習使得計算機在若干領域取得了出人意料的進展,導致公眾對人工智能的成功可能性的估計大幅上升,以至於開始擔憂其社會後果。“深度學習”是人工神經網絡模型中的一個新技術。(LeCun, Bengio & Hinton 2015) 徐英瑾在書中已經對這個模型的主要想法進行了描述(第43頁)。簡單説來,每個人工神經元對應一個簡單函
數,其中輸出值依賴於諸輸入值的加權總和。人工神經網絡是由很多人工神經元構成一個分層結構,其中每層的輸出成為另一層的輸入,在數學上表示為一個向量。從整體上看,這樣一個網絡就對應於一個複雜函數,由最底下的輸入層的向量值確定最頂上的輸出層的向量值,而這個函數的細節是主要由網絡結構和其中神經元之間的聯結強度(權重)所決定的。
説人工神經網絡有學習功能,是因為一個網絡所對應的函數不是在設計時定下來的,而是通過訓練得到的。一個常見的訓練樣本是一個輸入(如一張鳥的照片)和所期望的輸出(如“鳥”這個詞),二者均表示為向量。當網絡的實際輸出與正確輸出不同時,其差值被一個學習算法用來調整有關的權重。當訓練結束後,網絡不但可以在見到一個已知輸入時給出對應的輸出,還可以為從未見過的輸入根據其與已知輸入的相似性確定輸出。
最初的人工神經網絡只有一個輸入層和輸出層。這樣的網絡有很大侷限性,有很多函數根本無法學會。後來,中間層被引入了,網絡的能力因此有了極大提升。所謂“深度學習”就是發生於有很多中間層的網絡。新發現的高效學習算法和大量的訓練樣本以及強有力的硬件相結合,造成了網絡功能的大幅度提升。這項新技術被各大公司用在多個應用之中,並吸引了媒體和公眾的廣泛注意。儘管深度學習的確有重大理論和實用價值,這項技術仍有某些根本侷限性。我在(Wang 2006b)中列舉了用人工神經網絡構建通用智能系統的一些問題:
人工神經網絡把知識表示成輸入或輸出向量,這對於通用系統來説往往是不方便的,因為知識往往涉及不同的抽象水平。如徐英瑾在《對話》中(第22頁)所指出的,迴避知識表徵無助於問題的解決。
智能系統所面臨的問題往往不能被看作一個輸入輸出之間的函數關係,因為對一個給定輸入,一般不是僅有一個唯一輸出與其相對應。
智能系統中的學習應當表現在多個方面,而非僅僅能從具體例子中總結一般規律。人工神經網絡的學習和工作都遵循給定算法,因此對每個問題有確定的時空資源開銷,所以無法滿足實時系統的要求。因為上述問題均來自人工神經網絡的基本預設,它們不能被深度學習這種在這些預設之上構建的技術所解決。如徐英瑾所指出的,人工神經網絡仍受限於其行為主義的智能觀,即把智能看作特定的刺激反應關係。《對話》(第53頁)“對於神經元網絡技術的簡評”中對這項技術的侷限性的結論並未被深度學習的出現所推翻。
同理,深度學習並不比其它現存人工智能技術或計算機技術更危險。實際上,對人工智能危險的警告從這個研究開始之日起就沒有間斷過,只是在大家不認為人工智能可能實現時,沒多少人會認真對待這種警告。這一次,由於Nick Bostrom的《超級智能》(Bostrom,2014)的發表和一些重量級人物(如霍金、馬斯克、蓋茨)的加盟,這場討論一時席捲各大媒體。既然人類統治地球的最重要原因是其智能上的優勢,計算機在這一點上超過人類的社會後果固然值得謹慎評估。
有鑑於此,有人提出“安全研究先行”的觀點,認為只有在能保證人工智能不可能危害人類的條件下,這項研究才應該被進行下去。另一方面,主流人工智能專家們表示人工智能早已經進入我們的生活,因此沒什麼可怕。人工智能固然有危險,但和其它計算機技術的危險並無根本差別。(Dietterich &
Horvitz 2015)在這一話題上我覺得雙方的觀點都有問題,而其核心仍是在對“智能”的理解上。被設計來解決某個或某類應用問題的系統的確不會有比其它技術更大的失控危險,因為其能力和方法均是基本上被人類設計者所決定的,儘管系統自身可以通過學習填補某些設計細節。在這一點上,主流人工智能專家們的回應是有根據的,但這個結論只適用於他們所造的“智能系統”,而並不適用於基於對智
能的其它理解所可能開發出來的未來技術。
而另一方面,對人工智能缺乏瞭解的人們的結論往往是基於他們所想象的“智能系統”,而和實際研究結果相去甚遠。在這篇文章中全面討論人工智能的安全問題是不可能的,因此下面我僅以“動機”為例來看現有流行論點中的問題。一個智能系統的行為是被動機或目標所導向的。和生物與生俱來的本能性動機不同,人工智能的初始動機必定是由其設計者確定的,和其智能水平不具有必然的相關性。這就是説“高智能”既可用來行善,也可用來做惡。
因此,初始動機的選擇自然是至關重要的。傳統系統只有單一動機,從中派生出的目標集也不會超出設計範圍。但如果系統的智能很高,一個看似無害的目標也可能在多次派生後產生意想不到的後果。據Bostrom設想,如果一個超級智能系統以製造回形針為終極目標,那它有可能耗盡所有資源,以至於要消滅人類,只因為它相信這樣可以製造更多的回形針。
為避免這種災難發生,Bostrom建議在人工智能的終極目標中包含全部人類道德和價值,並保證派生出的目標集與其一致。
這種建議雖然聽上去很有道理,但實際上基本行不通。首先,確定一個能代表人類道德和價值的終極目標顯然不是一個很容易取得共識的任務。即使這樣一個目標可以被明確表達,它和要造回形針這樣的具體任務之間的邏輯關係也不是直截了當的,往往要通過若干步中間結果。由於這個原因,同時由於知識和資源限制,實際上我們往往無法準確預知一個行動的所有後果。比如説,那些主張人工智能研究應當緩行的人實際上無法證明這樣做可以的確使人類更安全,因為有些未來的災難可能恰好是靠人工智能才能避免的呢!
在(Wang 2012)中,我以納思為例討論了通用智能系統中的動機問題。其主要結論是:這樣一個系統一般同時有多個目標,而它們之間常常彼此競爭和衝突。一個操作的被執行不是單個目標所決定的,而是多個目標相互平衡的結果。而恰恰是這種相互制約使一個系統避免了極端化的行為。如果一個人工智能系統想通過消滅人類來實現世界和平,它肯定不是真的有智能。此外,智能系統中的“當前動機”不完全被其“初始動機”所決定,而在很大程度上被其經驗所決定,就好像一個成年人的動機大部分不是先天決定的,而是逐漸形成的。
這些因素不僅沒有被Bostrom等人考慮到,也尚未進入人工智能主流的視野。基於上述理由,我對人工智能的安全問題的基本看法是:像科學史上其它重大課題一樣,人工智能對人類既是個挑戰又是個機會。因此,對其社會後果抱謹慎態度是絕對必要的,尤其是要儘量防止倉促地把理論成果投入實際應用。但另一方面,對人工智能的安全問題的研究必須以對相關理論和技術問題的深入瞭解為前提。具體説來,由於智能系統必須是有適應性的,其行為不僅是被其(先天)設計所決定的,而更取決於其(後天)教育、訓練、使用等環節,而後者往往是在有關的討論中被忽視的。
(四)結論
由於人工智能的領域特徵,其中有大量的哲學問題。我們甚至可以説只有在哲學上正確的方案才存在技術上成功的可能。但不幸的是,很多人工智能工作者缺乏在哲學層面上檢討其理論預設的興趣和能力,而哲學工作者又常常缺乏深入瞭解技術問題的勇氣和基礎。
在這種情形下,徐英瑾的《心智、語言和機器——維特根斯坦哲學和人工智能科學的對話》代表了一種難能可貴的眼光、決心、和才能的結合。尤其是其不跟風、不怕難、不懼做少數派的態度,更是當前學術界所需要的。
我希望這本書的出版會對人工智能的哲學研究起到促進和示範的作用。在這個領域,人工智能工作者和哲學工作者相互理解的努力是會使雙方受益的。
參考文獻
Mark Baard, AI founder blasts modern research. Wired News, May 13, 2003.
Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press
(Oxford), 2014.
Tom Dietterich & Eric Horvitz, Benefits and Risks of Artificial Intelligence, Blog at
https://medium.com/@tdietterich/benefits-and-risks-of-artificial-intelligence-460
d288cccf3#, 2015
Edward A. Feigenbaum & Julian Feldman (editors), Computers and Thought, MIT Press
(Cambridge, MA), 1995.
Yann LeCun, Yoshua Bengio & Geoffrey Hinton, Deep learning, Nature 521:436-444,2015.
Stuart Russell & Peter Norvig, Artificial Intelligence: A Modern Approach, 3rd edition,
Prentice Hall (Upper Saddle River, NJ), 2010.
Pei Wang, Non-Axiomatic Reasoning System: Exploring the essence of intelligence,
Dissertation for the degree of Doctor of Philosophy in Computer Science and Cognitive
Science, Indiana University, 1995.
Pei Wang, Rigid Flexibility: The Logic of Intelligence, Springer (Dordrecht) 2006a.
Pei Wang, Artificial general intelligence and classical neural network, Proceedings of
the IEEE International Conference on Granular Computing, 130-135, Atlanta, USA, 2006b.
Pei Wang, Three fundamental misconceptions of artificial intelligence, Journal of
Experimental & Theoretical Artificial Intelligence, 19(3):249-268, 2007.
Pei Wang & Ben Goertzel, Introduction: Aspects of artificial general intelligence, In
Advance of Artificial General Intelligence, 1-16, IOS Press (Amsterdam), 2007.
Pei Wang, Motivation management in AGI systems, Proceedings of AGI-12, 352-361, Oxford,
UK,2012.
Pei Wang, Non-Axiomatic Logic: A Model of Intelligent Reasoning, World Scientific
Publishing (Singapore), 2013.