馮象 | 歡迎來到硬規則世界_風聞
保马-保马官方账号-2018-12-11 08:43
編者按
過去幾年,人工智能(AI)的火爆似乎掀起了新一波的技術浪潮,無數研究者轉移陣地、投身其中。隨之而來的,是各種有關人工智能社會的誇誇其談。但事實上,如何處理這種智能社會帶來的硬規則以及人際倫理上的人機關係問題才是更值得我們重視和深思的方面。本篇採訪稿即以此為切入點,談論了人機未來的可能性,指出“AI的自我意識演進是不可逆的;我們無法逆轉歷史,‘穿越’亦非明智的選項”。要想建造一個人機的美好未來,關注風險、警惕危險、建設新法制,同時用好公有制的優勢成為必然之選。
本文原載《文匯報·文匯學人》(2018年12月7日),感謝馮象老師對保馬的大力支持!
這是一本新書,《我是阿爾法》,封面畫着兩個人:機器人高出一頭,向人類伸出手來,可是那個抬頭仰視的人身子僵直,不願握手。
“原本草稿上,倆人是一樣大的。後來我建議機器人大點,人小點。”作者馮象先生説。
他説,國內學界討論人工智能(AI),經常落入一個誤區:把AI理解成了自動化問題。可是自動化,從發明輪船火車開始,產業升級“騰籠換鳥”的挑戰,是人類社會一直在應對的,至少有200年了。人工智能之所以值得探討,是因為地平線上升起了兩片陰霾:大失業同AI軍事化。終極的威脅則是,發展下去,人類可能會面臨一個遠比自己聰明的物種,其行為、性格與思想意識人絕對無法理解。這,才是新問題。
已故的麻省理工教授明斯基(1927~2016),人稱AI教父,曾説:“智能的力量源於我們自身廣博的多樣性,而非某種獨一無二的完美原則所賜”(The Society of Mind, 1986, p.308)。在他看來,本質上,人的感情和心理意識跟演算、邏輯推理沒什麼不同,都是智能的表現形式。人們引以為傲的各種智能,都可以還原為神經元相互作用的過程。
Marvin Minsky(1927-2016)
今天,有了大數據的條件,機器學習和神經網絡研究突飛猛進。機器可以撇開“人類標註樣本”或人的學習模式,自己尋找規律;或者基於海量的數據集,自我學習,實現升級。圍棋機器人AlphaGo Zero經過三天自學,左右手互搏,下出來的棋,聶衞平估計,棋力高達三十段。這是人類的頂級(九段)選手如果不借助機器,窮其一生也難以領會的棋藝。
“如此精密複雜的機器智能,若是拿我們現在的法律規範跟教義學説,例如私法上的主體客體、侵權責任的認定標準,用這些教科書概念來討論人機關係,分析各樣後果,肯定是徒勞的。同樣,人機倫理不能停留在抽象觀念的推演建構,而應立足於人類社會在二十一世紀晚期資本主義階段,所面臨的深刻危機”。“想象人機關係,即想象人類的未來”。近日,馮象先生接受《文匯學人》採訪,談論了人機未來。
文匯報
馮先生,我們先聊聊一則新聞,蘇富比拍賣塗鴉藝術家Banksy一幅名作。小錘落下,買賣成交,那幅畫卻逸出畫框,自行切割成了布條。畫家説,他在畫框裏藏了個機關,意在抗議資本市場拍賣藝術品。沒想到,拍賣品這麼“毀掉”,身價反而更貴了。
這令人想起人類學家喜歡講的一個故事:部落祭禮半當中,突然跳進來一頭老虎,攪亂了儀式。過後,村民説起此事,老虎卻被當成儀式的一部分。換言之,部落祭禮具有很強的闡釋性,連危機也能包容。是否資本主義體系也有這個能力,可以消解形形色色的反抗呢?
馮象
對,誰也不知道這傢伙是誰。他小心翼翼從不露面,而且搞了這麼個機關,巧妙地“騙過”了拍賣行,做得非常漂亮。不過問題也在這兒——看上去像是造反,實則並沒有逃脱被市場機制收編、為文化冷戰利用的命運。
此類反抗,從畢加索開始,套路都差不多。當然畢加索厲害多了,“造反”的範圍廣,勁道大,還參加了共產黨。徐冰先生説,當代藝術是“一塊像癌細胞一樣的東西”,寄生在“整個世界經濟、政治、文化的大的利益結構之內”。這話説到點子上了。寄生體不可能改變宿主的利益結構,反抗只是一種姿態。“那姿態其實是宿主體制運作的需要:那大體制需要一些癌細胞似的話語,包括行為藝術大腕兒什麼的,來營造異見、貶低道德,或改寫歷史、轉嫁責任”(《我是阿爾法》,頁72)。
文匯報
但您認為,真正有可能顛覆資本主義體系的,是人工智能。為什麼?
馮象
人工智能的近期風險,首先是“機器換人”,波及的行業有增無減,故稱“大失業”;再有就是AI軍事化。但在全球資本主義體系下,這趨勢是無法控制的。競爭太厲害了,誰也不敢落後;誰不機器換人,不軍事化,誰完蛋。這兩樣,人類過去沒經歷過,一個非常痛苦,一個非常危險。
危險,還因為AI技術不僅是“大國重器”,同時也跟日常生活攪在一塊兒。智能終端(如手機)滲透了我們的學習和工作、家庭內外,而且一刻不停,永遠在記錄,在挖掘,在上傳。如今我們常態的人與人之間的關係,是人通過機器跟另一個人接觸:打招呼、聊天、點贊、炫酷或者罵人吵架。人與人直接交流的範圍在萎縮,而人機捆綁(包括人-機-人模式)的範圍在擴大。直至我們每個人像一片電腦插件,插入一張無所不包的天網,由它發佈的最新應用程序(app)來組織安排每日的生活。
文匯報
這樣一個通過機器和他人發生關係的智能社會,從法學角度看,有什麼特點呢?
馮象
傳統上,西方式法治社會是這樣的,頒佈法典,做到“有法可依”還不夠;必須通過大眾文藝和媒體反覆灌輸一套“真理”,諸如憲法至上、司法獨立、“把權力關進制度籠子”之類,讓老百姓內心形成規則意識,法律(包括惡法)才能得到普遍的遵循。不然,有法不依,法不責眾,法治就成了皇帝的新衣。這好好幹資本主義的規則意識,便是韋伯所謂資產者/發財奴的倫理,美其名曰“新教倫理”。不過,他是反果為因,説顛倒了,以為人是為了獲拯救,才幹下地獄的勾當即發財的。耶穌怎麼説的?富人進天國,比駱駝穿針眼還難(《馬可福音》10:25)。
智能社會不同,它是數碼規則引領潮流,算法制定,硬性的。硬規則的制定和實施,大多是商家行為,無須走政治程序醖釀論辯、表達民意,也不靠公眾/用户的內心約束或法治意識。你看我這手機,沒有下載打車軟件,我就被排除在了打車出行的硬規則之外。如需打車,就要請年輕人幫忙,獲准進一趟硬規則世界。
中國社會,雖然宣佈了法治“初步建成”,似乎還是硬規則佔優勢。相對本本上的法條或軟規則,國人顯然更認可“物理規則”。比如單位入口的路障、馬路中央的隔欄,沒有這些物理屏障即硬規則,光是立一塊牌子,貼一紙告示,怕是不起作用的。這個現象,應了一句流行的口號,“法無禁止皆可為”。意謂凡法律(軟規則)缺乏執行力的地方,什麼事都做得,從高鐵霸座、P2P騙局到“世界首例基因編輯嬰兒”。常有人怪罪國人的民族性格。但回想起來,硬規則興盛,軟規則衰落,肇始於新時期,八十年代,是跟整個社會的職業倫理、政治倫理的消解同步的。因為之前,總體來説,人比較規矩。不像現在,家家户户門窗安得比動物園的鐵籠子還嚴實。
你能猜出哪張是AI畫的嗎?
文匯報
像支付寶的推廣,我們這裏勢如破竹,但在國外,包括髮達經濟體,互聯網金融並沒有這樣容易被接受。
馮象
沒錯。習慣了硬規則,對於智能時代層出不窮的“便捷服務”,就不會太反感;自媒體網絡輿論,也容易接受資本關於“萬眾創新”的宣傳。智能產品的推廣,不要求培育公眾的法治意識。因為在我們依託AI建設的“美好新世界”——硬規則世界,日常生活中的每一次交易,都是數碼信息的交換,用户都100%執行了硬規則指令:提交個人信息。
如此高效的執法,是“法治社會”沒法抗拒的。原先受制於執法成本,很多事情“睜一隻眼閉一隻眼”。倘若嚴格執法(軟規則當硬規則用),如歐盟今年實施的《通用數據保護條例》全面加強個人隱私保護,則不免拖累了智能產業。現時歐盟的AI研發跟市場佔有,已經明顯落後於美、中了。
智能社會,又名零隱私世界。扎克伯格看得很準,用户不在乎隱私,願意拿它換取便利和舒適。反正衣食住行都離不開AI了,讓它24小時追蹤我們,收集一點個人隱私生理信息,又算什麼?你想,按照舊的法治標準,隱私是多重要的權利,在許多國家屬於憲法保護。可是這麼快,大家就拋開舊法治,一鍵出讓了隱私。如今好些大學的學生宿舍,進門都是人臉識別。還有不久前曝光的華大科技與華山醫院,未經許可同牛津大學開展遺傳資源的合作研究,違規收集孕婦基因信息,受到科技部行政處罰。基因信息也是個人隱私,但此類科研涉及重大公共利益,政府必須管一管。
文匯報
真是可怕。您説的這種老百姓在不知情或者無所謂的情況下拱手交出個人信息,會不會催生一種新的法治形態呢?
馮象
對呀,硬規則也是一種法治。只不過立法由公權力向資本開放,很大程度上跳過了民主程序,包括公共辯論、利益集團遊説,變得“單純”而高效了。它只用產品勸説,用廣告取悦,用絕佳的用户體驗,撫摸人心底最隱秘的慾望;而你只要開始用這產品,做一回用户,就是硬規則的勝利。
如此,在眼花繚亂的新產品新服務新應用背後,“赤裸裸”地,解除倫理約束,露出了資本的獠牙。資本不是政府,更不是人民政府,它不承擔人民福祉、社會保障的責任。硬規則的實施,也無須縫一片“新教倫理”的遮羞布。相反,依照資本逐利的本性,硬規則敗壞着一切倫理,並從倫理敗壞的社會汲取養分而滋長,蔓延,覆蓋我們的生活。這智能化的法治因而變得難以掩飾社會矛盾,漸漸失去了法治的“教化”或生產法盲之用。而新法治的建設,原本放在第一位的,便是這意識形態功能。
文匯報
如果是這樣,政府和企業比較合理的關係是什麼?公權力應該全面出手嗎?
馮象
這個問題我在書裏也講到了。我的看法,隨着社會深度智能化,傳統上我們歸於私法(民商法)的問題,都會變成公法問題,亦即變為“國家同企業、公眾和政府以及政府各部門之間的法律關係”(頁195)。這倒不是因為一些經濟學家成天擔心的“國進民退”,而是AI硬規則技術所致。什麼意思呢?既然AI如此成功,核心平台壟斷了越來越多的交易,而私企開發的網絡金融工具又天天攻城略地,金融風險大增,那麼平台的運作就不能脱離政府監管了,一如其創立不能沒有政府支持。“央行為何要建網聯平台,清算第三方網絡支付?為了防止電商巨鱷獨佔金融大數據,造成國家可能受AI資本要挾的危險”(頁208)。
換一角度,也可以説,AI經濟如同AI尖端技術,也是國家與社會安全問題。國安戰線,不可能交給任何私企負責。故只要平台的壟斷再上一個台階,踩到國家的底線——物聯網底層數據彙總一處,算法成為法律(即硬規則),私法就開始消亡了。
所以説,“AI發展到高級階段,人類迫於形勢,為了生存繁衍,其實僅有一個選項:公有化”(頁209)。
文匯報
談到公有制,聖西門曾有這樣的論斷,大意是未來社會主義社會可能通過治理,而非階級鬥爭的方式實現。您在書中也指出,人工智能或將是我們走向共產主義的捷徑:“共產主義能否提前實現,不待階級鬥爭結束,國家消亡?”
馮象
惟願如此。因為另一條路,資本主義私有制走到黑,恐怕階級鬥爭只會益發激烈。當貧富鴻溝固化,財富高度集中,一切產品、服務連同物聯網底層數據,徹底知識產權化,那會是什麼景象?“超人”統治,法西斯暴政。
阿西莫夫的“機器人三定律”,根本的一條,是機器不得傷害人類。但是按照資本主義的邏輯,機器如果比人聰明,學會了資本及其附庸的自私自利,它幹嗎老老實實伺候人類,而不“以其人之道還治其人之身”?所以我在書裏説,待到那一天,AI的飛速進步,將迫使人類在改造世界的同時也改造自己,第二次起來,廢除普遍的剝削與壓迫,做共產主義新人。
什麼樣的人,配得上新的人機倫理,可稱新人呢?無非是“毫無自私自利之心”,品德“高尚”“純粹”,所做的一切都“脱離了低級趣味”並且“有益於人民”。這樣的人聯合而成一個新社會,才能確保“人與人、人與機器、機器與機器之間,要由共同的世界觀價值觀維繫。否則,就走不出資本主義,消除不了戰爭和奴役”(頁212)。
共產主義,自古便是人類家庭生活和親密友誼的一般理想;一如合作勞動、共享收成,是人的“本性”,或物種繁衍優勢(見拙文《給未來的人們留個紀念》,載《好奇心日報》2017.10.18)。
文匯報
您一定關注到,最近麻省理工獲得捐贈,籌建計算與人工智能學院。捐贈者蘇世民先生説,選擇麻省理工,是因為它“專業知識和價值觀都適於擔任AI的‘真北’(true north)”,而新“學院對道德的關注至關重要,因為……AI改變社會結構的力量越來越大。如果不加控制,這些技術最終可能傷害人類。”
馮象
我太太是校友,收到了校長關於建院的信。校長也非常強調,前沿科技須有價值觀的指導同倫理約束。他説,人工智能有幾個難題,一是懂的人太少。即使在麻省理工,90%的人也所知甚少,更別説公眾和政客了。第二,AI技術的社會風險極大,亟需推動人機倫理研究,探討規制的理論與方法。第三,至少迄今為止,AI加劇了貧富分化,使得大量資源集中到一小撮人手裏。
我們可以補充一點:AI技術因為廣泛用於日常生活,並迅速軍事化,受市場機制的激勵,很容易價格“白菜化”。一旦做成廉價商品,就更難有效管制了,不論訂立多少部法規、國際條約。這方面不乏前車之鑑,但在資本主義市場經濟的條件下,前景不容樂觀。
文匯報人工智能的發展令我們生活發生這麼深刻的變革,會不會推翻“理性人假設”等西方經濟學、法學的基礎理論呢?
馮象
“理性人”或“經濟理性人”(恩格斯管他叫“英國人”)假設,是資本主義正當化敍事的文宣重點,有年頭了。在中國亦不例外。我總覺得,這假設跟十九世紀市場資本主義處於“初級階段”、司法技術和偵察/監控手段不甚發達有關。假説扮作公理,即可把許多疑難問題、無法或不便處理的糾紛等等,擋在政法制度的門外;從而使司法程序複雜化,增加訴訟成本,遮掩實質規範所保護的資本利益和特權。
理性只是人這個物種的眾多能力之一。以生物學心理學觀之,人若是想修煉成一個“經濟理性人”,太難了。否則發財當資本家,何須“新教倫理”呢?還是文學家藝術家敏感,他們很善於描繪人的不那麼理性的一面。尤其進入資本主義時代,幾乎所有偉大的文藝作品,都是對“理性人”的批判、嘲諷或厭棄。
所謂零隱私的人,也即硬規則之子;他心底的慾望和陰影、一閃而過的念頭,全在“天眼”關照之下。理性人假設對於司法,猶如對於市場營銷網絡詐騙,基本是多餘的了。也許經濟學、法學用作文宣,“理論滯後”有別的考量?
文匯報西方世界有奴隸制的傳統,是否也反映在他們對機器人的態度上呢?我的意思是,雅典民主是建立在保有奴隸的基礎上的,因為大量使用奴隸勞動,自由民才有時間精力參與城邦政治。資本主義興起後,承擔這一角色的是殖民地人民和黑奴;到了全球化時代,則是第三世界的打工仔。今天發展AI,原本指望機器人當個好僕人,實際上卻有可能主奴關係發生反轉,於是恐懼起來。
馮象
學界討論人機倫理,例如阿西莫夫三定律,往往隱含一個前提:主奴關係。可是總有一天,機器的才智會遠超人類,主奴關係就維持不了了。
其實,只要機器獲得獨立的自我意識,即便毫無當人類主子的意願,人機關係(對於人類)也會變得異常複雜而失控。
常有論者不信AI會發展出自我意識。然而在AI學界,明斯基他們早已確認了這一可能。而機器一旦演進到能夠區分人我、自我保護、自我複製(即繁衍)的水平,就不能把它看成是一個沒有自我意識而被設定為人類僕役的物品,或一件聰明的工具。相反,機器將學會做道德價值判斷,會追求並維護自身利益,還會有自尊心,有自己的朋友圈,乃至愛慾嫉恨等各樣感情。那時,它將如何看待我們?注意,AI的自我意識演進是不可逆的;我們無法逆轉歷史,“穿越”亦非明智的選項。
所以明斯基説,他很幸運,這輩子不用面對這一困難選擇。但也有學者認為,他的“感知器”(Perceptrons)理論“誤導”了學界,是機器學習和神經網絡研究在七十年代陷於停頓的罪魁禍首。或許我們需要一位新的明斯基,就是以他的權威和洞見,勸喻人類放慢腳步,不妨再過一個漫長的“AI冬天”;以便我們能有充裕的時間做好準備,全面規劃,與AI攜手(見利求同《隱私的未來》,載《文化縱橫》6/2018)。這樣留有餘地,也許風險會小些。
文匯報最後,馮先生,如果讓您開一門新課,“人工智能與人類未來”,您會掛出一份怎樣的課前閲讀/視覺材料呢?
馮象
這些內容,我們課上每年都討論的。不過我只講七八本書,瑪麗·雪萊的《弗蘭肯斯坦》,歌德《浮士德》,馬列經典同中國革命文獻,包括回憶錄和年譜。並由此上溯西方宗教的烏托邦傳統,如耶穌運動的窮人福音綱領、公有制社團組織原則、平等主義理想,等等。
論文選題及相關材料,我總是讓學生自己找,因為多數是研究生選修,也有三五個優秀的本科生。他們往往想法很好,但不知如何着手。因此特別需要鼓勵,去接觸社會現實。無論電競、手遊的流行文化/異端生成機制,還是下工廠農村調研,和農民工姐妹一起站到流水線上,經受硬規則的盤剝,都是那“已經來到”的“未來”的一個徵兆。目的是給他們一個鍛鍊機會,擺脱充斥着我們大學教育的教條主義,反思舊法治衰亡之際,主奴關係的根源。
這一代年輕人大學生,焦慮迷惘的不少。我希望,探索人機倫理能夠幫助同學們找到人生的方向,從而當機器換人全面鋪開之日,能夠把閲讀與思考化為行動的勇氣。
瑪麗·雪萊的《弗蘭肯斯坦》
歌德的《浮士德》