任劍濤 | 人工智能與社會控制_風聞
史学研究-史学研究官方账号-2020-03-09 17:00
基本信息
摘要:人工智能, 已經廣泛運用於技術領域的人力替代工作, 同時開始運用於社會控制。社會是一個複雜系統, 社會成員對社會體制存在順從或反抗的選擇。因此, 社會是需要控制的。人工智能為有效的社會控制提供了強有力的技術手段。人工智能對日常社會信息的收集、甄別、篩選與使用, 為常態下的社會控制提供了人類智能所不及的便利, 保障了社會控制的高效率。但人工智能並不能保證社會控制無條件奏效。基於常態的社會控制, 人工智能可以發揮重要作用。但在社會控制失效、社會動盪和社會暴亂等社會失常的情況下, 人工智能也對社會控制無能為力。對持續有效的社會控制而言, 保證社會常態, 杜絕社會失常, 建構良序社會, 是人類智能與人工智能交互作用, 發揮社會控制效用的首要前提。
文章來源:《人文雜誌》2020年第1期。作者簡介:任劍濤,清華大學社會科學學院政治學系。
人類對人工智能 (AI) 的強烈期待, 一方面是將人類從繁重的體力勞動中解放出來, 另一方面是解決人類智能的不及而對人的發展發揮助力作用。1但這些期待落實於社會進程中的時候, 總是與社會控制 (social controls) 緊密聯繫在一起的。因為迅速發展的先進技術, 一旦與既定社會秩序不相吻合, 必然會造成兩種不合預期的後果:要麼社會利用相關技術, 維護社會秩序, 讓技術成為社會重構的工具;要麼運用技術失當, 技術顛覆社會秩序, 而讓社會陷入紊亂狀態。如何使人工智能這樣的技術與社會發展、適當的社會控制吻合起來, 便成為人們思考迅猛演進的人工智能與社會發展關係的一個重要切口。當下的社會控制, 愈來愈依賴人工智能。但社會控制不能單純仰賴人工智能。社會控制的有效性依賴於社會成員與社會機制的積極互動, 也就是人類智能與人工智能的恰切互動。一旦社會控制超出社會的承受程度, 再怎麼先進的人工智能也無法對一個失常社會加以管控。唯有成功建構一個良序社會, 才能保證人工智能在社會控制中發揮人類預期的作用。
一、社會控制及其智能化
社會的構成是複雜的, 因此, 為了保證社會的基本秩序, 社會需要進行控制。人們習慣於在從簡單到複雜的演進線索上看待社會的構成狀態, 這樣的看法並不是針對社會構成複雜性的古今一致性而言的, 而是針對複雜性程度高低而言的。相對於單個人、原初組織形態家庭, 社會的構成本身一直就是複雜的。尤其是政治社會或國家出現以後, 社會構成的複雜程度陡然升高。可以説, 社會構成就其存在形態來講, 歷來就是複雜的;但社會構成在認知上的複雜性程度, 則具有很大差異。尤其是在古今維度上看, 更是如此。在古代社會中, 人們對社會作為複雜存在的感知與認識, 明顯是有限的。這與古代社會存在大量尚待展開的社會因素有關, 也與人們認知社會的理論積累薄弱相聯繫。隨着社會要素自身內涵的漸次展開, 以及人類自我認知的理論積累的逐漸厚實, 社會複雜性的認知也就達到一個相應的高度。
社會的複雜性, 以及建立在複雜性基礎上的社會穩定性, 從三個方面直接表現出來:一是需要建構良好的社會價值基礎。價值偏好是人各相異的, 羣體之間的價值立場也有很大差異。因此, 當社會需要建構良好價值基礎的時候, 如何協調個人、羣體與社會之間的價值關係, 就成為一項困擾人類的恆久事務。二是需要建構有序運作的社會制度體系。這一體系包含政治、經濟、法律、文化、教育、技術等等內容, 這些社會要素相互間的制度安排及其適配性如何, 決定了社會是否能夠順暢運轉。三是需要建構社會日常生活世界的秩序。人的日常生活, 一般不外油鹽醬醋、衣食住行。但試圖滿足社會成員對此的日常需要, 則不是一件容易的事情。它既需要成員之間的自發協調, 也需要日常社會建制意義上的良風美俗, 這是一個社會在日常生活世界長期磨合才能生長出來的底層秩序。如果一個社會確立了適宜的價值基礎、建構了有效維護秩序的種種社會制度、確立了日常生活世界的良好秩序, 那麼, 這個社會就是一個實現了善治的社會。反之, 就是一個讓人處在驚恐不安、無以安心生活, 更不可能追求卓越的失序和無序狀態之中的社會。面對這兩種判然有別的社會狀態, 人們當然需要去精心設想、努力建構和全力維護一種有利於社會善治的秩序機制。這就使一種值得期待的社會控制機制成為必須。失去有效的社會控制, 社會就會滑入失序或無序狀態, 這不能不讓人警醒。
可見, 社會控制是與社會的結構特徵內在聯繫在一起的。由於社會成員之間在生存與發展上實際存在着巨大差異, 為了獲得各自所需要的資源而展開的爭奪勢不可免。建構必要的社會、政治、法律秩序, 有助於將這類爭奪引導到一個有序而為的狀態。否則, 全無秩序的資源爭奪, 必然對一個社會建制的存續發生顛覆性作用。就此而言, 社會控制就是一個建構與維護秩序、破壞與顛覆秩序的邊際界限的駕馭問題。“社會系統不能認為是完善整合的和自動自我調節的。在任何社會系統中, 都將會有相互衝突的社會力量的操作, 並呈現辯證的發展。不同的行動者和階級以不同程度和不同性質的方式關聯於不協調的發展。這些由於制度設置的發展和操作影響產生的敵對行動者可能社會地表達他們的不利條件和被剝奪性, 例如利用福利或平等 (或其他的思想根據) 的規範和價值觀念。他們也可能被組織 (或能夠主動地組織, 特別在民主社會) 和動員起來採取社會行動改變制度設置或者至少其中 (從他們的觀點看) 不合理的性質。這些活動常常把他們引進同那些利益和職責關聯於系統再生產的人們的衝突之中。即衝突的發生涉及制度的維持 (再生產) 與制度的重建和可能的改革要求的對抗。因此這樣的衝突能夠干擾或阻止再生產過程, 肇始社會改革的階段。”2這是基於社會是一個宏大系統, 因此必須對構成這一宏大系統的各個子系統加以調節和適當控制, 否則社會這個宏大系統就難以順暢運轉, 就有陷入混亂狀態的危險。
社會控制的直接目的是為了維護既定的社會系統。但既定的社會系統, 肯定會將社會成員區隔為這一系統的明顯受益者, 相對收益者、明顯受損者與相對受損者兩大部分, 這兩部分人羣在認同既定社會系統或社會秩序的自我感覺與行為決斷上具有顯著差異:前者是維護既定社會系統的力量, 尤其是明顯受益者構成現存社會系統的堅定維護者;後者是不滿既定社會系統的集羣, 尤其是明顯受損者構成了現存社會系統的堅定破壞與顛覆者。基於此, 社會學給出一種基於防範破壞既定社會規則人羣的狹義社會控制理念。破壞既定社會規則, 也就是破壞既定的社會控制秩序。按照程度來分, 輕者成為人們眼中的越軌者, 重者便成為觸犯法律的犯罪分子。顯然, 為了維護社會秩序、社會規則, 必須對這兩類人進行有效的社會控制。針對越軌和犯罪的狹義社會控制, 具有兩種基本形式:一是內在社會控制 (internal social controls) , 二是外在社會控制 (external social controls) 。就前者言, 它寄望於個人對羣體或社會規範的認同。一旦社會規範內化成功, 一個人就會在有人或無人監視的情況下自覺自願並且持續不斷地守規。這對社會控制來講, 自然是最值得期待的結果。內在社會控制主要依賴於價值觀念的塑造和內化。它對社會大多數人來講, 是觀念與行動受控的主要途徑;對越軌的防止和犯罪的改造來講, 也是最為深沉的內化動力。就後者論, 主要依賴於社會制裁手段。這些制裁可以分為非正式的社會控制機制與正式的社會控制機制兩類。前一方面主要呈現為個人所在羣體的不贊成到羣體的拒絕, 以及身體懲罰;後一方面則主要呈現為專司社會控制之責的組織與職位的控制方式。如警官、法官、監獄看守、律師, 以及立法官、社會工作者、教師、神職人員、精神病醫師和醫生, 就是實施這類控制權的人格載體。這主要是針對越軌者、犯法人士與犯罪分子設計的社會控制機制。這類社會控制的目的, “旨在防止越軌並鼓勵遵從”。3
在既定的整體社會系統中, 國家權力體系是維護這一系統、旨在捍衞現存社會秩序的核心力量。在社會控制系統中, 國家權力總是想方設法讓社會中維護既定系統的力量受到鼓勵, 而全力使社會中破壞與顛覆既定系統的力量受到強力抑制。同時, 國家權力也致力激活社會中那些樂意或願意維護既定系統的各種能量, 讓社會成員和社會組織一起來同心合力延續既定社會系統。因此, 國家會傾力設計行之有效的廣義的社會控制系統, 同時也會耗費不菲資源設計並實施狹義的社會控制體系, 以期在社會宏觀結構與實際運行建制上構造出有利維護社會秩序的社會控制機制。
在國家控制社會、社會自我控制的進程中, 逐漸形成了社會控制的實際體系。在構成形態上, 社會控制體系長期呈現為主要依賴人類智能, 引入控制技術手段的受限形式。這是技術革命爆發以前的基本狀態。但對技術手段的設計與借重, 一直是社會控制系統的顯著特點。相關的技術手段呈現出從粗糙、稀少到精細、繁多的發展趨勢。在古代社會, 社會控制基本上依賴人類智能的完成, 這是受政治社會或國家建構能夠得到的技術支持手段與技術發展水平決定的情形。當其時, 政治社會的運行受宗教、政治、軍事、法律等手段的支持, 即可有效運行。但社會控制中對技術的低度引入是必須的。因為即便是古代社會的控制體系, 也不可能完全依靠人力來完成, 利用足以延伸人力強度與技巧的技術方式, 就成為有效控制社會的必然。譬如通訊上驛站的設置、軍事上烽火的引入、社會上密諜的設立等等。隨着技術在現代社會的迅猛發展, 技術被廣泛引入社會活動領域, 社會控制的技術水平明顯提高。在機械技術時代, 社會控制領域大量藉助機械製造物以改善人力不及的、處理繁重管理事務的技藝。在自動化技術時代, 社會控制領域更是普遍藉助各種自動化技術手段處置社會控制事宜。如今人類邁進人工智能技術突飛猛進發展的時代, 社會控制藉助種種人工智能技術, 進入一個人類智能似乎有所不及的新階段。
社會控制的智能化, 是社會控制與技術系統緊密結合的必然結果。所謂社會控制智能化, 一方面是指社會控制設計與運作過程中對人工智能的引入。譬如交通控制智能化水平的大為提高, 大大緩解了人類智能直接設計交通控制系統時交通繁忙情況與控制能力低下的矛盾。在電腦模擬設計交通控制系統的條件下, 交通疏導的效果得到顯著改善。而人臉識別的啓用, 將長期得不到偵破的刑事案件一舉破獲, 人所周知的北大學生弒母案主角、作案後消失三年之久的吳謝宇, 就是機場人臉識別系統捕捉到他的行蹤的。4數起殺人搶劫嫌疑犯、作案後逃亡達20年之久的勞榮枝則是經由大數據分析現形的。5另一方面, 社會控制智能化則是指人工智能系統直接作為社會控制系統發揮作用, 一般不再需要藉助人類智能與人類體能發揮直接控制作用、維持社會秩序。譬如當今中國較具規模的城市社會中, 日益發揮重要的社會控制效用的天眼系統。6“‘天眼’數字遠程監控系統通過企業內部互聯網 (intranet) 和國際互聯網 (internet) 實現遠程視頻監控, 主要適合於連鎖店、幼兒園、家居、工廠、公安消防、銀行、軍事設施、高速公路、商場、酒店、旅遊景點、小區、醫院、監獄、碼頭港口等地。”7連通幾乎所有公私場所的“天眼”, 就其直接的數據收集而言, 勿需人力資源, 就可以對這些場所的社會秩序發揮保障功能。可見, 人工智能系統在社會控制的各個領域已經開始發揮廣泛而直接的作用。
二、社會控制前提與智能化致效
社會控制儘管已經發展到智能化的階段, 但社會控制如何真正奏效, 還是一個需要深入探析的問題。一方面, 需要理性確認的一點是, 社會控制並不是封閉自足的事務, 它依賴於種種先設條件。這些條件包括:社會的建構是否公正, 社會資源的佔有與分配是否公平, 社會活動主體之間的關係是否相對融洽, 社會變革的渠道是否暢通, 社會控制的目的是否是為了保護成員權利等等。另一方面, 社會控制總是在社會既定系統足以自我維持的情況下, 才有希望實現維護既定社會體系的目標。社會控制的效用需要扼住兩個端點———一是社會的僵死局面, 一是社會的結構崩潰———進而在兩端之間展開社會願意接受的控制過程, 並在這一基點上使用可加利用的各種價值引導、制度安排和技術手段。再一方面, 社會控制不是國家權力單方面的強加, 而是構成廣義上的國家各個方面的力量, 如國家權力方面、市場組織方面與社會公眾方面共同展開的控制互動。構成一個社會的諸要素之間, 必須就此處在一個相對均衡的態勢中, 任何一方都不能佔據絕對控制優勢, 以至於對其他各個方面實施一種控制威懾, 並據此獨佔社會受到有效控制情況下的一切好處———如政治穩定情況下的權力、市場順暢運轉情形下的獲利、社會井然有序情況下的禮讚等等。
僅從控制的直接視角看, 社會控制得以實施的前提是“社會”接受控制。這不是同義反復的説辭。“社會”接受控制, 需要從兩個視角得到理解:一個視角就是加上引號的那個具有特殊含義的“社會”。這個“社會”是與國家相對而言的建制, 是一個公民個體將加入政治共同體必須交付的權力給予國家以後, 保留下來的特殊空間。生命、財產與自由是“社會”中活動着的公民個體不可褫奪的基本人權, 他們的隱私不受侵犯, 他們享受憲法和國家賦予的一切合法權利, 他們保有國家提供生存發展資源並享有公平對待的兜底福利。就此而言, 私權的公共維護與公權的私人限制相對而在, 不可偏廢。8與國家權力的以法治理相比較, “社會”的依法自治是其特點。在國家權力發揮社會控制作用的時候, 其控制的目的旨在保護“社會”, 讓一個受到保護、因此保有理性精神且秩序良好的“社會”與國家權力積極互動, 從而有力維護現存社會系統。可見, 國家的社會控制目的不是扼制、擠壓或扼殺“社會”, 恰其是培育、激活和扶持“社會”。
另一個視角則是“控制”。這裏的“控制”, 是一箇中性詞, 而不是貶義詞。作為中性詞的控制, 是指因勢利導, 讓社會在一些管控舉措下生成自生自發秩序, 並由此形成更有利於社會安寧和諧與持續發展的擴展秩序。作為貶義詞的控制, 則是指國家權力以高壓手段約束和強控社會, 讓社會全無抵抗能力、博弈能力與自治能力, 只能臣服於權力的強制方式。就此而言, 中性化的社會控制, 便是能夠發揮良好的社會作用的控制機制:一方面是因為社會意識到相應的控制機制對社會是有利的, 即有利於維護社會秩序, 有利於保障社會成員的安全, 有助於社會成員尋求發展, 讓社會處於一個安寧有序、未來可期的狀態。因此, “社會”願意接受“控制”。另一方面是因為社會意識到相應的控制機制是人們可以忍耐的。社會控制無疑會觸及社會成員的隱私, 當人們認為被觸及的隱私不影響正常生活的時候, 他們對之是可以接受的;一旦人們認為自己的生活曝光於天下, 自己成為一個全無秘密的行為體的時候, 他們的忍耐程度就會下降, 並且在心中鬱積不滿。假如社會出現一定程度的動盪, 這種不滿就會讓人付諸行為, 促成顛覆社會秩序的從眾行動———其循序呈現為守規的社會運動到破壞性的社會運動多種形式。因此, 控制“社會”必須嚴格把握可控的範圍, 而不至於越界而為, 觸發與社會控制初衷相反的、破壞與顛覆社會秩序的結果。
人工智能廣泛用於社會控制, 是社會控制技術飛躍性發展的結果。社會控制的智能化, 會收到人們此前意想不到的控制效果。在社會控制可能發揮作用的三個領域, 即價值引導、制度建構與生活塑造三個領域中, 其一, 在價值世界裏, 軟性的價值引導、也即是對人們的內在心靈世界的引導, 僅從目前人工智能技術來講, 還顯得有些無能為力。因為, 人工智能還無法對人的內心世界發揮管控作用, 除非人腦神經科學有了全面和實質的突破, 9人工智能才可能在這一領域發揮作用。但硬性的價值引導, 人工智能已經能夠發揮人類智能難以發揮的作用。所謂硬性的價值引導, 指的是經過全面的技術監控, 讓人信守規矩、不耽於胡思亂想, 從而在社會主流價值體系面前循規蹈矩。這就是前述的社會內化控制方式可能達到的效果。這對社會秩序的維持來説, 已經凸顯了一個不同於人力控制的、採取人工智能控制的完全不同往昔的結果。
其二, 在社會制度設置及其守持上, 人工智能已經發揮出重要的作用。僅就前述“天眼”所及的領域來看, 它在維護社會基本秩序上的作用, 已經大大彌補了人類智能與體能的不足, 而發揮出全天候、不停歇、無傷害、無失誤的守護規則、維護秩序的作用。10再如連鎖店的監控明顯強化了顧客的守規, 大大減少了偷盜行為。幼兒園的監控明顯有助於杜絕教師的不合規行為, 保護了兒童受到周全照顧的權益。家居中的監控對財產、人身安全發揮了積極作用, 降低了入室偷竊或其他不合規則行為的幾率。工廠的監控不僅監督偷懶工人, 促使工人合規工作, 懲戒不合規行為的員工, 11而且有利於保護合規或積極工作的工人的權益。公安消防監控有利於防火安全、消防滅火。銀行監控有助於保護客户利益、保證僱員合規作業。軍事設施監控有利於保證提高軍事安全水平、保障國家安全。高速公路監控促使人們合規駕駛、減少交通事故, 提升交通事故處置速率。餘此類推。可以結論性地講, 人工智能引入社會控制, 確實可以發揮維護社會秩序的正面作用。至於在懲罰違法犯罪上發揮的積極作用, 近期案例前已論及, 不再贅述。
其三, 在生活世界的秩序制定與維護上, 人工智能也已經發揮了有力維護日常秩序的作用。由於人工智能監控體系的運作, 在日常生活的公共空間中, 人們深知自己的一言一行都受到監督, 因此會對公共空間的規則保有高度的警覺。在這種情況下, 人們會在全方位、高技術的“他律”環境中, 謹言慎行, 從而形成一種至少在形式上合規、以至於秩序井然的公共空間行為態勢。相對於沒有監控的公共空間而言, 人們處在於一種自然、放鬆的狀態中, 可能在生活細節上更自我縱容, 容易逾越公共規則的邊界, 帶給他人以不便, 造成公共規則的鬆弛, 帶來一些雖無重大傷害但卻無益良風美俗的不利後果。
儘管人工智能對社會控制發揮了相當積極的作用, 但它並不能直接保證社會受到全面、有效的控制———既維護社會秩序, 同時也保有社會活力。原因在於, 社會控制的“社會”接受狀態, 對社會控制效果發揮着決定性的影響。一個接受控制的“社會”, 大致可以區分為三種社會存在情形:一是社會處在常態之下, 公眾接受社會控制的程度最為正常。這種常態可以簡單描述為, 社會處在既定社會系統自我維持的正常情形, 沒有遭遇社會風險與危機, 而且社會控制出自理性設計, 旨在維護公眾利益、社會秩序和公平正義, 因此公眾心悦誠服地接受一般意義上的控制, 並自覺踐行相關控制規則。以此為前提, 就會讓社會控制處在國家權力、社會公眾各方都滿意的狀態。可以説, 社會常態是社會控制的先設條件。這是社會控制設計, 也是人工智能引入社會控制的原初預期———社會常態, 既是社會控制的起點, 也是社會控制過程的着力點, 更是社會控制的目的性所在。
二是社會處在一定失序情境中, 公眾接受社會控制的程度有所降低。這種情況可以區分為兩大類:一者, 少數地區、一些領域, 因為一些事件, 導致抗拒或反對社會控制的情緒浮現。二者, 不同地區、不少領域, 因為相類事件, 引發社會騷動, 讓社會控制處於廢弛狀態, 並可能誘導社會公眾抵制或顛覆社會控制。部分地區與領域的社會失序不是社會無序。但由於這些地區與領域無法保持社會常態, 社會控制的效果會明顯下降。在這種情況下, 即便是高效的人工智能控制系統, 所發揮的作用也會明顯下降, 甚至在失序的部分地區與領域, 顯得無效。可以説, 失序社會讓人工智能也難有作為。譬如常態下商店的電子眼可以有效約束顧客的偷竊慾望, 但在失序狀態下, 不僅無法防止偷盜, 甚至對公開的搶掠也無可奈何, 只能聽之任之。12除非國家暴力介入, 除暴安良, 才能恢復社會秩序。
三是社會處在嚴重失序情況下, 社會拒絕接受任何控制, 控制基本失效。一個社會只要不受全方位、高強度的持續擠壓, 以至於無法維持常態秩序, 社會是不會拒絕接受控制的。如果社會控制長期處在高壓控制之下, 社會無法自我維持, 失序無法自我修復, 改革無法從容展開, 那麼, 社會就會滑向一個逐漸失常、失控並最終喪失秩序的軌道。在社會動盪、暴亂或者革命的狀態下, 人們已經陷入了反對、拒斥、破壞和顛覆現存秩序的狂熱之中, 既定秩序會喪失它曾經發揮的社會整合能力, 曾經循途守轍的人們此時滿心期盼的是新的社會秩序。在社會動亂的情況下, 技術監控體系完全無法發揮常態下的作用, 並且國家權力方面會擔憂這一體系被反抗活動的組織者與行為者所利用, 甚至會關閉監控體系, 直至下重手關閉互聯網。13人工智能的社會控制系統就此喪失它的社會效用。
可見, 在社會控制的智能化時代, 並不見得就降低了社會控制的難度。相反, 因應於社會運轉、社會變遷與社會週期調整社會控制, 做到張弛有度、理性有效, 才有希望保證社會控制智能化的滿意效果。
三、駕馭風險
與所有社會控制手段一樣, 人工智能的社會控制方式, 是着眼於人們普遍守法狀態下的管控績效而設計出的社會控制系統。這樣的社會控制本身, 需要經過預效性和實效性的檢驗, 才能成為真正有利於維護社會秩序, 激發社會活力的社會控制機制。對社會控制的人工智能機制來講, 其預效性、即預期的有效性, 依賴於兩個先設的條件:一是技術的有效性, 二是社會接受人工智能控制的自願性。就前者言, 技術的有效性是與社會控制的適宜性內在聯繫在一起的。這一適宜性, 指的是與社會當下的控制需求比較一致的人工智能系統, 它在技術上足以解決人力所不及的控制需要, 並且不存在明顯的技術風險, 能夠保證收到人力控制所不及的預期效果。就後者論, 社會自願接受人工智能的監控機制, 是指讓社會公眾感受到這一控制機制帶給人們的好處或便利, 其所必然存在的侵犯個人隱私的風險不至於赤裸表露並引起人們的普遍反感, 因此願意接受無處不在、無時不有的人工智能監控。
就社會控制的人工智能技術來看, 它有一個不斷進步的技術發展過程。換言之, 一個階段上使用的人工智能控制技術, 總是存在着便利性與缺陷性相形而在的特點。因此, 當監控對象適應了這一控制技術並且發現其缺陷, 或者社會公眾活動方式發生了明顯的重構, 那麼人工智能技術就必須在相應的技術進步條件下做出改進。否則, 人工智能監控技術的有效性就會明顯下降, 以至於在技術上完全失效。這不是在社會發生動盪、失序與革命的情況下出現的技術風險, 而是技術本身的發展風險。加之一種社會控制的人工智能技術本身, 就存在反向的技術模仿, 從而化解技術監控的控制力道, 因此不僅降低技術監控的有效性, 而且讓一項技術成為反監控手段, 甚至成為反向謀取利益的技術手段。銀行支付系統中使用的人臉識別, 就已經被人臉的仿真製造所突破, 失去了完整保證法律意義上的真實支付者利益的屏障作用, 這項技術就此可能異化為侵害本應保護的合法網絡支付者利益的違法犯罪手段。14
就社會控制的人工智能引入所關聯的社會公眾自願性來講, 試圖保證他們對這種無處不在、無時不有的高技術監控心存的自願心理, 也是一個非常微妙、複雜的事情。社會心理並不是一個高度穩態的存在。相反, 社會心理的變化速率之快, 常常出乎人們的意料。尤其是在一個社會心理比較敏感的現實環境中, 一個牽動社會公眾的小事件, 就很可能引發十分意外的社會震動、社會動盪, 乃至於引發大規模的社會暴亂。先撇開人工智能因素來看這樣的社會心態變化, 就很容易為人們所理解。突尼斯2010年爆發的“茉莉花革命”, 就是因為一個大學畢業生找不到工作而失業, 他只好上街擺水果攤, 但因警察認定他無照經營, 並且沒收了他的貨物, 他憤而自焚。結果引發了民眾大規模的抗議, 最後導致政府解體、總統流亡。15而引入人工智能因素來看, 突尼斯民眾對社交媒體推特、臉書的利用, 可以説是反向利用人工智能技術的一個例證。可見, 社會是否自願接受控制並不是一個定數, 而是一個變數。這個變數從接受控制的數量上的變化, 可以迅速演變為拒絕接受控制的實質性變化。因此, 智能化的社會控制所依託的社會資源, 是一個需要小心謹慎應對的問題。
社會的智能化控制, 存在着種種需要認真面對的交錯風險。譬如運用日益廣泛的人臉識別系統, 由於並不僅僅是識別人臉, 而是經由識別人臉, 可以追蹤人的身份信息、行動蹤跡、人與財產、親屬匹配、社交圈子等等。由於人臉識別系統並不由國家統一監控, 各種商業機構、社會組織都廣泛使用這一系統, 公民個人信息被分散掌握在這些人與機構的手中, 他們如何使用如此龐大的公民數據, 就成為一個隨己所願的事情。這樣的使用定勢, 其中包含的巨大風險, 不言而喻。在人臉識別系統的實際推廣中, 安防與資本是兩大推手, 政府受便捷控制個人信息的吸引, 成為激勵兩大推手勇於作為的最直接且有力的推動力量。這種三手相連的局面, 讓人臉識別系統在缺乏安全保障的情況下得到疾速推廣。其間所存在的民事與刑事風險之大, 應當引起人們的高度重視。這還是在人臉識別這種人工智能社會控制技術處在國家有效掌控秩序的條件下的風險, 如果國家陷入某種失序和動盪的境地, 這些智能控制得到的天量數據用於什麼目的, 便更是讓人驚懼了。
為了防止社會常態下的人工智能控制風險, 刑法學家勞東燕明確指出, 商業機構所使用的人臉識別, 必須符合四個基本要求。“第一, 收集方必須就相關信息與風險做明確而充分的告知, 並事先徵得被收集人的同意。未經被收集人的明示同意, 不得將個人數據以任何形式提供給第三方 (包括政府部門) , 或者讓第三方使用相應的數據。在涉及犯罪偵查或國家安全的場合, 可例外地予以允許, 但需要嚴格限定適用條件與程序。第二, 收集程序應當公開, 並確保所收集的數據範圍合乎應用場景的目的, 未超出合理的範圍。收集方不允許超範圍地收集個人的面部數據, 收集的範圍應當符合相應適用場景的目的, 並以合理與必要為原則。第三, 收集方在收集個人的面部生物數據之後, 應當盡好保管義務。收集方應盡合理的努力, 對所收集的數據妥善保管;違反保管義務, 應當承擔相應的法律責任。同時, 如果被收集人撤回同意, 或者明確要求刪除自己的數據, 收集方應當對相應數據予以刪除。第四, 對人臉識別技術的應用場景, 必須確保合法與合理, 並避免侵入性過強的舉措。收集方在特定場景中所收集的數據, 原則上不允許運用於其他的場景, 除非該場景是在合理的預見範圍之內。如果擅自擴大或者改變數據的應用場景, 收集方應當承擔相應的法律責任。”16這是從社會常態情境出發, 針對商業機構使用人臉識別技術所具風險的一種較為周全的預防設想———只要商業部門遵紀守法, 只要政府管控部門循法而治, 只要社會還具有正常的施壓機制, 商業機構大面積違規使用人臉識別數據的可能性是不大的。即便商業機構因為主觀故意或管理不善, 導致人臉識別數據的違規違法使用, 那也是屬於可以有效懲治的風險。
商業機構的人臉識別之用於社會控制, 其風險問題可以依賴立法機構、政府部門和社會組織的管控、干預和施壓, 也許是可以成功解決的人工智能社會控制風險問題。不過, 正如社會失序常常是因為旨在維護社會秩序、卻失去控制方略的國家權力方面導致的一樣, 人臉識別這種社會控制手段, 遠超商業機構使用風險的恰恰是國家權力部門對之的使用。對一個現代的龐大政府體制而言, 政府設計時預定的對內保護、對外禦敵的雙重功能, 常常讓政府生髮一種無處不在、無時不有、無所不能的全智全能意欲。在面對一個更為龐大且遠為複雜的“社會”時, 政府的管控積極性便呈現為一種對社會領域的全面侵入性, 認為只有掌握關於社會的一切信息, 政府才能發揮其統治與治理能力, 從而實現建構政府的原初目的。
政府使用人臉識別技術的風險就潛藏在這樣的積極作為理念之中。猶如前述, 由於社會控制中引入人工智能, 大大提高了社會管控的常態水準, 因此, 對激勵管控者強化這樣的管制手段, 發揮了明顯的刺激作用。猶如普通人對他人的一切具有好奇心一樣, 政府也對每個個體與羣體的信息具有一種好奇心。因此, 在公私場合安裝的種種智能型的電子設備, 便成為政府傾力收集它所感興趣的一切信息的便利手段。它會利用法律賦予的權力, 徵用由商業機構採集的公民信息, 結合政府自己用人工智能技術徵集的信息, 政府所擁有的公民信息, 遠非一般商業公司可以比擬。一般而言, 在社會常態情形中, 政府部門只會在這些天量的數據中甄別對自己有用的東西, 而不是將之作為全方位、高強度控制公眾的手段。政府之所以這樣做, 不是因為缺乏全面甄別信息的願望, 而是因為其他幾個原因無以實施:一是因為沒有必要, 二是由於成本高企, 三是源於效果不彰。一旦社會有任何政府認定難以把控的風吹草動, 那麼政府就會提升控制社會的廣度與強度, 相應對自己收集到的數據可能發揮的管控作用發生自覺。由此, 政府對日常狀態下的信息智能收集和非常情形下的信息智能利用, 就具有了直接貫通的動力。
因此, 有效控制人臉識別之類的智能技術風險, 必須重視政府行為的合法化、規範化和合理性。一方面, 在政府無法有效保證人臉識別之類的社會控制技術的安全性的情況下, 政府不能冒險廣泛使用和推廣相關技術。否則政府就逾越了政治共同體建構政府的底線, 既不能有效保護公民權利, 而且可能侵害他們在成立政府時從未交付國家行使的三類基本權利 (生命、財產、自由) 。倘若政府一意孤行, 不顧安全地監控公眾信息, 政府事實上就等於將自己置於社會的對立面, 進而將自己安置在了一個對抗社會的危險地位上。另一方面, 即使政府為了公眾利益而合法、規範且合理地使用社會控制的人工智能技術, 政府也必須將使用的範圍、地點、方式、手段、目的等等, 明白無誤地交代給公眾。政府不能以“釣魚執法”為目的, 對公眾信息進行收集。再一方面, 政府在懲治公民個體與社會組織的違法犯罪行為時, 必須合法使用諸如人臉識別系統獲得的有關信息, 而不能隨意將犯罪嫌疑人或有關證人的信息曝露出來, 置證人於有害安全的危險境地, 置罪犯於無法合法申辯的險境。最後, 政府在使用人工智能的社會控制技術的時候, 必須承諾國家與社會的邊際界限、承諾國家與公民個人之間的邊界、承諾公私領域的結構性差異, 從而只是在公共授權的公共領域中使用相關監控技術。進而從根本上保證人工智能監控手段是一種具有嚴格限制的社會控制手段, 而不是一種無孔不入的、窒息社會生機的高壓統治方式。
從現代社會視角看, 當政府合法、合規、合理行使權力時, 社會也就會處在一個安寧有序的狀態。但政府總會受內外部困境影響, 間歇性出現權力痙攣, 因此無法一直保持一種高效、廉潔、有序、認同的狀態。社會也會因此無法長久保持寧靜、理性、守規、積極的狀態。這就讓人們意識到, 社會運行是有周期的。社會週期呈現為制定規則、權力推行、績效顯現、效用衰變、抵制出現、抗拒加劇、規則失效、社會動盪、重構規則的不斷繼起、連續循環。當政府運行週期與社會運轉週期在良性一端疊合的時候, 國家便進入人們通稱的黃金時期;當兩個週期在惡性一端疊合的時候, 國家便陷入危急狀態, 甚至掉進崩潰陷阱。社會控制必須避免墮入後一個極端。
需要明確指出的是, 人工智能確實大大提高了社會控制的績效。但愈是有效的社會控制對“社會”所具有的壓抑性, 總是會讓社會必須的分享喜悦與分擔憂愁的情感受到顯著抑制。分享喜悦與分擔憂愁, 是社會運行所必須的張弛結構。所謂“一張一弛之謂道”, 對建構適當的社會控制機制, 是極富教益的。一般而言, 在社會控制的常態下, 適度壓抑社會不會導致令人擔憂的負面後果。不過, 社會受控長久, 尤其是受人工智能的高強度控制太過持久, 一直讓社會的喜怒哀樂無處發泄, 讓社會情緒無法舒張, 因此不斷累積着社會的緊張, 這種緊張就會按照一定的週期律釋放或爆發。如果説按照週期律釋放與爆發的社會緊張, 還不至於一下子導致社會失序、社會動盪或社會暴亂的話, 那麼另一種社會危險就必須高度警惕, 才能預防或控制:這就是對社會的高強度控制, 可能並不一定按照週期爆發, 而是不知道在哪個時間、哪個地點、哪個事件上引爆社會危機。面對這樣的社會危機、國家危難, 基於機器設計的人工智能是完全無能為力的。就此而言, 防止長期的高強度管控, 與防止偶然爆發的社會危機與國家危難, 具有同等的重要性。
在社會常態下預防偶發性的社會危機與國家危難, 需要理性設定應對社會問題的大思路:對一個國家高壓管控具有較強適應性的社會來講, 人們一般都會對社會變遷節律失去敏感性。這樣的社會, 好似運行在一個波瀾不驚的水平面上。人們會習慣性認定, 除開少數鋌而走險的人士或人羣外, 社會公眾與國家權力都不必去想象其他形式的社會危機。其實, 無論是國家與社會明確分流的現代機制, 還是國家塑造社會而使兩者打上明顯的國家烙印的體制, 都沒有避開社會週期的可能。因為社會在主體與制度的構成上, 具有明顯的個體差異性、組織區隔性、制度不均衡性, 它總是會出現程度不同的起伏與波動。為社會預留一個可以化解緊張、舒張壓力的空間, 是讓社會週期不至於陷於危機狀態的必須。就社會能夠承受的角度看, 一定要給出一個循規蹈矩的社會運動空間, 而不能將社會運動看作是一頭怪獸而唯恐出現、全力撲滅。社會運動是一種高級形式的社會控制機制, 給出社會運動的制度機制, 既有利於釋放社會緊張, 又有利於在維護既定社會機制的基礎上重整社會秩序。合法合規的社會運動與超越法規的社會動盪是不同的。社會運動可以完全處在法律約束範圍, 也可能溢出法律界限偶發地出現違法行為, 但不會出現普遍的顛覆國家與社會的行為。一旦社會陷入“法不責眾”的亂局, 那社會的失控就是必然出現的現象。當這種情況出現的時候, 基於管控的人工智能之社會控制設計就會陷於失控狀態。面對羣情洶湧的社會動亂, 就是再怎麼先進的人工智能社會控制系統, 對維護社會秩序也愛莫能助。
四、為良序社會整合人類智能與人工智能
社會狀態總是在常態與非常態之間運行的, 社會運行的週期性由此呈現給人們:兩種狀態總會因為某些機緣出現交替, 而不會一直停留在一種狀態上不出現任何變化。在人類採取種種舉措致力維護常態社會秩序的情況下, 人工智能的引入, 為提高維護既定社會秩序的成功率發揮了令人矚目的推進作用。但取決於人工智能總是人類智能設計出來的結構性特徵, 人工智能並不能代替人類智能單獨發揮有效的社會控制作用。
從目前情況來看, 在總體上講, 人工智能乃是明確受限的技術。它之所以受到限制, 一方面是技術的原因。人工智能是仿照人類智能的技術再造, 它可以在機械重複的勞動上取代人類, 這從廣泛應用於工業生產活動中的智能機器手得到印證;也可以在某些智力遊戲上勝過人類, 這可以從Alpha Go戰勝人類頂尖圍棋手上得到證實;還可以在某些情感如尊重需要上表現出不弱於人類的反應, 這從機器人索菲亞在人類對她顯出不尊重的時候表示不滿上得到坐實。17但從總體上講, 智能機器裝置的這些能力, 都是遵守人類設計的既定程序做出的反應, 並不是人類那樣通過大腦做出的自主反應。即便未來智能機器人可能實現高度的人機融合, 機器能夠表現出某些自主反應環境的能力, 展現機器自我生機的前景, 其取人類而代之的可能性也不大。原因在於, 人腦科學很難促成人腦複製的技術, 這就是機器人終究只能是機器人, 即是接受人類指令的“物”, 而不是“人”的終極理由。人腦的鏡像神經元測定, 可以最大限度地為人工智能的發展提供支持。但人的大腦做出反應的情感與社會機制是無法仿造的。因此也註定了高級智能機器人無法成為超越人類、並反過來控制人類的存在物。即便人工智能專家對大規模的智能殺傷性武器憂心忡忡, 因此擔憂人類會不會成為人工智能的奴隸。但可以樂觀預測, 這些武器也是人操作而致, 最終還需要人類出手解決彼此糾紛、戰爭危機與生命安頓問題。18
另一方面限制人工智能的是社會原因。人工智能確實在諸多領域中取人類而代之, 其來勢兇猛, 以至於讓人膽戰心驚地設想人工智能控制人類社會的可怕前景。謹慎地看, 由於人工智能的發展正在急速展開, 我們沒有理由貿然宣佈這些擔憂屬於杞人憂天。但這種危險具有某種社會抵抗的天生可能。人類社會的組成, 並不僅僅是表面上的諸種制度的捏合體, 背後存在繁多而微妙的社會精微結構, 並且一直在交錯發揮作用, 據此支撐起人類社會的廣廈。一者, 人工智能很難獨立構成社會, 因此它只能成為人類社會的依附者而存在併發揮作用。二者, 即便在很多領域中人工智能似乎在擠出活生生的人類社會機能, 譬如最複雜微妙的男歡女愛已經可以用充氣娃娃臨時替代。但是, 人工智能與人的“男”歡“女”愛畢竟是人機合作的產物, 機器可以滿足人的生理需要, 但很難滿足人的心理需要。至於人體的男歡女愛催生的微妙心理過程, 就更是人工智能機器人所難以惟妙惟肖給予與之交歡的男女個體的。正是因為如此, 專業醫生才會警告那些使用充氣娃娃的人士, 其行為既不利於身體健康, 也不利於心理健康。19這背後讓人可以進一步探問的是, 以人工智能替代男歡女愛, 它對社會倫常秩序會發生何種影響?從倫理學的視角對之的思考, 增加了對類似人工智能產品的社會警覺性。更為重要的是, 人類社會的進取機制可以增強人類智能勝過人工智能的信心。“人類的創造力是無限的, 如果我們的基本需求被機器人和人工智能滿足, 那麼我們將找出娛樂、教育和照料他人的新方式。”20這種人類社會的自我突破, 起碼是目前人工智能發展水平上, 還難以設想的人工智能的社會控制事宜。
再一方面限制人工智能的是政治原因。無疑, 就目前世界先進國家來看, 各國政府是明確鼓勵發展人工智能技術的, 而且在人工智能用於社會控制上, 也邁出了極大的步伐。但在人工智能用於社會控制會引發某種不可預知的危機意識引導下, 即便是人工智能專家, 也在呼籲政府加強對人工智能技術的監管。而政府方面也聞聲而動, 展開了以行政舉措駕馭人工智能的嘗試。人工智能發展極快的美國, 便有不少城市禁止使用人臉識別系統。理由有二:一是技術的不成熟。美國的人臉識別, 由於膚色差異, 對白種人和黑種人的識別成功率差別很大 (據報道, 針對黑人女性的錯誤率高達21%~35%, 針對白人男性的錯誤率則低於1%) , 並且出現將國會議員識別為犯罪分子的荒唐事情。二則與一個國家的人文傳統相關。在那些具有反對政府權力過於集中, 對商業 (科技) 巨頭壟斷保有警覺的文化傳統中, 抵制人工智能的社會控制應用是自覺而強烈的;在那些各黨派間政治和選戰博弈的政治社會中, 各種複雜的因素牽扯其中, 政客 (通過選舉獲得權力的人羣) 與官僚 (經由文官制度在政府部門供職的人士) , 都會不約而同對人工智能的社會控制機制抱有警惕。因此城市當局拒絕使用人臉識別這種社會控制技術, 就是可以理解的事情。21
就這兩者在全球範圍的普遍反映情況看, 一方面, 技術永遠都不會成熟到對人類不帶來任何負面影響的地步, 這既是技術進步的動力, 也是人類必須規範技術發展的緣由。有必要對任何技術、哪怕是極為先進的技術保持警覺, 對之的使用進行全過程的技術設防。因為越是先進的技術, 越是具有潛在的更大風險。尤其是模仿人類智能的人工智能, 又是用於社會控制的目的, 對之失去警惕, 很有可能對人類自身造成難以估量的負面影響。另一方面, 從人文傳統上講, 即便一個社會有對權力和利益的社會紛爭保持警惕的傳統, 而另一個社會則沒有, 但對兩種社會來講, 沒有任何理由對權力和技術無條件繳械投降。在現代社會, 權力總是在不同執掌者之間轉移的。因此, 對今天的執掌者有利的社會控制技術, 可能對後來的執掌者就會顯得不利;對這個執掌者有利的社會控制技術, 對另一個執掌者可能就會是不利的。因此, 即便站在權力方面設想, 也不能過於貪圖一種技術的便利, 而喪失對技術進行適當控制的意願。尤其是像天眼監控系統, 讓人人曝露在監控體系之下, 這對執掌權力的人來説, 也絕對是一柄雙刃劍。至於在利益的社會政治紛爭中, 不同個體與羣體之間相互善意或惡意利用監控數據來維護自身利益、或明或暗攻擊對手, 那也是超越不同政體形式的普遍現象。念及於此, 對可能失控的監控技術, 大家也就可以達成必須加以規範和約束的共識。
在STS (science/technology/society) 即“科學、技術與社會”的研究傳統中, 研究者一向很看重科學研究、技術創新與社會發展之間的關聯性, 並且在三者的相關性中審查科技成果及其應用對社會可能造成的影響。22無疑, 人工智能技術構成當下STS的重大主題。而當人工智能技術應用於社會控制的時候, 就更是必須在科學、技術與社會的邊際關係上嚴格審查這一技術對社會帶來的巨大影響, 以及由此可能產生的種種社會與倫理風險。從一般意義上講, “科技無遠弗屆的影響力與重要性, 使得一般人在生活中不只時時接受其影響, 有時也需要面對特定科技所帶來的社會後果、經濟代價與倫理抉擇, 而必須在深思熟慮後採取立場。”23從人工智能的角度看, 由於這一技術的迅猛發展, 以及由此負載的人類對這一技術的強烈期待, 今日世界已經形成了關於人工智能的技術樂觀主義氛圍。為此, 需要在STS的視角, 強化人們對技術風險和社會責任的認知, 從而提升該技術的社會應用可靠性。從人工智能應用於社會控制的特定視角看, 天眼監控體系之類的社會控制方式的人工智能化, 給政府部門帶來管控社會以極大的便利。因此, 權力部門僅看當下便利的特性讓他們很難慮及其社會風險, 很可能因此在滅罪行動中製造一些冤案, 讓公民個人的隱私毫無保障, 讓國家治理被提供人工智能監控服務的商業公司操控。這對國家治理明顯是不利的。因此也需要在科學、技術的社會責任角度加以嚴格審查, 並設計和實施相關的社會政治、法律規則的約束機制。
在STS的視野中, 三個緊密關聯的視角給人們以重要提示:一是科學研究與技術創新本身的專家研究及其責任意識問題, 必須避免專家傲慢帶來的科技風險;二是科學技術的社會應用必須慮及社會風險, 並對社會風險進行有效管控, 從而讓科學技術造福社會, 盡最大可能避免對社會造成傷害;三是對急於利用科技便利的社會進行理性引導, 避免急功近利地將不成熟的技術推向社會公眾, 並因此給社會帶來不可預估的負面影響。就此三者而言, 從分別的角度看, 做到已屬不易;在關聯的角度看, 做起來就更為困難。就前一種情況而言, 三方面都具有失控的風險———人臉識別的犯錯, 已經構成這一系統明顯的技術缺陷;而應用人臉識別系統的商業機構與政府部門, 對之有很高的期待, 因此不遺餘力地加以推廣, 結果賦予它很難承受的社會政治功能;社會公眾對之的可有可無, 對之侵害隱私的擔憂, 對無處不在、無時不有的監控的反感所存在的牴觸心理與破壞情緒, 沒有得到應有重視, 因之而構成難以預估的社會風險。尤其值得重視的是社會公眾對技術的反應機制。因為從總體上講, 社會失常的偶然性, 不是基於社會常態設計的人工智能管控機制所可以預期的。假設人工智能的技術是完善的, 但對這一技術監控的社會來講, 則是動態運行的。因此不可能是完善的、甚至可能是不能預期的。譬如2019年智利大動盪的直接肇因, 僅是因為公共交通上調四美分價格。這是一個微不足道的價格變化, 但卻引起了智利的普遍暴亂, 社會陷入嚴重的失序狀態。從深入分析的角度看, 智利暴亂確實有其前因後果。但人們很難設想四美分會引發如此巨大規模的社會暴亂。24這是社會情況的複雜多變、難以把握的一個典型反映。
從三者關聯的視角看, 像人臉識別這樣的社會控制技術體系, 存在着交錯而在的風險性:既包含人臉識別的技術精準度問題, 也包含技術應用的社會政治意圖上的無所不能期待, 更包含社會公眾對這項技術監控的接受與反感的微妙心理變化。因此, 當人工智能用於整個社會的監控時, 三者之間關係能否順暢開合, 會對它發揮的社會控制效果發生決定性影響。而其中令社會控制的國家主體難以把握的, 不是技術問題, 而是社會問題。當社會風險增高, 社會出現諸如智利、伊朗、委內瑞拉、玻利維亞等國的動盪和暴亂時, 人工智能不僅完全無法發揮社會控制作用, 而且因為掌權者擔憂人工智能被抗議者、反叛者反向利用, 甚至會關閉整個網絡。這時, 即便具有最先進、最可靠、最有效的人工智能社會控制技術, 也無法發揮任何期待中的控制社會的實際作用。
從這個特定的角度講, 社會控制絕對不能單純依賴人工智能技術。不寧唯是, 何時、何地以何種方式引入人工智能社會控制技術, 在何種期待下、以多大範圍和強度使用人工智能的控制技術, 都需要人類智能來決定。因為在社會控制方面, 只有人類智能才能夠準確把握戰略佈局、時勢針對、舉措調適、因勢利導、因果關係、接受程度、危機處置、開關係統等等關乎社會控制的重大決策。以誘導社會、激活社會為共在目的的社會控制, 更多依賴的是人類智能, 而不是人工智能。為此, 以良序社會 (well-ordered society) 的建構為目標, 有效整合人類智能與人工智能, 讓社會控制進入一個良性軌道, 便成為處置人工智能與社會控制關係的基本指南。
良序社會, 是一個建立在公平正義基礎上的社會。“一個社會, 當它不僅旨在推進它的成員的利益, 而且也有效地受着一種公共的正義觀調節時, 它就是一個良序 (well-ordered) 的社會。亦即, 它是一個這樣的社會, 在那裏: (1) 每個人都接受、也知道別人接受同樣的正義原則; (2) 基本的社會制度普遍地滿足、也普遍為人所知地滿足這些原則。在這種情況下, 儘管人們可能相互提出過分的要求, 他們總還承認一種共同的觀點, 他們的要求可以按這種觀點來裁定。如果説人們對自己利益的愛好使他們必然相互提防, 那麼他們共同的正義感又使牢固的合作成為可能。在目標互異的個人中間, 一種共有的正義觀建立起公民友誼紐帶, 對正義的普遍慾望限制着對其它目標的追逐。我們可以認為, 一種公共的正義觀構成了一個良序的人類聯合體的基本憲章。”25簡而言之, 良序社會是值得期待的現實社會形態, 它建立在差異性合作的基礎上, 穩定在共同正義觀的基石上, 受到公民友誼紐帶的強有力維繫。這樣的社會, 顯然不是任何受程序指引的人工智能所能夠直接設計出來並加以有效維護的社會形式。這樣的社會, 只有依靠人類智能才能建構, 也只有依賴人類智能才能維續。但人工智能提供的某些技術性支撐, 可以在具體事務上極大優化人類對社會控制實際事務的處置。人工智能對人類智能的補充作用值得重視, 對人類體能的有效替代值得禮讚。就此而言, 以良序社會建構為目的, 整合人類智能與人工智能, 便成為高階的社會控制的一個上佳出路。
註釋
1 對人工智能發展前景的基本預測,主要在於它“被用來拓展人類”。參見[美]約翰·馬爾科夫:《人工智能簡史》 (原名:《與機器人共舞》) ,郭雪譯,浙江人民出版社,2017年,第323頁。
2 [荷]蓋葉爾等編:《社會控制論》,黎鳴等譯,華夏出版社,1989年,第56頁。
3 [美]戴維·波普諾:《社會學》 (第11版) ,李強等譯,中國人民大學出版社,2007年,第231~233頁。此處筆者對所謂狹義社會控制的敍述,主要引自該書。
4 《弒母兇犯吳謝宇被抓,人臉識別技術“再記一功”!》http://dy.163.com/v2/article/detail/EDS679DP05119PO4.html, 2019年12月22日訪問。
5 《“蛇蠍美人”勞榮枝,是怎麼抓的?廈門警方公佈破案過程和抓捕細節!》http://m.sohu.com/a/358341570_404521/,2019年12月22日訪問。
6 參見田小珍等:《“天眼”工程視頻監控系統研究與實現》,《山西師範大學學報》 (自然科學版) 2008年S2期。
7 引自百度百科,https://baike.baidu.com/item/天眼/2876127?fr=aladdin, 2019年12月22日訪問。
8 參見任劍濤:《公共的政治哲學》第4章“公權、私權與政治、非政治公共領域”,商務印書館,2016年,第217~278頁。
9
論及腦科學研究,一些論者用樂觀主義的口吻敍述了腦科學研究的進展,但實際上在研究的總體水平上並未取得實質性突破。因為正如樂觀主義論者自己指出的,人的大腦“複雜性遠遠超出了人類目前的認知能力,是最複雜、最神秘,也是最難研究的部分。”王麗娜:《撥雲見日:腦科學研究新進展》,《科技導報》2017年第17期。
10 這是人們一般所指的人工智能執行規則的“優點”。參見[美]Kalman Toth:《人工智能時代》,趙俐譯,人民郵電出版社,2017年,第19頁。
11 參見《上班想偷懶?亞馬遜用AI追蹤員工,不達標就自動開除》,http://www.sohu.com/a/311001993_660564, 2019年12月23日訪問。
12 參見《美國巴爾的摩暴亂失控,華人商店成攻擊對象》,http://news.youth.cn/gj/201504/t20150429_6604804.htm, 2019年12月23日訪問。
13 參見《為什麼伊朗為整個國家關閉了互聯網?》http://www.bm168.cn/hwxw/11224642019_464.html, 2019年12月23日訪問。
14 參見《微信支付寶人臉識別被破解美國AI公司:用3D面具》,https://news.china.com/socialgd/10000169/20191219/37554053_all.html, 2019年12月23日訪問。
15 參見秦天:《突尼斯“茉莉花革命”的前因後果》,《國際資料信息》2011年第2期。
16 勞東燕:《人臉識別技術運用中的認知誤區》,https://ai.51cto.com/art/201912/608220.htm, 2019年12月23日訪問。此處對商業機構使用人工智能監控所存風險的論述,多參考該文。
17 參見任劍濤:《人工智能與公共擬製》,《當代美國評論》2019年第1期。
18 參見[美]雨果·德·加里斯:《智能簡史---誰會代替人類成為主導物種》,胡靜譯,第6章“人工智能的戰爭”,清華大學出版社,2007年,第131~153頁。
19 參見《充氣娃娃可以代替正常的性生活嗎?》,https://muzhi.baidu.com/question/207533814678493965.html, 2019年12月24日訪問。
20 [美]約翰·馬爾科夫:《人工智能簡史》 (原名:《與機器人共舞》) ,郭雪譯,浙江人民出版社,2017年,第XVI頁。
21 參見《美國多城市禁止人臉識別》,http://www.sohu.com/a/343422254_654086, 2019年12月24日訪問。
22 邁克爾·林奇指出,科學、技術與社會 (Science technology and society) 將政治、文化視為科學的語境,更多地考慮科學的社會責任問題。引自《STS中心講座:康奈爾大學教授邁克爾·林奇講授“何為STS”》, http://www.ihns.ac.cn/xwzx/xshd/201509/t20150921_4427838.html, 2019年12月24日訪問。
23 李尚仁:《技術科學的風險與倫理重建:以STS為分析視角》,《文化縱橫》2017年第5期。
24 參見曹廷:《智利暴亂誰之過》,《世界知識》2019年第22期。
25 [美]約翰·羅爾斯:《正義論》,何懷宏等譯,中國社會科學出版社,2009年,第4頁。