算法之下:數據失控與“透明社會”|聚焦算法社會③_風聞
探索与争鸣-《探索与争鸣》杂志官方账号-昨天 22:11
王敏芝|陝西師範大學新聞與傳播學院副教授
本文原載於《探索與爭鳴》2021年第3期
非經註明,文中圖片均來自網絡

王敏芝副教授
當前我們關注的算法,並非直接等同 9 世紀波斯數學家花拉子密在研討數學問題時提出的“算法”(algorithm)概念,而是以數字技術和計算機程序為核心的現代人工智能算法。現代智能算法超越了數學領域,通過數據分析和程序運行對算法對象進行計算和判斷,對社會生活中的應用問題作出決策:從路線優化到尋找伴侶、從消費指南到新聞推薦,許多現實難題都在算法的幫助下獲得有效而快速的解決。顯然,算法最顯著的優勢在於降低人的決策成本,但人們也越來越意識到,決策成本的降低需要人付出另一種代價,而且此代價可能非常的昂貴。
算法邏輯與數據化的人
現代科技演進中有兩類最能凝聚科學家熱情卻又目標各異的技術:一是生物工程技術;二是人工智能技術。“人工智能要把機器變得越來越像人,生物工程要把人變得越來越像機器。”把人看作機器,意味着在自身技術視域下最大限度地將人量化,從而使人可測繪、可控制、可修改完善;將機器視為人,則希望通過人工智能使機器具備更多、更復雜的人的能力,甚至還希望賦予機器只有人才具備的情感。但這兩種技術方向在當下不斷趨於一致,或者説,通過“人的機器化”和“機器的人化”,現代科技正在從整體上將人與機器視為同一性的存在。
智能算法的技術邏輯既包含了人的機器化,也凸顯了機器的人化。一方面,算法的基礎是數據(大數據),計算機程序只有擁有大量數據才能執行運算以形成判斷,因此,任何個體在社會生活中想要獲得算法的幫助與服務,首要的條件便是自覺成為算法定義的對象,即將自身轉化為可分析的數據。另一方面,算法作為一整套輸入輸出的運算程序,整個執行過程體現了機器“類人的”思維能力和某種程度的獨立與自主。
數據是數字化的結果。數據之所以被認為是繼土地、勞動力、資本和技術之後社會發展的新型生產要素,正是因為它在數字化生存的環境中發揮着類同其他生產要素的價值與推動效用。更關鍵的在於,“數字化”是個體在數字時代“社會化”的重要途徑與基本方式,無論是商業活動、日常交往、信息傳播還是社會治理,數字化都既是社會規範又是生活方式。因此,將人和物全面數字化並最大限度獲取個人數據,是算法技術的邏輯起點。
數字技術記錄下我們的一切,每一次點擊、每一個步驟、每一次行動彙集成龐大的數據庫,個人或羣體因此成為可計算的對象。在此過程中,數據逐漸獲得中心地位,“‘大數據’(big data)成了‘老大哥’(big brother)”,以數據分析為技術核心的算法便可獲得對“數字主體”的控制性(權力)。可以説,全面數字化的人是智能算法技術邏輯的內在規定和必然結果。

數據“失控”與透明社會
數據作為算法的基礎和前提,帶來了算法時代數字化生存的根本困惑:有能力和權力控制數據?誰在實際控制着數據?控制了數據意味着什麼?
在傳統理論資源與制度設計中,“個人數據”(personal data)的控制權和使用權均天然屬於個人所有,而算法時代的個人數據卻不斷由個人控制向社會控制轉移。數據控制權的轉移帶來的社會影響具有根本性。
無論是歐洲基於尊嚴維護的個人數據保護理論,還是美國基於個人自由保護的隱私理論,都認為個人數據控制權當屬個人所有,認為只有如此才能實現個人的獨立人格與自由意志,其理論落腳點都是個人自治。歐盟 2016 年頒佈的《通用數據保護條例》仍然遵循了這樣的立法邏輯,即賦予個人數據主體包括知情權、拒絕權、訪問權、被遺忘權、數據移轉權等諸多權利,同時對數據控制人或數據使用方規定相應義務以保障這些權利的實現。我國於 2012 年通過的《關於加強網絡信息保護的決定》,也明確要對“能夠識別公民個人身份和涉及公民個人隱私的電子信息”採用立法的方式予以保護。
上述理念體現了一個基本認識,即個人數據應當被看作個人的延伸而由個人自主控制,保護個人數據就是保護個人的尊嚴、自由和自主。如果把這一邏輯使用至算法時代,就意味着數據化了的個體所生成的大量數據也應當由個人控制,數據主體有權利拒絕遭遇算法的自動分析、計算和安排,因此,在相關制度設計中須重點保護個人數據在算法處理過程中被客體化,防止數據主體的主體意志遭到漠視甚至壓制。
但算法之下,個人數據(個人信息))歸由個人控制的現實基礎瀕臨瓦解,數據不斷從科技領域向社會領域入侵,數據控制權不斷從個人向社會/機構遷移,個人數據保護的既有路徑面臨巨大挑戰。
首先,現代信息技術使數據個人控制的“可控性”基礎不復存在。在數字化生存的環境中,個人數據無時無刻不在信息系統的記錄之下,互聯網企業和各類平台機構掌握着用户所有行為的數字痕跡並能通過技術分析輕易關聯至個人。一方面,無論從知識層面還是資本層面,個人都無法對抗這些平台或機構對自身數據的收集與使用,甚至根本不知道自己的數據被如何收集和使用,更無力抵抗被算法暗箱操縱;另一方面,如果個人純粹以拒絕的姿態對抗信息系統,則會遭遇在數字社會寸步難行的“被遺棄”境地,將無法獲得現代生活必要的信息保障,而且,數字生活中的數據體量也已經遠遠超過個人所能掌控的範圍,必須依靠計算機和算法進行處理。因此,個人數據由個人控制的理念已經不再具備現實性。在個人對個體數據無法自控的情形下,人和社會在算法面前淪為“透明”。
其次,個人數據的公共性與社會性價值被不斷強化。數據可以形成新的公共空間,“全球計算機網絡的物質特性把主體建構在一個前所未有的多樣性的公共空間中……因為這個公共領域是數字的”。儘管個人數據具有私人性或隱私性,但“數字公共領域”的形成以數據的公共性與社會性為前提。數據(信息)的公共性和共享性決定了個人數據具有公共性,個人數據只有以其公共性和社會性為根本屬性時才能成為現代社會的生產要素和社會資源。因此,僅僅賦予個人對個人數據的控制權從而將個人信息“私有化”,被認為是狹隘的,對數據公共性的強調也會導致數據不斷“失控”於個人,數據屬性呈現出不斷“去隱私化”的趨勢。
最後,個人數據的社會控制論契合了資本的邏輯與社會治理的策略,集中表現為兩點:一是個人數據不斷商品化;二是個人數據收集不斷合法化。個人數據商品化是新數字經濟的資本邏輯,數據的經濟價值與社會控制力被充分認識和挖掘,人們也不斷為其脱離個人控制轉為社會控制尋求各種正當化與合法化路徑。個人信息成為商業巨頭最重要的商業資源,無論出於資本的邏輯還是社會治理的需求,想要利用大量個人數據達成自身目標就必須使數據收集不斷合法化,因此,互聯網企業和政府部門收集和使用個人信息的行為被通過各種方式賦予合法性依據,或者以公共利益為目標,或者以經濟發展為指向,或以美好生活為承諾。
個人信息全方位脱離個人控制,人在算法之下便成了“透明人”。因此,當“透明”成為當代社會一種“系統性的強制行為” ,算法的出場,就成為這種強制性的技術表達。
算法時代的觀念對峙
在與世界和自身建立關係的過程中,作為主體的人具有“尺度”的意義。如今我們也在現代技術尤其是智能技術看到了“尺度”的性質:它規定和影響了人與世界的關係,也規定和改變着人認識自身的方式。因此,當算法及其技術體系深度嵌入社會生活時,人們觀念層面的對峙與再建必然成為長期的過程。
第一,人與人機關係的再認識。智能算法提供了一個理解人的新的座標,在人與人、人與物的傳統關係座標之外建立了一種新的關係——人機關係。“計算機算法不僅對於人類自己的生活具有借鑑意義,同時還為人們理解人類認知提供了一個更好的比較標準。”技術體系以“類主體”的姿態與人發生關係,通過“數據化”方式與人進行交流和交往。對應於人腦的易錯和非理性,計算機可以無差錯,算法可以絕對理性、更加高效甚至比你自己更“懂你”。人機交互與人機共生成為數字時代的核心關係,機器到底是在“增強人類”還是在“代替人類”,如何在人-機相互作用中再度確認人的主體性,人-機關係中會“湧現”出何種適應性倫理等,是人們現在和未來必然面對的重大問題。
第二,“透明”的暴力。韓炳哲認為,“透明”這個詞在當代公共話語中具有最重要的地位,整個社會對“透明”孜孜以求。“透明社會”最核心的觀念在於,社會的系統性“透明”對個人具有強迫性和控制力,因而包含暴力特徵。現代智能算法體現出技術的“社會屬性”,個體時刻處於信息與行為的敞開狀態,且沒有節制,更沒有邊界,人類主體被降維至“功能組件”式的存在,人的精神層面會因為過度暴露而倦怠麻木。可以預見,身處公私邊界消失、零隱私(無隱私)的敞視環境之中,精神層面的焦慮與自我對峙將長久地伴隨人類。
第三,算法價值觀對正義觀的挑戰。正義是現代社會的基本價值,建立在個體自主、平等、權利等價值基礎之上,這一價值目標同時也確立了“人是目的”的道德觀念和制度設計。但智能算法技術對傳統的正義觀念產生了巨大沖擊:算法的價值觀是整體主義和工具主義的,算法價值認定計算才能體現事物的本質,效率才是生活的首要目的,因此,算法價值會自覺忽視個體價值與個體權利的實現,將效率凌駕於個人權利之上,將社會的精神價值技術化,從而與人的道德目的論格格不入。因此,算法價值對基於個體自由和權利的正義觀構成潛在威脅,實踐需要不斷反思和調試算法的價值取向。
理解算法的角度是多重的,無論是滿足於“算法之美”還是恐懼於“算法的陷阱”,人們都有一個共識,那就是“找到自己的方式,讓科技以最小的代價造福人類。”