陳根:面對“算法暴政”,人們是否無能為力?_風聞
陈根-知名科技作家为你解读科技与生活的方方面面。2021-09-30 10:45
文|陳根
由於算法對數據的掌控及後續分析,衍生出了豐富的信息要素深刻影響經濟與社會進程。算法之下,個人信息的掌握和分析成為簡單和日常的事情,人自然而然地成了計算的客體**,由此衍生的算法可能帶有****偏見。**
大數據時代,如果經營者收集的信息足夠全面,掌握的算法足夠先進,足以甄別出每位消費者的購買意願和支付能力,就可針對消費者單獨制定不同的價格。商家為了獲得更多用户,便可以通過大數據算法獲知哪些用户可以接受更高的價格,哪些用户應該適當地予以降價,“大數據殺熟”由此誕生。
常見“殺熟”套路主要有三種:根據不同設備進行差別定價,比如針對蘋果用户與安卓用户制定的價格不同;根據用户消費時所處的不同場所,比如對距離商場遠的用户制定的價格更高;根據用户的消費頻率的差異,一般來説,消費頻率越高的用户對價格承受能力也越強。
早在 2000 年,就已有“大數據殺熟”事件發生。一名亞馬遜用户在刪除瀏覽器 Cookies 後,發現此前瀏覽過的一款 DVD 售價從 26.24 美元變成了 22.74 美元。當時,亞馬遜 CEO 貝索斯也作出了回應,説明該事件是向不同的顧客展示差別定價的實驗,處於測試階段。同時,他還表示與客户數據無關,並最終停止了這一實驗。

而二十年後的今天,**隨着網絡普及,用户信息不斷沉澱,大數據殺熟則成為了普遍存在的不良現象。**根據北京市消費者協會 2019 年 3 月發佈的“大數據殺熟”問題調查結果,88.32% 被調查者認為“大數據殺熟”現象普遍或很普遍,且 56.92% 被調查者表示有過被“大數據殺熟”的經歷。
面對不透明的、未經調節的、極富爭議的甚至錯誤的自動化決策算法,我們將無法迴避“算法歧視”與“算法暴政”導致的偏見與不公。隨着算法決策深入滲透我們的生活,我們的身份數據被收集、行跡被跟蹤,我們的工作表現、發展潛力、償債能力、需求偏好、健康狀況等特徵無一不被數據畫像從而被算法使用者掌控。
如今不管是貸款額度確定、招聘篩選、政策制定乃至司法輔助量刑等,諸多領域和場景中都不乏算法自動化決策。社會原有的結構將被進一步固化,個體或資源在結構框架之外的流動愈發被限制。
算法對每一個對象相關行動代價與報償進行精準評估的結果,將使某些對象因此失去獲得新資源的機會,這似乎可以減少決策者自身的風險,但卻可能意味着對被評估對象的不公。