心理學家解釋人工智能與算法如何改變我們的生活——《華爾街日報》
Danny Lewis
在ChatGPT時代,計算機算法和人工智能日益深入我們的生活,它們決定我們在網上看到的內容、推薦我們聆聽的音樂,並解答我們的疑問。
德國波茨坦大學哈丁風險素養中心主任、心理學家和行為科學家格爾德·吉仁澤指出,這些算法可能正以我們尚未完全理解的方式改變着世界和人類行為。作為馬克斯·普朗克人類發展研究所適應性行為與認知中心的前任主任,他數十年的研究幫助我們理解了人類在面臨不確定性時如何做出選擇。
吉仁澤博士在其新書《智能時代如何保持智慧》中探討了算法如何塑造我們的未來,並強調了牢記"算法非人"這一認知的重要性。他接受了《華爾街日報》“萬物未來"播客的專訪。
如今"算法"一詞被頻繁提及。當我們談論算法時,究竟在討論什麼?
這是個宏大的命題,因此明確討論範疇至關重要。我在馬克斯·普朗克研究所的研究發現:在穩定且定義明確的情境下,深度神經網絡等複雜算法的表現優於人類,國際象棋和圍棋這類規則穩定的遊戲就是例證。但對於非穩定性問題——比如預測新冠病毒這類變異病毒——則不宜依賴複雜算法。[應對]不確定性正是人類思維的強項,我們能識別關鍵線索並忽略冗餘信息。在這類定義模糊的問題上,複雜算法反而表現不佳。我稱之為"穩定世界原則”,這是理解人工智能能力邊界的第一條線索,也提示我們:要充分發揮AI潛力,必須讓世界變得更可預測。
心理學家和行為科學家格爾德·吉仁澤表示:“我們必須警惕科技公司出售那些決定我們生活某些方面的黑箱算法。”圖片來源:霍斯特·加盧什卡/dpa/Getty Images### 經過這幾十年的計算機科學發展,算法歸根結底是否仍然只是運行越來越複雜方程的計算器?
不然它們還能是什麼?深度神經網絡有很多很多層,但它們仍然是計算機器。在視頻技術的幫助下,它們可以做到比以往更多的事情。它們可以繪畫,可以構建文本。但這並不意味着它們能像人類一樣理解文本。
瞭解這些算法如何做出決策對人們有幫助嗎?
透明度極其重要,我認為這應該是一項人權。如果算法是透明的,你實際上可以對其進行修改,並重新開始自己思考,而不是依賴一個並不比一羣低薪工人更好的算法。因此,我們需要理解在哪些情況下需要人類判斷,並且人類判斷更優。同時,我們必須警惕不要陷入科技公司出售那些決定我們生活某些方面的黑箱算法的境地。這涉及到包括你的社會和政治行為在內的一切,然後人們就會失去對政府和科技公司的控制。
您寫道“數字技術很容易使天平向專制體系傾斜”,為何這樣説?這與過去的信息技術有何不同?
這種危險確實存在。在數字技術帶來的所有好處中,其中一個弊端就是政府和技術公司傾向於進行監控。但人們不再閲讀隱私政策,所以他們並不知情。而且隱私政策的設置方式讓你實際上無法真正閲讀它們——太長太複雜了。我們需要重新掌控局面。
那麼我們應該如何明智應對這類問題?
想象你家鄉有家提供免費咖啡的咖啡館。因為免費,所有人都去那裏,其他咖啡館都倒閉了。你別無選擇,但至少能喝到免費咖啡,享受與朋友的交談。但桌上裝有麥克風,牆上佈滿攝像頭,記錄你説的每句話、每個詞、對話對象,併發送出去分析。咖啡館裏滿是推銷員,不斷打斷你以推薦個性化產品。這大致就是你在Facebook、Instagram等平台上的處境。[Facebook和Instagram母公司Meta Platforms Inc.拒絕置評。]在這家咖啡館裏,你不是顧客,而是產品。因此我們需要一家允許自己付費的咖啡館,讓我們重新成為顧客。
我們看到個性化廣告的整個基礎設施已融入互聯網架構。要改變這種局面似乎需要相當嚴厲的干預。現實而言,您認為未來十年左右技術、人工智能和監控會朝什麼方向發展?
總的來説,我更希望人們能意識到,將自己的數據和決策權交給那些通過廣告盈利的科技公司並非明智之舉。這不該是我們的未來。在其他所有領域,我們用自己的金錢支付,因此我們才是掌控一切的客户。一個真正的危險是,越來越多人正夢遊般步入監控社會,僅僅因為便利就全盤接受一切。
但當一切如此便捷時,閲讀隱私政策、研究這些影響我生活的算法似乎很困難。我該如何反抗?
最省事的方法就是不去思考。而另一種選擇是開始思考。最需要警惕的[技術]是心理學家稱為"間歇性強化"的機制。你會得到諸如"點贊"這樣的強化刺激,但永遠無法預知何時獲得。人們會不斷返回平台查看點贊,這徹底改變了心理狀態,使人產生依賴。我認為每個人都必須理解這些機制及其成癮原理,這樣才能在想要時重獲掌控權。
本訪談經過精簡編輯。
聯繫Danny Lewis請致信[email protected]