AI是技術官僚精英攫取權力的新藉口——《華爾街日報》
Gerard Baker
對人類更大的威脅是什麼:人工智能,還是那些要求對此採取行動的專家們?
隨着關於人類生存威脅的警告聲愈發響亮,全球範圍內採取行動的呼聲更加緊迫,似乎越來越可能的是,無論人工智能威脅究竟是什麼,就像過去一個世紀左右人類所面臨的其他所謂滅絕級威脅一樣,它將被證明是大型官僚機構、全球政府和無所不知的監管者們要求更多控制我們自由的絕佳機會,將更多的主權從個人和國家轉移到超國家專家和技術官僚手中。
如果我憤世嫉俗,我會推測這些威脅即使不是人為製造的,至少也是被誇大其詞,目的正是為了讓世界適應那些相信自己應該統治我們的技術官僚思維,以免在沒有監督的情況下,人們無知的突發奇想會毀滅這個星球。
核武器、氣候變化、流行病,現在又加上人工智能——令人驚訝的是,解決方案總是如出一轍:更多的政府;對自由市場和私人決策的更多控制,更多無國界的官僚機構。
上週,數百名科學家、技術企業家、立法者、達沃斯名流等人在人工智能安全中心的主持下發表了一份23字的聲明,要求採取未具體説明的行動:“減輕人工智能帶來的滅絕風險應成為全球優先事項,與流行病和核戰爭等其他社會規模風險並列。”
這份聲明簡潔得驚人,但正是其簡潔性——及其來源——暗示了它的來龍去脈與意圖。“滅絕風險"直接跳到了慣用的一級戰備狀態,要求立即採取行動。“全球優先"確立了監管的合理範圍。將人工智能"與"流行病和核戰爭"這些熟悉的噩夢並列,暗示了所需權威的類型。
許多簽署者也透露出關鍵信息:大量谷歌高管、比爾·蓋茨、一兩位民主黨政客,以及數十年來呼吸着西海岸進步技術官僚正統思想稀薄空氣的同一批人。
公平地説,我相信許多簽署者和支持者是真心擔憂人工智能風險,只是試圖對真正重要的問題拉響警報——儘管我們或許該承認,歷史上的技術恐慌很少被證明是合理的。但我們也知道,這類警告的矛頭總是朝着相同的意識形態方向。
就連阿爾伯特·愛因斯坦也堅信,阻止毀滅人類的核戰爭唯一方法是建立一個"世界政府”,能夠"通過司法裁決解決國家間衝突”。愛因斯坦或許是上世紀最偉大的科學家,但我謹認為這個觀點過去是、現在依然是知識分子的囈語。
自從他80年前説出那些話以來,世界上的核大國數量已顯著增加。這些國家在從亞洲到拉丁美洲的每個大陸上都捲入了軍事衝突。其中一個大國在入侵鄰國後,正在歐洲進行全面戰爭。然而,核毀滅並未成為現實。
我懷疑,試圖強加一個世界政府,比各國通過慣用的外交與武力結合方式行使自決權解決衝突,更有可能導致滅絕級別的核戰爭。
氣候變化是全球監管的終極理由。很可能並非巧合的是,氣候極端主義與強制性全球管控的要求,正是在上世紀90年代傳統馬克思主義被徹底否定之際爆發的。在通過集體主義教條未能對自由市場施加有效權威後,左翼突然發現了一個氣候威脅,可以藉此作為黃金機遇,以比卡爾·馬克思所能想象的更大規模來調控經濟活動。
至於流行病,過去三年我們公共衞生管理者的行動表明,他們希望用一套僵化的全面規則將我們禁錮起來,以應對所謂的滅絕級別威脅。
這一切並非要淡化人工智能帶來的挑戰。對其進行徹底研究,並就如何最大化其機遇和最小化其風險展開健康辯論至關重要。我們應當傾聽那些最熟悉其能力者的關切。我也不否認,國際合作已被證明是降低核戰爭、氣候變化和流行病風險的有效途徑,隨着人工智能前沿技術的發展,這種合作無疑仍是必要的。
但當我們聽到那些老生常彈的監管"虛假信息“和”誤導信息“的呼聲,以及關於無良民粹主義者將利用人工智能作惡的警告時,這場最新恐慌似乎主要引發了那些熱衷於全球管控私人事務者的條件反射式反應。
當面對又一場自封專家和技術官僚要求全球行動、為他們自己及志同道合者創造龐大新官僚機會的表演時,我的建議是:警惕打着技術旗號招搖撞騙的極客。
圖片來源:Getty Images/iStockphoto出現在2023年6月6日的印刷版中,標題為《人工智能是技術官僚精英攫取權力的新藉口》。