拜登的AI行政令是政府爭奪主導權的嘗試——《華爾街日報》
The Editorial Board
拜登總統正確指出美國正與中國展開一場技術軍備競賽。既然如此,他為何還要下令政府對人工智能(AI)進行全面干預,從而拖慢美國的創新步伐?
“為了實現人工智能的潛力並規避風險,我們需要監管這項技術——在我看來別無他法,必須加以監管。”拜登總統上週簽署長達63頁的行政命令時如此表示。他宣稱這是“全球各國政府在AI安全、保障與可信度方面採取的最重大行動”。這並不能讓人放心。
***
人工智能涵蓋廣泛的應用領域,包括聊天機器人、深度學習以及以指數級算力模擬人類神經網絡的大語言模型。大多數大型企業已以某種形式應用AI,其在提升勞動生產率、推動人類知識進步和挽救生命方面潛力巨大。但AI也伴隨風險,尤其是當生成式AI最終能模擬人類認知時。
總統令中包含若干可取舉措,例如提供內容認證指導和水印技術,明確標註AI生成內容,使民眾能辨別政治廣告是否含有偽造圖像或聲音。該命令還試圖增加對具備AI技能外國工作者的簽證配額。
然而,政府是否具備理解快速演進AI技術的專業能力尚存疑問,更遑論明智監管其多樣化應用的智慧。更大的風險在於,這一政策可能將致力於開發有益AI應用的美國企業束縛在繁文縟節之中。
根據該行政令,聯邦機構須在270天內製定“開發部署安全、可靠、可信人工智能系統”的指導方針。開發對國家安全、經濟安全或公眾健康安全構成“嚴重風險”AI模型的企業,在訓練模型時必須向監管機構報備,並分享“紅隊安全測試”結果。
這些安全測試必須探查AI系統的缺陷,包括歧視性偏見、功能侷限、錯誤及濫用風險。即使聯邦機構挖走OpenAI的工程師,也無力監管可能歸其管轄的數十萬套AI系統——從犯罪預測模型到工廠機器人。
雖然工程師通常在發佈前會進行產品缺陷測試,但沒有任何系統是完美的。眾所周知,聊天機器人偶爾會“幻覺發作”——即編造信息。但隨着漏洞被發現修復、更多數據輸入模型,每個新版本都會有所改進。這就是迭代式人工智能的工作原理。
進步人士警告,如果訓練數據中固有偏見,AI模型可能放大種族和性別歧視。這雖屬實,但使用AI的企業仍需遵守民權法,因此他們有充分動力確保模型不存在歧視。
拜登政府更擔憂的是,AI系統極擅長髮現可能導致特定羣體受到差異性影響的微妙模式與關聯。因此拜登指示聯邦機構審查商業AI模型(如貸款核批和招聘中使用的系統),排查對“受保護羣體”造成差異影響的算法。
如果大型語言模型AI的訓練數據來源於傾向自由派的新聞媒體和學術研究,它們可能會基於政治立場進行歧視,並放大進步主義敍事。然而這一風險似乎並未引起行政當局的擔憂——儘管AI開發者應當警惕,因為這可能導致半數國民抵制這項技術。
AI在藥物研發、疾病風險預測和治療方案選擇方面潛力巨大。但該行政令通過對醫療機構和藥企使用AI實施微觀管理,並建立中央數據庫追蹤所謂"造成傷害(包括偏見)的事件",反而會阻礙這些進展。這或許正中侵權訴訟集團的下懷。
科技巨頭等大企業或許能應付這些新的監管和法律難題——這也可能是許多CEO主動擁抱監管的原因。但初創企業和小公司將額外承擔向政府彙報的法務和監察負擔,從而削弱行業競爭。若拜登的行政令十年前生效,OpenAI還能取得今日的突破嗎?
***
白宮法律團隊心知肚明,總統試圖推動的多數舉措缺乏法律授權,這正是其要動用1950年《國防生產法》賦予總統的寬泛國防權力。試想當年比爾·克林頓若以同樣手段對自由發展的互聯網實施政府管控會如何?
當局正吹噓美英中三國上週簽署的"AI安全承諾"。但中國在AI(包括軍事應用)領域快速趕超美國之際,不太可能真正遵守這些保障措施。該行政令唯一的好消息是:其實施必須通過監管規則,而這些規則可能因越權而在法庭上受到挑戰。
喬·拜登總統於10月30日在白宮簽署了一項關於生成式人工智能規則的行政命令。圖片來源:克里斯·克萊波尼斯/祖瑪通訊社