政府是否應監管人工智能技術?讀者意見紛呈——《華爾街日報》
Demetria Gallegos
拜登總統一個月前發佈了一項行政命令,旨在加強政府對人工智能的監管。但隨着無數AI技術發展即將改變各產業和日常生活,關於監管力度——甚至是否需要監管——對AI和全球最有利的問題,各方意見分歧嚴重。
作為我們關於AI引發的倫理困境系列報道的一部分,我們想探討政府應如何發揮作用來增強人工智能的益處並降低其風險。
我們向《華爾街日報》讀者提出了以下問題:
鑑於AI可能帶來的危害(如不準確或存在偏見),是否應該像藥品審批那樣,對重大新AI技術實施政府評估和批准流程?如果這會顯著延遲新AI工具的發佈又該如何權衡?
以下是我們收到的部分回覆:
社交媒體的教訓告訴我們什麼?
必須監管!即使流程會延遲新AI工具的發佈,我們也需要在AI發展初期就進行規範。我寧願暫緩使用AI工具,也要換取徹底的評估流程和實質性監管。如果連AI創造者都認為它可能危害人類,是時候傾聽警告了。我們現在正見證着早期社交媒體監管缺失如何引發了技術安全閘門的討論。必須吸取教訓,在(可能)為時已晚前掌控AI的發展。
- 托里·維克倫德,華盛頓特區
遵循互聯網模式
對人工智能應實行最小化甚至零政府監管。我們如今享受的互聯網高速創新正是在最低監管環境下實現的。我發現ChatGPT徹底改變了我的數據科學工作方式,若僅因它可能被誘導説出不當或不準確內容就封禁這項技術,那將非常糟糕。
- 比徹·亞當斯,加利福尼亞州都柏林
為何如此匆忙?
我們為何要急於推出新AI工具?硅谷通過過快"升級"產品已製造了大量實體廢棄物,同時迫使消費者不斷適應那些可能過早發佈的軟件補丁,也造成了巨大的精神損耗。
ChatGPT發佈時就存在缺陷,簡單測試就能發現它會輸出荒謬的"事實"。顯然我們需要放慢腳步,確保AI真正造福人類而非帶來更多焦慮和終將被淘汰的浪費性新產品。畢竟我們已有足夠工具進行基礎運算,而谷歌搜索的準確性通常遠高於ChatGPT(儘管即使在那裏也需要層層驗證信息準確性)。
所以是的,延遲發佈吧,我們需要建立政府評估審批流程。
- 徐曦,紐約州莫里森維爾
我們需要人工智能監管局
鑑於這項技術的極端複雜性,應該設立一個美國農業部(可以稱之為“USDAI”)來提供一些監督。遺憾的是,政府並不具備監管這一發展所需的技能。但政府可以阻止AI在工作場所大規模取代人類,這目前AI最糟糕的結果。
最近撥打過公司求助熱線的人,都體驗過電話那頭沒有一個真正的人類能夠恰當回應你那個不符合“按1選擇…”菜單的特殊問題。
- 休·傑米森,俄亥俄州都柏林
美國不是歐盟
不。在歐盟,當然可以,因為那裏的文化更習慣於監管而非創新。這樣的監管在美國行不通。然而,聯邦貿易委員會(FTC)應該特別積極地起訴那些發佈導致傷害的生成式消費者人工智能的公司,並且在聯邦法院中,對於能夠被認定為某些傷害的近因的公司,侵權訴訟權應給予相當大的自由度。讓我們用美國法律那套久經考驗的系統來解決問題,但要強調力度和執行力。這將與消費者軟件安全漏洞在法院的處理方式形成對比。
- 特蕾西·貝絲·米特拉諾,紐約州佩恩延
讓創造者承擔責任
不應該有任何限制,但人類需要對他們AI引擎可能做的事情負責。例如,AI引擎很容易設計出針對公司計算機的拒絕服務攻擊。如果AI隨後執行了這個計劃(如果它能訪問互聯網,它就可以做到),那麼參與其中的人需要被追究責任。理論上,設計這個計劃、安排未來的攻擊時間,然後只需等待,是相當容易的。有人可以做空一家公司的股票,等等。或者他們可以計劃對電網發起攻擊,並想出辦法從攻擊中獲利(或將攻擊賣給外國行為者)。
- 傑克·亞歷山大,加利福尼亞州薩克拉門託
是的,在某些行業需要監管
如同生活中的大多數事情,這要視情況而定。如果人工智能被用於診斷和治療疾病,它就相當於醫療設備,邏輯上應受FDA監管。銀行和投資決策是另外兩個顯然需要管控的領域。這些案例中基礎監管機制已然存在。或許最令人擔憂的是國税局及州税務機構使用AI審核納税申報,因其可能影響大量人羣。誰來監管這些監管者?
- 喬伊斯·L·迪揚,賓夕法尼亞州德文
教育優於監管
與其政府監管,不如將資金和精力用於教育公眾認識AI的侷限性,並鼓勵人們批判性思考AI提供的信息。社交媒體同理。
- 卡爾·C·哈根,內華達州法倫
狐狸看守雞舍
讓政府的"真理部"官僚擔任新AI技術的事實核查員或分析師,充其量是盲人引路。最糟情況下,這將形成真正的"狐狸看守雞舍"局面——因為AI可能直接影響政府權力。
我更相信普通民眾能閲讀觀點、考量信息來源、評估犯罪受益方並得出結論。用户會迅速發現缺陷並在公共媒體上曝光。
- 威廉·盧埃林,科羅拉多州利特爾頓
規模過大難以監管
監管是徒勞之舉。儘管初衷良好,但隨着技術發展成熟,管理將愈發困難。這就像試圖規範數據結構或編程技術,很可能收效甚微。
AI技術即將無處不在。理解AI內部原理的IT專業人員正呈指數級增長。監管對象是什麼?如何準確判斷代碼行為?濫用行為將層出不窮,包括那些鼓吹監管的行業巨頭——他們往往試圖設立准入壁壘以扼殺競爭。
我們應聚焦於識別並防範利用該技術作惡的惡意行為者。
- 小戈登·戴維斯,賓夕法尼亞州西切斯特
反覆驗證機制
建議政府協同AI領域專家設計參數指標,當AI程序偏離預期或失控時觸發預警。開發者需依據這些參數測試程序,確保其表現符合預期後再公開發布。
由於參數閾值已預先設定,可緩解常規"政府滯後效應"。在設置防護欄的前提下,允許AI有機發展,方能實現重大突破。
- 特里·麥卡錫,紐約州米爾伍德
問題複雜化
“考慮到人工智能可能帶來的危害(如不準確或偏見),是否應該…” 你是説,讓一個經常不準確或偏見的組織,比如政府,來決定哪些不準確或偏見是可以接受的,哪些是錯誤或誤導信息?哦,是的,這正是我們需要的。
- 大衞·赫福德,華盛頓州斯波坎
不要限制人工智能
對生成式人工智能產生的內容中偏見和錯誤信息的擔憂既為時過早又為時已晚。説為時過早,是因為對這些模型如何工作的真正缺乏理解很可能會導致不理想的監管,阻礙技術的發展。(軟件版權保護就是一個例子。)説為時已晚,是因為一旦模型被訓練,它就無法“忘記”——其訓練數據中的任何不良影響都無法從模型的參數中去除。
在這兩者之間,我寧願保護不足也不願過度保護。我對用考慮不周的監管來阻礙技術的擔憂,超過了對生成式人工智能產生的內容中不準確、偏見或錯誤信息的擔憂——這些一直是人類之間交流的產物,人類學會用批判性思維技能根據已知的來源和自身的偏見來過濾和解讀接收到的信息。公平地説,隨着更多企業將生成式人工智能整合到面向消費者的產品中,而消費者並未意識到這一點,這將變得更加具有挑戰性。
即便如此,我既不需要也不希望本屆政府或其他任何機構以保護我為名,來監管這項新興技術。
- 安·德弗蘭科,科羅拉多州蘇必利爾市
讓市場管理風險
別讓政府插手。讓那些開發並向消費者出售AI聊天機器人的公司為它們造成的傷害和損失承擔經濟責任。這將迫使它們不發佈危險且不可靠的產品。如果它們這樣做,就會破產。
鑑於我們政府的政治化現狀,審查將導致延誤,給中國和俄羅斯等全球不良行為者提供機會,趕上並超越我們目前在人工智能領域的領先地位,這對我們不利。讓政府遠離。
- 埃德温·維茲卡隆多,佛羅里達州惠靈頓市
德米特里婭·加列戈斯是《華爾街日報》紐約編輯部的一名編輯。她的郵箱是[email protected]。