ChatGPT讓政府為人工智能監管手忙腳亂 - 彭博社
Lucy Papachristou, Jillian Deutsch
插圖:阿恩·貝爾斯托夫為彭博商業週刊繪製要求政府對人工智能進行監管的呼聲遠早於 OpenAI 在 2022 年底發佈 ChatGPT。但官員們尚未提出應對人工智能潛在可能導致大規模監視、加劇長期不平等或使人類陷入危險境地的方法。面對這些挑戰,所謂的生成式人工智能——如 chatbot 這樣能夠自行創建內容的系統——帶來了一系列新挑戰。
“我們需要對此進行監管,我們需要法律,”紐約非營利研究機構 Data & Society 的執行董事 Janet Haven 表示。“科技公司可以隨意構建併發布他們想要的任何東西,而社會則不得不調整和為這些東西讓路,這種情況是顛倒的。”
目前針對人工智能的最成熟的監管提案來自歐盟,該提案最早於 2021 年發佈了其 Artificial Intelligence Act。該立法的最終形式仍在討論中,將在技術用於“高風險”案例時設立嚴格的保障措施,包括在就業決策或某些執法行動中使用技術,同時為低風險應用留出更多的空間以進行實驗。該法案背後的一些立法者希望將 ChatGPT 劃為高風險,但也有人反對這一想法。按照目前的寫法,該法案側重於技術的使用方式,而不是具體的技術本身。
在美國,地方、州和聯邦官員已經開始採取一些步驟制定規則。拜登政府去年秋天提出了其“AI權利法案”,涉及歧視、隱私和用户選擇退出自動系統等問題。但這些指導方針是自願的,一些專家表示生成式人工智能已經引發了問題,包括大規模生產的虛假信息等問題,這些問題並未在藍圖中得到解決。人們越來越擔心聊天機器人會讓人們更難相信他們在網上遇到的任何事情。“這是朝着對真相的不關心的軌跡發展的一部分,”專門研究人工智能倫理的英國南安普敦大學教授威爾·麥克尼爾説。
美國一些公共機構正試圖在生成式人工智能工具紮根之前限制其使用:紐約市教育局禁止在其設備和網絡上使用ChatGPT。一些美國金融機構也禁止使用這一工具。對於人工智能更廣泛的應用,根據麥肯錫公司2022年的一項調查,公司近年來迅速採納了新的指導方針,風險緩解“沒有實質性增加”。
沒有明確的政策,似乎阻礙人工智能發展的主要因素是技術公司對自身設定的限制。“對我來説,引起警惕的是,如果組織在推動商業化的同時沒有同等重視如何確保以負責任的方式進行,”波士頓諮詢集團首席人工智能倫理官 史蒂文·米爾斯説道,“我們仍然不確定這些技術能做什麼。”
谷歌、微軟和OpenAI等公司正在研究生成式人工智能,並且他們已經公開表示他們對自己工作的倫理關切非常重視。但科技領袖們也警告不要制定過於嚴格的法規,總部位於美國的公司警告西方政府,過度反應將使正在積極追求人工智能的中國獲得地緣政治優勢。前谷歌首席執行官埃裏克·施密特,現任非營利組織 特別競爭研究項目主席,在3月8日的國會聽證會上作證,表示重要的是人工智能工具要體現美國價值觀,政府應主要“在濫用的邊緣工作。”
中國已經計劃限制生成式人工智能的規則,並已經阻止公司使用路由到ChatGPT的應用程序或網站,據當地新聞報道。一些專家認為這些措施是為了實施圍繞這些工具的審查制度,或者為了給中國競爭對手一個優勢。但技術人員可能正在推進得太快,以至於官員跟不上。3月14日,OpenAI發佈了ChatGPT技術的新版本,稱其更準確、更有創造力和更具合作性。閲讀下一篇:谷歌的計劃是將AI應用到一切中來趕超ChatGPT