政府競相規範人工智能工具
Reuters
AI(人工智能)字母被放置在計算機主板上,這是2023年6月23日拍攝的插圖。路透社/Dado Ruvic/插圖/文件照片
11月3日(路透社)- 微軟支持的OpenAI的ChatGPT等人工智能(AI)的快速進展正在使政府努力達成管理該技術使用的法律變得複雜。
以下是國家和國際管理機構為規範AI工具所採取的最新步驟:
澳大利亞
* 計劃法規
澳大利亞將制定新法規,以防止AI創建兒童色情虛擬材料的分享以及製作深度偽造版本。草擬新法規
英國
* 計劃法規
領先的AI開發者同意於11月2日與政府合作,在新的前沿模型發佈前進行測試,以幫助管理這一發展中技術的風險,在英國舉行的首屆全球AI安全峯會上取得了“里程碑式成就”。
11月1日,超過25個國家參加了峯會,包括美國、中國以及歐盟,簽署了“布萊切利宣言”,稱各國需要共同努力並建立監督的共同方法。
英國在峯會上表示,將把“AI研究資源”資金增加到3億英鎊(3.64億美元),包括建設兩台超級計算機,用於支持研究如何使先進的AI模型更加安全。
英國首相里希·蘇納克於10月26日表示,英國將建立世界上第一個AI安全研究所,以“瞭解每個新模型的能力,探索從社會傷害(如偏見和錯誤信息)到最極端風險的所有風險”。
英國數據監管機構於10月10日表示,已向Snap Inc的Snapchat發出初步的強制執行通知,原因是可能未能正確評估其生成式AI聊天機器人對用户(尤其是兒童)的隱私風險。
中國
* 實施臨時規定
中國科技部副部長吳兆輝在11月1日的AI安全峯會開幕式上表示,北京願意加強與其他國家在AI安全方面的合作,幫助建立國際“治理框架”。
中國於10月發佈了針對提供生成式AI服務的公司的安全要求,包括不得用於訓練AI模型的黑名單來源。
這個國家發佈了一套臨時措施,要求服務提供商在發佈大眾市場人工智能產品之前提交安全評估並獲得許可。
歐洲聯盟
* 規劃法規
歐洲立法者於10月24日達成一項關鍵的新人工智能規定,概述將被指定為“高風險”系統類型,這讓人們離對於預計於12月達成的具有里程碑意義的人工智能法案的更廣泛協議更近了一步,根據五位知情人士的説法。
歐洲委員會主席烏蘇拉·馮·德·萊恩於9月13日呼籲成立一個全球專家組來評估人工智能的風險和益處。
法國
* 調查可能的違規行為
法國的隱私監管機構在4月表示正在調查有關ChatGPT的投訴。
G7
* 尋求法規意見
七國集團於10月30日同意了一項11點行為準則,適用於開發先進人工智能系統的公司,旨在促進全球範圍內的安全、可靠和值得信賴的人工智能。
意大利
* 調查可能的違規行為
意大利數據保護機構計劃審查人工智能平台並聘請該領域的專家,一位高級官員在5月表示。ChatGPT在3月被臨時禁止在該國使用,但在4月又被重新提供。
日本
* 調查可能的違規行為
日本預計將於2023年底前引入更接近美國態度的法規,而不是計劃在歐盟實施的嚴格法規,一位接近討論的官員在7月表示。
該國的隱私監管機構已警告OpenAI不得未經人們許可收集敏感數據。
波蘭
* 調查可能的違規行為
波蘭個人數據保護辦公室在9月表示,正在調查OpenAI,因一項投訴稱ChatGPT違反了歐盟數據保護法。
西班牙
* 調查可能的違規行為
西班牙數據保護機構在4月啓動了對ChatGPT潛在數據違規行為的初步調查。
聯合國
* 計劃法規
聯合國秘書長安東尼奧·古特雷斯於10月26日宣佈成立一個由39名諮詢機構成員組成的諮詢機構,由科技公司高管、政府官員和學者組成,以解決人工智能國際治理中的問題。
聯合國安理會於7月舉行了首次正式討論人工智能,討論了人工智能在軍事和非軍事領域的應用,古特雷斯當時表示這可能對全球和平與安全產生非常嚴重的後果。
美國。
* 尋求關於監管的意見
美國將於11月1日在英國舉行的AI安全峯會上,商務部長吉娜·雷蒙多表示,將成立一個AI安全研究所,評估所謂的“前沿”AI模型的已知風險和新興風險。安全研究所。
喬·拜登總統於10月30日發佈了一項新的行政命令,要求對美國國家安全、經濟、公共衞生或安全構成風險的AI系統的開發者與政府分享安全測試結果。
美國國會於9月舉行了有關AI的聽證會和一個AI論壇,特邀Meta(META.O)首席執行官馬克·扎克伯格和特斯拉首席執行官埃隆·馬斯克參加。60多名參議員參加了會談,馬斯克在會談中呼籲設立一個美國的“AI裁判”。
美國聯邦貿易委員會於7月對OpenAI進行了調查,稱其違反了消費者保護法。
由阿萊桑德羅·帕羅迪和阿米爾·奧魯索夫在格但斯克編寫;米拉·尼西編輯