OpenAI和Anthropic同意與美國機構合作進行安全測試 - 彭博社
Shirin Ghaffary
攝影師:安德烈·魯達科夫/彭博社美國政府宣佈與領先的人工智能初創公司OpenAI和Anthropic達成協議,以幫助測試和評估他們即將推出的技術的安全性。
根據週四宣佈的協議,美國人工智能安全研究所將提前獲得這些公司的主要新人工智能模型,以評估其能力和風險,併合作制定減輕潛在問題的方法。人工智能安全研究所是商務部國家標準與技術研究所(NIST)的一部分。這些協議是在對通過監管減輕人工智能潛在災難性風險的推動日益增強之際達成的,例如備受爭議的加州人工智能安全法案SB 1047,該法案最近通過了州議會。
“安全是推動突破性技術創新的關鍵,”人工智能安全研究所所長伊麗莎白·凱利在一份聲明中表示。“這些協議只是開始,但它們是我們努力負責任地管理人工智能未來的重要里程碑。”
該組織將與英國人工智能安全研究所密切合作,提供潛在安全改進的反饋,聲明中提到。此前,Anthropic在技術發佈前與英國人工智能安全研究所協調測試其Sonnet 3.5模型。美國和英國組織之前表示他們將共同努力實施標準化測試。
“我們強烈支持美國人工智能安全研究所的使命,並期待共同努力,告知人工智能模型的安全最佳實踐和標準,”OpenAI首席戰略官Jason Kwon在一份聲明中表示。“我們相信,該研究所在負責任地發展人工智能方面定義美國領導地位中發揮着關鍵作用,並希望我們的合作能夠提供一個其他國家可以借鑑的框架。”
Anthropic也表示,建立有效測試人工智能模型的能力非常重要。“安全、可信賴的人工智能對技術的積極影響至關重要,”Anthropic聯合創始人兼政策負責人Jack Clark説。“這增強了我們識別和減輕風險的能力,推動負責任的人工智能發展。我們為能為這項重要工作做出貢獻而感到自豪,設定安全和可信賴人工智能的新基準。”美國人工智能安全研究所於2023年成立,作為拜登-哈里斯政府關於人工智能的行政命令的一部分,負責制定負責任的人工智能創新的測試、評估和指導方針。