Anthropic首席執行官表示,AI模型需要強制安全測試 - 彭博社
Shirin Ghaffary
達里奧·阿莫代伊
攝影師:本傑明·吉雷特/彭博社Anthropic 首席執行官達里奧·阿莫代伊表示,包括他自己在內的人工智能公司應該受到強制測試要求,以確保其技術在發佈前對公眾是安全的。
阿莫代伊在週三於舊金山舉行的人工智能安全峯會上回應有關該主題的問題時表示:“我認為我們絕對必須使測試成為強制性的,但我們也需要非常小心地進行。”
在美國和英國人工智能安全研究所發佈了對Anthropic的Claude 3.5 Sonnet模型在網絡安全和生物能力等多個類別的測試結果後,阿莫代伊發表了上述言論。Anthropic與競爭對手OpenAI之前已同意將其人工智能模型提交給政府機構。
阿莫代伊指出,主要公司已經同意了一系列自願的、自我施加的安全指南,例如Anthropic的負責任擴展政策和OpenAI的準備框架,但他説需要更明確的要求。
阿莫代伊表示:“沒有什麼真正可以驗證或確保公司真的遵循這些計劃的字面和精神。他們只是説他們會。”他説:“我認為公眾的關注以及員工的關心確實造成了一些壓力,但我最終認為這還不夠。”
阿莫代的思考部分受到他對更強大的人工智能系統的信念的影響,這些系統能夠超越甚至是最聰明的人類,可能會在2026年到來。雖然人工智能公司正在測試生物威脅和其他仍然是假設的災難性危害,但他強調這些風險可能會很快變為現實。
與此同時,阿莫代警告説,測試要求應該保持“靈活”,以適應技術變化的速度。“我們將不得不解決一個非常困難的社會政治問題,”他説。