美國國防部敦促人工智能公司分享更多關於他們技術的信息 - 彭博社
Katrina Manson
AI 軟件依賴於大型語言模型,這些模型使用大量數據集來支持諸如聊天機器人和圖像生成器之類的工具。
攝影師:AFP/Getty Images
國防部最高人工智能官員表示,該機構在完全承諾使用這項技術之前需要更多瞭解人工智能工具,並敦促開發者更加透明。
五角大樓首席數字和人工智能官員克雷格·馬特爾希望公司分享有關其人工智能軟件構建方式的見解 — 而不會放棄其知識產權 — 以便該部門可以“感到舒適和安全”地採用它。
AI 軟件依賴於大型語言模型,即 LLMs,這些模型使用大量數據集來支持諸如聊天機器人和圖像生成器之類的工具。這些服務通常在不顯示其內部運作方式的情況下提供 — 即所謂的黑匣子。這使用户難以理解技術是如何做出決策的,或者是什麼使其在工作中隨着時間的推移變得更好或更糟。
“我們只是得到了模型構建的最終結果 — 這是不夠的,”馬特爾在一次採訪中表示。五角大樓不知道模型的結構是如何的,或者使用了什麼數據,他説。
閲讀更多: 大型語言模型的工作原理,使聊天機器人更加清晰
馬特爾還表示,公司也沒有解釋他們的系統可能帶來的危險。
“他們説:‘這就是它。我們不告訴你我們是如何構建它的。我們不告訴你它擅長或不擅長什麼。我們不告訴你它是否存在偏見,’”他説。
他將這樣的模型描述為國防部的“外星科技”,他還擔心只有少數幾個人羣有足夠的資金來構建LLM。Martell沒有具體指出任何公司的名字,但微軟公司、Alphabet公司的谷歌和亞馬遜公司以及初創公司OpenAI和Anthropic都在開發商用市場的LLM。
Martell邀請工業界和學術界在二月份來華盛頓討論這些問題。五角大樓關於國防數據和人工智能的研討會旨在確定LLM可能適合處理哪些工作,他説。
Martell的團隊已經在運行一個評估LLM的工作組,他説他們已經在國防部內找到了200個潛在的用途。
“我們不想阻止大型語言模型的發展,”他説。“我們只是想了解使用、好處、危險以及如何加以緩解。”
國防部內有“一個很大的高漲”,Martell説。但他們也意識到,如果技術“產生幻覺”——這是指當人工智能軟件捏造信息或提供錯誤結果時,這種情況並不少見——他們必須為此負責。
他希望二月的研討會將有助於建立他所稱的“成熟模型”,以建立與幻覺、偏見和危險相關的基準。雖然第一份報告草稿可能包含人工智能相關的錯誤——這是人類後來可以排除的——但這些錯誤在風險更高的情況下是不可接受的,比如需要用來做運營決策的信息。
在為期三天的二月活動中,一場保密會議將專注於如何測試和評估模型,並防範黑客攻擊。
Martell説,他的辦公室在國防部內擔任諮詢角色,幫助不同的團體找出衡量其系統成功或失敗的正確方法。該機構正在進行800多個人工智能項目,其中一些涉及武器系統。
考慮到所涉及的風險,五角大樓將對其使用算法模型的方式設定更高的標準,他説。
“將會有很多情況涉及到生命安全,”他説。“因此,允許出現幻覺或者我們想叫它什麼 —— 這是不可接受的。”