微軟將負責人工智能團隊人數從350人增加到400人 - 彭博社
Jackie Davalos
微軟急於增加對其人工智能工具的信任,因為人們越來越擔心這些工具會生成奇怪的內容。
攝影師:Dimas Ardian/Bloomberg微軟公司擴大了負責確保其人工智能產品安全的團隊,去年將人員從350人增加到400人。
該團隊中超過一半的人全職致力於這項任務,公司在週三的首份年度人工智能透明度報告中表示,該報告概述了確保其服務負責任推出的措施。團隊的新增成員包括新員工和現有員工。
去年,微軟解散了其倫理與社會團隊,這是科技行業廣泛裁員的一部分,導致各公司的信任和安全團隊遭到削減,包括Meta Platforms Inc.和Alphabet Inc.的Google。
微軟急於增加對其生成式人工智能工具的信任,因為人們越來越擔心這些工具會生成奇怪的內容。今年二月,該公司調查了涉及其Copilot聊天機器人的事件,該機器人的回應從奇怪到有害不等。
第二個月,一名微軟軟件工程師致信董事會、立法者和聯邦貿易委員會,警告稱這家科技巨頭沒有做足夠的工作來保護其人工智能圖像生成工具Copilot Designer,以免生成濫用和暴力內容。
“在微軟,我們意識到我們在塑造這項技術中的角色,”總部位於華盛頓雷德蒙德的公司在報告中説道。
微軟部署人工智能的安全方法基於國家標準與技術研究所制定的框架。這個機構隸屬於商務部,根據喬·拜登總統去年發佈的一項行政命令,負責為新興技術制定標準。
在其首次報告中,微軟表示已推出了30個負責任的人工智能工具,包括使人們難以欺騙人工智能聊天機器人表現怪異的工具。該公司的“提示屏蔽”旨在檢測和阻止故意嘗試 — 也被稱為提示注入攻擊或越獄 — 使人工智能模型以意外方式行事。
微軟公司投入大量資金並與OpenAI 合作的動機源於一種感覺,即在與谷歌的競爭中嚴重落後,根據一封內部電子郵件發佈於週二,作為司法部反壟斷案件對這家搜索巨頭的一部分。
Windows 軟件製造商的首席技術官凱文·斯科特在看到谷歌和微軟之間的人工智能模型訓練能力差距時“非常,非常擔心”,他在2019年寫給首席執行官薩提亞·納德拉和聯合創始人比爾·蓋茨的一封消息中寫道。這次交流顯示了公司高管私下承認他們缺乏基礎設施和開發速度,無法趕上OpenAI 和谷歌的DeepMind等公司的情況。