OpenAI員工呼籲保護他們就人工智能風險發聲 - 彭博社
Shirin Ghaffary
Sam Altman,OpenAI首席執行官,在2024年5月21日星期二在美國華盛頓州西雅圖的微軟Build活動上發言。
攝影師:Chona Kasinger/Bloomberg
由OpenAI聯合創始人Sam Altman和Y Combinator支持,總部位於舊金山的Rain AI是一家不斷增長的初創公司之一,致力於為AI平台開發新硬件。
攝影師:Dustin Chambers/Bloomberg一羣來自OpenAI和Google DeepMind的現任和前任員工呼籲保護,以免因分享對這些公司及其他公司正在構建的技術“嚴重風險”的擔憂而受到報復。“只要這些公司沒有受到有效的政府監督,現任和前任員工就是少數能夠讓它們對公眾負責的人之一,”一封公開 信件中寫道,該信件由13位曾在這些公司工作過的人簽署,其中7位透露了自己的姓名。“然而,廣泛的保密協議阻止我們表達擔憂,除了向可能未能解決這些問題的公司提出外。”近幾周,OpenAI在保護人工智能方面的做法引發爭議,包括解散其最知名的安全團隊並遭遇一系列員工離職。OpenAI員工還提出擔憂,稱員工被要求籤署與公司股份掛鈎的非貶低協議,可能導致他們在對這家人工智能初創公司發表批評時失去利潤豐厚的股權交易。在一些反對聲音後,OpenAI表示將 解除 過去員工的協議。 週二簽署該信件的前OpenAI員工之一Jacob Hilton 寫道 在X上,公司值得對非貶低政策的變化給予讚揚,“但員工仍可能擔心其他形式的披露報復,比如被解僱和被起訴索賠。”OpenAI的發言人在給彭博社的一份聲明中表示,公司為提供最有能力和最安全的人工智能系統的記錄感到自豪,並相信我們的科學方法來應對風險。”發言人補充説:“我們認為,鑑於這項技術的重要性,嚴格的辯論至關重要,我們將繼續與世界各地的政府、公民社會和其他社區保持聯繫。”
谷歌的代表並沒有立即回應有關評論的請求。在標題為《有權警告關於先進人工智能的權利》的信中,員工們表示他們擔心,因為領先的人工智能公司“有強烈的財務激勵來避免有效監督。” 另一方面,他們表示,這些公司“只有弱的義務”與公眾分享其人工智能系統的真正危險。該信件認為,普通的告發者保護措施是不夠的,因為它們側重於非法活動,而員工們擔心的許多風險尚未受到監管。
在他們的一系列提議中,員工們要求人工智能公司承諾禁止與風險相關的不詆譭協議,併為員工提供一個可驗證的匿名流程,讓員工向公司董事會以及監管機構提出問題。提議還呼籲公司在員工在耗盡其他內部流程後公開分享有關風險信息時不採取報復行動。
OpenAI表示,公司定期與董事會進行問答會議,員工可以在領導層辦公時間表上提出關注。該公司還表示,為員工和承包商設立了匿名的“誠信熱線”。
丹尼爾·科科塔洛(Daniel Kokotajlo)是一名前OpenAI員工,他在今年早些時候辭職,他表示擔心公司是否為人工通用智能的影響做好了準備,這是一種假設的人工智能版本,可以在許多任務上勝過人類。科科塔洛表示,他認為到2027年有50%的機會達到AGI。
“公司沒有什麼真正阻止他們構建AGI並將其用於各種用途,也沒有太多透明度,” Kokotajlo説,他冒着放棄股權的風險,以避免簽署一項不得詆譭協議。“我辭職是因為我覺得我們還沒有準備好。作為一個公司,我們還沒有準備好,作為一個社會,我們也沒有準備好,我們需要在準備和思考其影響方面投入更多精力。”
Rain AI已經招募了一位蘋果公司芯片高管來領導硬件工程,這是這家初創公司本月第二次高調招聘,旨在設計一種新型人工智能半導體。
Jean-Didier Allegrucci曾協助開發取代英特爾公司在iPhone和Mac中的處理器,他將領導Rain AI努力創建更節能芯片的工作。他將與首席架構師Amin Firoozshahian合作,後者在在在Meta平台工作五年後轉到這家初創公司。