OpenAI的語音引擎可以克隆語音這並不意味着它應該這樣做- 彭博社
Parmy Olson
聽到了嗎?
攝影師:PAU BARRENA/AFPOpenAI的最新工具非常敏感和有爭議,以至於公司還沒有發佈它。被稱為Voice Engine,這是一個“生成聽起來非常像原始説話者的自然語音”的系統,只需他們的聲音樣本15秒。
這樣的技術並不新鮮。像Eleven Labs和HeyGen這樣的初創公司也可以用少量音頻樣本克隆聲音。但OpenAI已經證明它可以推出比現有競爭對手更好的產品。即便如此,這是OpenAI本應完全避開的領域。問題不在於技術,而在於OpenAI堅持讓AI進入儘可能多人手中。
Bloomberg觀點現在拜登必須向內塔尼亞胡表明,已經夠了世界上最大的NIMBY在600億美元項目上受挫AI威脅要在經濟革命中取代馬尼拉中國經濟需要的是戰略,而不是噱頭公司表示,一旦進行了小規模測試並評估了“關於社會如何適應”的“對話”的結果,它將決定是否“大規模”部署Voice Engine。克隆聲音存在明顯風險,OpenAI指出在大選年風險更高,但公司的目標也是“瞭解技術前沿並公開分享AI正在變得可能的內容”。請記住,OpenAI不再是一個非營利組織,而是一家有義務保持其AI領先地位的企業。
不要驚訝,如果OpenAI最終在今年晚些時候發佈Voice Engine。該公司在2019年2月部分發布GPT-2時也發出了類似謹慎的聲音,當時擔心垃圾郵件發送者會利用它。九個月後,它發佈了完整的模型,稱其“目前沒有強有力的濫用證據”。但它的激勵也發生了變化。在同一時間段內,OpenAI 成為了一家盈利公司,並且接受了微軟公司10億美元的投資。
OpenAI真的很謹慎,還是將謹慎用作公關手段?該公司表明的使命是為人類提供“有益的人工智能”,因此其關於Voice Engine的博客文章自然展示了其公共利益的例子,包括該工具如何為無法言語的患者和殘疾人提供語音。
雖然這些是崇高的目標,但輔助功能也長期被用來賦予新技術一種仁慈的外觀。文本轉語音軟件最初被營銷為幫助盲人的工具,但後來被用於推動像Siri、Google助手和GPS導航系統等主流應用。埃隆·馬斯克推崇他的Neuralink芯片將幫助那些癱瘓的人,但他的長期目標也是將其植入數十億人類大腦中。
事實上,人工智能威脅着使殘疾人生活更加困難。用於篩選求職者的AI工具無意中排除了殘疾人,而2023年ProPublica的調查發現,保險巨頭Cigna使用了一種算法,允許醫生大規模拒絕殘疾人的索賠。Cigna稱ProPublica的報道“偏見且不完整”。
OpenAI對這項技術的監管建議並沒有激發信心。它建議創建一個“禁止名單”來阻止聲音聽起來太像“知名人物”。但聲音克隆的有害副作用將更多地影響普通人而不是名人。由於生成AI技術的進步,過去一年中氾濫的深度偽造色情視頻絕大多數並沒有影響到知名人士,而是普通年輕女性。
驗證和認證原始發言者——正如OpenAI打算做的那樣——也並不總是有效。HeyGen是一個AI語音克隆工具,OpenAI正在與其合作開發Voice Engine,最近被用來克隆一位烏克蘭YouTube網紅的聲音,而她並不知情也沒有同意,她告訴我。Olga Loiek在一箇中國社交媒體應用上發現了HeyGen水印,其中有數百個視頻使用了她的身體和聲音。HeyGen在其網站上表示需要得到一個人的同意才能使用他們的聲音。“很明顯這一部分沒有起作用,”Loiek説。
值得注意的是,OpenAI提供的Voice Engine的幾個好處的例子——比如給無法言語的人一個聲音——並不需要克隆一個聲音。它們只需要能夠生成合成聲音的軟件。複製人類語音會帶來一系列風險,根本不值得。它不僅為欺詐者、網絡噴子和其他散佈錯誤信息的人提供了工具,還很可能給娛樂業和好萊塢本身帶來麻煩,OpenAI在那裏一直在招待高管,展示其視頻生成工具Sora。語音克隆技術威脅到演員們的生計,正如一位英國女演員上週展示的那樣,當她發佈一封拒絕郵件説她被“AI生成的聲音”取代了。
也許OpenAI需要提醒一下那句老話,僅僅因為你能夠做某事,並不意味着你應該這樣做。該公司發現自己被其發佈ChatGPT引發的競賽所帶動,現在正面臨着保持領先地位的壓力,通過發佈更好的競爭工具版本並吸引更多人使用其人工智能。這也是為什麼它最近取消了登錄ChatGPT的要求。
OpenAI 仍然堅持其使命是為人類創造人工智能,但聲音克隆可能帶來的危害遠遠大於優勢。該公司在商業競爭中表現不俗,但人類如何受益看起來越來越不明確。
更多來自彭博觀點:
想要更多彭博觀點嗎? OPIN <GO>****。或者您可以訂閲 我們的每日新聞簡報**。**