OpenAI全面發佈類人ChatGPT語音助手,支持中文等50多種語言
陈济深

在首次向公眾展示的四個月後,OpenAI終於要面向其所有付費用户開放ChatGPT的類人高級人工智能(AI)語音助手功能——“高級語音模式”(Advanced Voice Mode,以下簡稱AVM)。
OpenAI週二(24日)宣佈,所有付費訂閲ChatGPT Plus和Team計劃的用户,都將可以使用新的AVM功能,不過該模式將在未來幾天逐步推出。它將首先在美國市場上線。
該功能將向OpenAI Edu 和Enterprise 計劃的訂閲者開放。據悉,AVM提高了部分外語的對話速度、流暢度並改進口音。
OpenAI的最新舉措意味着,本週,ChatGPT的Plus版個人用户和Teams版小型企業團隊用户都可以啓用新的語音功能,只需通過説話、無需手動輸入提示詞和GPT對話;在App上訪問高級語音模式時,用户可以通過彈出窗口知道自己已經進入了高級語音助手,用户會收到App的通知。
此外,AVM還新增了兩大功能:為語音助手存儲“自定義指令”,以及記住用户希望語音助手錶現何種行為的“記憶”的功能(這類似於今年4月OpenAI為ChatGPT文本版本推出的記憶功能)。
也就是説,ChatGPT用户可以利用自定義指令和“記憶”來確保語音模式是個性化的,AVM會根據他們對所有對話的偏好做出響應。
語音方面,OpenAI推出了五種不同風格的新聲音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四種聲音Breeze、Juniper、Cove和Ember,可選聲音達到九種,撤走了被指山寨“寡姐”(女演員斯嘉麗·約翰遜)的聲音Sky。
這意味着,ChatGPT的Plus版個人用户和小型企業團隊用户(Teams)可以通過“説話”的方式,而不是輸入提示來使用聊天機器人。
當用户在應用程序上進入語音模式時,他們會通過一個彈出窗口知道他們已經進入了高級語音助手。最後值得一提的是,AVM可以用超過50種語言説“對不起,我遲到了”。
根據OpenAI在X上發佈的一段視頻,用户要求語音助手錶達,由於讓奶奶久等了,向奶奶致歉。AVM先用英語流暢地總結了一遍,並在用户表示“奶奶只會説普通話”後,又用標準的中文普通話表達了一遍。
這些更新只適用於OpenAI的AI模型GPT-4o,不適用於最近發佈的預覽模型o1。
今年5月,OpenAI首次展示了這款語音產品,並展示了它如何快速響應用户發出的書面和視覺提示。但在6月,以解決潛在安全問題為由,推遲發佈。到了7月份,該功能也只面向有限數量的ChatGPT Plus用户開放。不過,新的語音模式缺少5月OpenAI展示過的不少功能,比如計算機視覺功能。該功能可讓GPT僅通過使用智能手機的攝像頭就對用户的舞蹈動作提供語音反饋。
本文系觀察者網獨家稿件,未經授權,不得轉載。