“AI視頻通話”產品化的三條路_風聞
脑极体-脑极体官方账号-从技术协同到产业革命,从智能密钥到已知尽头10-17 00:09
“做AI產品經理太難了。”近期腦極體的同事參加了一場開發者大會,一位產品經理向我們坦言:“AI時代,做產品的方法論沒變,但以往熟悉的東西幾乎都被清零了。”
用户需求被清零了,大模型到底能用來做什麼,用户自己是不清楚的,需求是空白的,需求調研、產品定義,就要花費好幾個月的時間。
好不容易定義好了,基礎模型的一個更新,就有可能將前期所做的工作、功能規劃等推倒重來。
“比如GPT-4o出現之後,語音對話的能力是我們完全意想不到的,就又得把產品開發過程再來一遍……”
而縱觀一年多來推陳出新的數百個大模型,GPT-4o可以説是產品化程度非常高的一個了。
比如OpenAI發佈會上展示的“AI視頻通話”,使用户與AI進行即時的、跟真人對話一樣自然的視頻交流。國內模型廠商也很快推出了類似的AI視頻通話功能,不少媒體和用户都表示“體驗炸裂”。
但半年時間過去,發現在最初的震驚與新鮮感過後,在真正的軟件生態裏,還是沒有看到“AI視頻通話”被大規模、高頻率地用起來,更別提激活用户的付費慾望了。為什麼會這樣?
我們就從“AI視頻通話”説開去,聊聊AI產品化、商業化到底要經過哪些磨礪。
鑽石原礦被開採出來,其實並不璀璨奪目,是經由工匠們的切割打磨,被鑲嵌成鑽石首飾,包裝為“愛情象徵”,才走進大眾消費市場,價值實現了百倍千倍攀升。
類GPT-4o大模型就類似於原礦,作為“交互天花板”,潛在商業價值很大,但必須經過產品化的精細打磨與包裝,才能被大眾用户廣泛接受,實現其真正的價值和應用潛力。
而基於類GPT-4o所誕生的“AI視頻通話”,雖然向產品化邁進了一步,但依然屬於原型的基礎能力。
儘管OpenAI、智譜等模廠已經針對“AI視頻通話”這一應用,打磨了諸如響應速度、具體用例等產品側的細節,並融入到ChatGPT、智譜清言APP等產品當中。但作為一種軟件應用來説,這種與通用場景相結合的落地模式,還是比較粗陋。
首先,需求過於寬泛。
AI視頻通話,技術上相當於讓AI擁有“眼睛”和“嘴”,具備察言觀色、跟真人對話的能力。這很容易就讓人想到AI陪伴,人與AI談天説地、談情説愛。
直接將AI視頻通話能力嫁接在聊天機器人上,本質依然是AI聊天,能力升級,但無法解決chatbot商業價值低的核心問題。
AI視頻聊天,用户容錯率高,不在乎AI偶爾犯錯或出現幻覺,這也意味着對基礎模型能力要求不嚴苛,無法在技術層面拉開差距。曾經的智能音箱大戰、智能助手紅海,也會在AI視頻聊天領域出現,並且由於聊天並不能幫助用户完成具體任務或解決問題,用户還得自己琢磨在視頻裏跟AI聊什麼,沒一會兒就只能跟AI面面相覷,難以帶來確定性的產品滿足和持久粘性,新鮮感過後就會流失。
而一些直接用途,想要普遍應用,也有大量細節仍待填充。
比如基於AI視頻通話的無障礙功能,是一個非常直接的落地場景。AI視頻通話,可以將設備攝像頭作為“眼睛”,幫助人去理解物理世界,這對視障人羣豈不是很友好?
但實際上,大模型APP的視頻通話功能,是無法直接被視障人羣用起來的,還有大量的產品細節需要考慮。比如我們曾體驗過即時圖像識別,AI只能認出“面前有兩張卡”,但哪張是公交卡,哪張是銀行卡,是無法準確識別的,這就需要基於視障羣體出行接觸的高頻物體,進行針對性地精調。
而且,在飛機、高鐵、地鐵等弱網、無網環境下,也要保證視障人羣與AI視頻通話的即時性,就需要純端側運行的多模態大模型,將模型做小、計算效率做高。
產品設計層面,還有大量的細節,還等待着填充,才能轉化為用户可以方便使用的產品和服務。
可以看到,沒有更細緻的產品化,儘管“AI視頻通話”這一基礎能力很厲害,卻不知道能用來幹什麼,很可能導致技術找不到市場,倒在了產品化變現的黎明到來之前。
這個“至暗時刻”會發生嗎?
欣慰的是,我們發現 “AI視頻通話”能力,已經開始向行業輸送了,意味着這座AI基礎能力的“原礦”,終於開始被打磨成晶光四射的鑽石。
我們就從“原礦”流向的應用領域,來分享幾個“AI視頻通話”的產品化方向。
大模型怎麼落地?智能體是方向。
智能體怎麼服務?+AI視頻通話事半功倍。
如今,手機軟件承載着我們日常的絕大多數服務,在各個應用中來回跳轉、操作是非常繁瑣的。
今年以來,榮耀、vivo等廠商都在基於智能體打造一系列創新功能體驗,比如“一句話點奶茶”“一句話訂餐廳”等。用户只需要向手機助手發出指令,手機智能體會自動理解需求、拆解任務步驟、調取相關功能,一站到底地完成任務。
Agent手機就很好地解決了數字服務鏈路長、操作繁瑣的問題,但新的問題又來了,那就是智能體還需要“看得懂”“能交流”。
舉個例子,在外賣小程序下單時,遇到廣告是常態,這時候需要智能體agent執行準確的操作,比如“點擊關閉”“跳過”等,來推進到下一步。如果智能體無法識別相關內容,必須用户自己動手操作,那整個鏈路就被打斷了,用户體驗會非常不好。有跟智能助手通過文字prompt交流的功夫,用户自己就能點開程序完成下單了。
Agent手機+視頻通話,就能用户體驗更進一步。
比起打字的繁瑣、語音尷尬症,在人機對話時,像跟真人面對面交流一樣,通過語音對話完成下單,更符合直覺,也更有被服務的舒適感。對話之後,大模型對視頻畫面進行即時分析,指導智能體來自動執行,整個體驗會從頭到尾絲滑無感。
目前,國內終端廠商在端側智能體方面走得是更快的。腦極體在VDC 2024大會上了解到,藍河操作系統增添了視覺感知能力,讓系統像人類一樣“聽得懂”“看得清”。智能體能夠模擬人類的智能,助力操作系統像人一樣進行溝通、執行智能任務。
如果説,智能體可以讓人成為數字服務的最小參與者,那麼在智能體手機中打磨的AI視頻通話,則讓人機交互朝着更理想、更符合直覺的體驗靠近,讓數字生活管家走進現實。
將AI視頻通話功能集成到垂直應用軟件中,可以變成擬人化的垂域專家,提供更專業的服務,解決更具體的問題,從而激活用户的付費意願和模型API經濟。
目前,OpenAI為GPT-4o預設了十幾個場景,清言視頻通話API上線智譜開放平台時,也列出了智能硬件(VR眼鏡)、教育培訓AI私教、文旅場景AI嚮導、具身智能等落地方向。通過將AI視頻通話API開放出來,鼓勵開發者在產品中集成“AI視頻通話”功能。
9月24日,多鄰國(Duolingo)在第六屆全球分享大會上,推出了 AI 視頻通話(Video Call)。Duolingo Max 用户可以與多鄰國的角色 Lily(拽姐)進行視頻通話,進行個性化的互動練習。在對話中,AI會根據用户的語言水平靈活調整內容。
學習語言最難的就是高頻使用環境和開口説話的心理障礙,通過AI視頻通話提供即時的對話機會,可以讓小白初學者也能自信開口,進行有效聯繫。據説,多鄰國的這一新功能接入了OpenAI的高級語音API功能。
國內頭部社交軟件Soul,也上線了AI聊天機器人“AI苟蛋”,可以主動跟用户找話題,並且年底將開啓AI陪聊機器人的視頻通話服務。不同於泛泛聊天,Soul主打的是靈魂交友,平台用户傾向於開展深層交流,探討深度話題,尋求心靈共鳴。
在這種較為成熟的社區氛圍下,用户在使用AI視頻通話的預期、內容也是較為明確的,不會出現不知道聊什麼的情況。
各行各業都存在大量需要互動的場景,可以跟“AI視頻通話”相結合提供擬人化體驗。但用户能否由此對應用和AI視頻通話產生黏性,還需要行業夥伴把使用門檻降到最低,這不僅需要行業擁有產品開發的能力與意願,能夠洞察缺口與機遇,也需要模廠的生態支持。
從哆啦A夢到阿童木、賈維斯、Her,這些讓人類感覺友好温暖的AI,都是擬人化的。也許説明,我們更願意跟更像人類的AI打交道,而不是冰冷無形的機器。
一位智能機器從業者告訴我們,一開始設計的新車只有虛擬的語音助手,用户上車之後覺得跟空氣説話很尷尬,激活率不高,所以設計了一個帶有屏幕的車載控件,可以跟車主打招呼、有表情,車主很喜歡跟它對話,逢年過節還會為它買各種裝飾物,把它當作用車場景中的家庭一員。
從這個思路看,AI視頻通話其實可以被加入各種硬件當中,與用户展開真人一般的對話,從而成為情感共同體,由此衍生的商業空間也非常充裕。
透過AI視頻通話,相信大家能夠感受到,無論是AI企業或普通大眾,對於AI產品化的需求越來越實質。
模型技術只是能力,是原型,而遠不到普遍可用的階段。唯有通過產品化的細緻打磨,AI這座商業富礦,才能真正顯露出鑽石般的光芒。