AIGC熱潮已經結束了嗎?_風聞
元力社-08-21 17:42
去年,當生成式人工智能產品開始向公眾推出時,在全世界掀起了一陣興奮和恐懼的狂潮。但如今與幾個月前相比,人們對AIGC的興趣正在有眼可見地減弱。

Big Thing OR party trick?
AIGC工具僅憑文字提示就能創造圖片或文字類內容,這着實讓人驚歎。硅谷的科技巨頭們也對這一變革性新技術的前景垂涎三尺,在經歷了多年的經濟停滯以及加密貨幣和元宇宙的失敗之後,他們寄希望於從這項技術中賺一筆大錢。
但也有人擔心,在人工智能改變世界之後,世界會變成什麼樣子。或許數以百萬計的工作崗位會因此消失,或許人們將無法分辨什麼是真實存在的,什麼是人工智能創造的。如果用更誇張和戲劇化的語言描述它,人類的末日可能就在眼前。這讓我們對這項技術的驚人潛力既嚮往又恐懼。

幾個月後,AIGC的發展遭遇了一系列阻礙。各國政府正在加大力度監管這項技術,創造者們正在起訴涉嫌侵犯知識產權和版權的行為,人們對這些產品所帶來的隱私侵犯(包括真實的和感知到的)表示反對,還有很多事故讓人們開始質疑AI聊天機器人的準確性,以及人們應該在多大程度上相信它們。
AIGC發展的前提是,人們依舊還在使用它。但最近有報道稱,消費者開始對聊天機器人失去興趣:基於ChatGPT的NewBing並未對谷歌的市場份額造成任何影響,ChatGPT首次出現用户流失的情況,而且聊天機器人仍然容易出現基本錯誤,讓人無法完全信任。在某些情況下,它們現在可能比以前更不準確。
這個派對小把戲(意為一種不可靠的方法,策略,或者手段)已經結束了嗎?
生成式人工智能是一項強大的技術,不會在短期內消失,利用這項新技術構建的聊天機器人是消費者最容易使用的工具之一,消費者可以直接訪問並親自試用。但最近的報道顯示,隨着最初的興奮和好奇逐漸消退,人們可能並不像許多人預期的那樣喜歡聊天機器人。
AI沒有讓微軟彎道超車
OpenAI及其ChatGPT聊天機器人迅速成為最熱門的AIGC公司和工具,無疑得益於OpenAI是首批向公眾發佈工具的公司之一,也得益於其與微軟建立的價值數十億美元的合作關係。這種合作關係促使微軟在今年二月宣佈,將把基於OpenAI大型語言模型(LLM)的定製聊天機器人納入其搜索引擎必應(Bing)。微軟表示人工智能生成式搜索是網絡搜索的未來。其特點是在回答用户提問時,會將來自多個網站的信息整合到一個聊天回覆中,而不是隻顯示一堆網頁鏈接。
隨着AIGC快速出圈,在谷歌完全主導的搜索市場上,必應突然從一個笑柄變成了潛在競爭對手,簡直成了與谷歌旗鼓相當的同義詞。因此,谷歌迅速發佈了自己的聊天機器人,名為"巴德"(Bard)。Meta也不甘示弱,而且可能還在為其災難性的元宇宙戰略而耿耿於懷,發佈了其大型語言模型的兩個開源版本。OpenAI還將ChatGPT授權給了其他公司,數十家公司排着隊將其應用到自己的產品中。
與幾個月前的興奮相比,AIGC的這種重塑可能還有很長的路要走。《華爾街日報》最近的一篇文章稱,新版必應並沒有得到消費者的青睞,文章引用了兩家分析公司的數據,他們認為必應現在的市場份額與1月份人工智能之前的市場份額大致相同。(微軟認為分析公司低估了數據,但不願透露內部數據)。
根據Statcounter的數據,微軟的網頁瀏覽器Edge(消費者必須使用該瀏覽器才能訪問必應聊天工具)的用户數量確實有所增長,但仍然微不足道,而且已經有了衰退跡象,而Chrome瀏覽器的市場份額在這段時間內有所增長。不過,微軟仍有機會。如果必應聊天可以在其他瀏覽器上更容易訪問,那麼它很可能會得到更多的用户使用。微軟告訴《華爾街日報》,該公司計劃儘快實現這一目標。

與此同時,OpenAI的ChatGPT使用數據似乎也在下滑。據《華盛頓郵報》報道,自去年發佈以來,ChatGPT網站的流量在6月份首次下降了近10%。報道稱,其iPhone應用程序的下載量也有所下降,但OpenAI不願對此發表評論。
谷歌尚未像微軟那樣將其聊天機器人廣泛整合到搜索服務中,而是將其保留在搜索主頁之外,並繼續將其定位為一種實驗性技術,“可能會顯示不準確或令人反感的信息”。谷歌沒有回應有關Bard使用量的置評請求。
ChatGPT表現越來越糟
考慮到某些聊天機器人可能存在的問題,谷歌的做法可能是正確的。我們現在有很多聊天機器人偏離正軌的例子,從與用户發生完全私人化的交流,到把完全不準確的信息當做事實,再到難以遏制的固有偏見,這些似乎滲透到了所有的技術領域。雖然有些公司在一定程度上緩解了其中一些問題,但整體情況似乎是越來越糟,而不是越來越好。
美國聯邦貿易委員會正在調查ChatGPT的不準確回覆。最近的一項研究表明,OpenAI的GPT-4(其LLM的最新版本)在短短幾個月內就在某些方面出現了明顯的準確性下降,這表明,如果不出意外的話,模型正在隨着時間的推移而改變或被改變,這可能會導致其輸出結果出現巨大差異。新聞媒體試圖用人工智能生成的內容來填充版面,結果卻出現了多處令人震驚的錯誤。隨着聊天機器人助推的作弊行為層出不窮,OpenAI不得推出自己的工具來檢測ChatGPT生成的文本,因為它的表現實在太糟糕了。

上週,包括OpenAI、谷歌和Meta在內的八家LLM背後的公司,將他們的模型帶到了大型黑客大會DEFCON上,讓儘可能多的人在首次壓力測試中測試他們模型的準確性和安全性,這個過程被稱為"紅色團隊"。拜登政府一直在大肆宣揚安全開發和部署人工智能技術的重要性,並支持和推動了此次活動。拜登的科學顧問、白宮科技辦公室主任阿拉提-普拉巴卡爾(AratiPrabhakar)告訴Vox,這是一個"真正搞清楚這些聊天機器人工作得如何的機會,比如弄清讓它們脱離正軌到底有多難,或者有多容易。”
這次黑客大會的目的是為這些公司提供一些急需的數據,讓他們瞭解他們的模型是否會崩潰以及如何崩潰,而這些數據是由一羣不同的人提供的,他們可能會用公司內部團隊沒有用過的方式進行測試。我們將拭目以待他們如何處理這些數據,他們能參加這次活動是個好兆頭,當然白宮敦促他們這樣做也是重要原因之一。
與此同時,這些模型和根據這些模型創建的聊天機器人已經被數億人使用,其中很多人都會相信這些聊天機器人所説的話。尤其是當他們可能不知道這些信息來自聊天機器人時(例如,CNET幾乎沒有披露哪些文章是由機器人撰寫的)。
然而,各種報告顯示,公眾對一些人工智能工具的興趣正在減弱,如果它們想繼續存在下去,就必須變得更好。我們甚至不知道這項技術是否真的可以被修復和優化,因為連它們自己的開發人員都聲稱不知道所有內部運作原理。
毫無疑問,生成式人工智能可以做出一些驚人的事情。硅谷對它如此興奮,這麼多人願意嘗試它並非無的放矢。但鑑於其仍然普遍存在的缺陷,它目前可能僅僅只是一個“派對小把戲”。