OpenAI 何以掀翻 Google 佈局多年的AI大棋?_風聞
资讯前沿报-03-01 09:47
來源: 飛哥説AI

作者|高佳
創意|李志飛
任何大衞擊敗歌利亞的故事,
都值得我們重新思考。
2023年從一場巨頭之間的鉅額合作開始,一場洶湧已久的AI暗戰擺上了枱面。
隨着微軟和 OpenAI 融資的推進,雙方在關係變得更加深厚複雜的同時,也在與谷歌等競爭對手的較量中鏖戰上風。一面是Google連夜喚回創始人,急推「高仿」Bard;一面是OpenAI的ChatGPT風頭正勁,全民翹首以待GPT-4的到來。
一直在AI領域堪稱老大哥的Google,在這場棋局中一酸再酸,畢竟一度在LLM領先的Google曾經看似更有贏戰「先機」。從2017年舉世發佈Transformer,奠定LLM的基石,到2021年5月的I/O大會上,LaMDA驚豔眾人的亮相,Google風光無限。
直到Bard官宣前,「被動」一直被視為Google面對ChatGPT的處境。
Google如何一步步「輸掉」這盤佈局多年的AI大棋,OpenAI又何以讓Google棋輸先著?
首先,讓我們回顧一下藴含在這場曠日持久的AI暗戰之下的關鍵技術時間線。
01
Google與OpenAI
LLM領域的發展時間線
從對ChatGPT技術路線的拆解追溯,及其論文中提供的技術點和示意圖看,ChatGPT與 InstructGPT 核心思想一致。其關鍵能力來自幾個方面:強大的基座模型能力(InstructGPT),高質量的真實數據,以及從用户標註中反饋學習(RLHF)等,以此一窺ChatGPT是如何一步步進化成目前的強大形態。
● 2017年,DeepMind最早提出了RLHF概念,這一後來解鎖ChatGPT重要「湧現」能力的關鍵,它通過人工標註作為反饋,提升了強化學習在模擬機器人以及遊戲上的表現效果。
● 同年6月,Google發佈NLP領域的里程碑——Transformer,成為後來所有LLM的基礎架構,也為GPT鋪就了前提。
● 2018年6月,在Transformer問世不到一年的時間,OpenAI發佈了只有解碼器(decoder-only)的GPT生成式預訓練模型,通過大數據集進行訓練,並主張通過大規模、無監督預訓練+有監督微調進行模型構建。
● 2018年10月,Google重磅推出著名的具有劃時代意義的BERT,一個比GPT大四倍,擁有3.4億參數的大模型,幾乎在所有表現上碾壓了GPT。而自帶光環的BERT只有編碼器,用一種「完形填空」的方法,其訓練效果超過人類表現,宣告NLP範式的改變。
● 2019年2月,被碾壓的OpenAI準備背水一戰,此時一個重要的命題擺在面前,BERT的大火讓是否堅持做生成式模型成為一種靈魂拷問,但OpenAI堅定自己的目標——AGI,孤勇直前地踐行生成式,並加倍投入,提出有15億參數的GPT-2,並沒有特別新穎的架構,它只是基於Transformer的解碼器,稍做修改。儘管最初OpenAI並不願意發佈它,因擔心它可能被用來向社交網絡發送假新聞。
● 2019年10月,Google發佈了統一的模型框架——T5,基於編碼解碼器的T5(BERT只有編碼,GPT只用解碼),最大模型110億參數並開放。兼容了BERT和GPT下游任務的T5,再次讓Google風光無兩。
● 2020年5月,卧薪嚐膽的OpenAI,在生成式之路一往無前,發佈了規模是GPT-2兩個數量級的1750億參數的GPT-3,在業內掀起AGI熱浪,也拉響了巨頭規模競賽的號角。
● 2021年10月,Google推出FLAN(1370億參數),並從此開始重新轉向只有解碼器的模型,還提出了ChatGPT用到的Instruction Tuning概念。
● 2022年1月,Google再推LaMDA(1370億參數),展示了接近人類水平的對話質量以及在安全性和事實基礎方面的顯著改進,並稱其可能具有「意識」。所有人在當時覺得Google已在LLM遙遙領先。
● 2022年3月,OpenAI發表經過「魔鬼調教」的InstructGPT(1750億參數),提到採用Instruction Finetune和RLHF,比GPT-3更擅長與人類「溝通」,但並未引起大規模的關注。
● 2022年4月,Google發佈基於「通用AI架構」的語言模型PaLM(5400億參數),文中提到了那一神奇的「激發」ChatGPT邏輯能力的「思維鏈」。
● 2022年9月,DeepMind發表Sparrow(700億),加入RLHF和Retrival,但反應平平。
● 2022年12月,OpenAI的ChatGPT席捲而來,是InstructGPT的兄弟模型,一經問世迅速引爆全球,堪稱人類對AGI里程碑的一步。
● 2023年2月,Google發佈基於LaMDA的Bard,正式對決ChatGPT。

02
功敗垂成
Google錯失的那些時間點
此時,回頭凝望被動應戰的Google,來反思Google此前是怎樣一步步錯失了時間和先機。
錯失20個月的解碼器押注
如果只用解碼器的生成式是LLM的王道,2019年10月,Google同時押注編碼解碼器的T5,整整錯失20個月,直到2021年10月發佈FLAN才開始重新轉變為decoder-only。
舉棋不定的稠密和稀疏之爭
如果稠密大模型是王道,Google押注了Mixture of Experts的稀疏多模態結構,全力投入Pathways下一代AI架構,而DeepMind又加入LLM的競爭太晚。直到2020年GPT-3橫空出世的18個月後,DeepMind才訓練出比GPT-3更大的模型,醖釀許久的Google在2022年4月才發佈3倍於GPT-3的PaLM。
遲到24個月的RLHF應用
而在RLHF上,最早的概念提出者DeepMind及Google,起了個大早卻遲到了24個月。早在2017年6月,DeepMind率先提出RLHF,2020年9月OpenAI將其用於GPT-3上,DeepMind直到2022年9月才用於Sparrow,而「運籌帷幄」的Google到現在還未見RLHF在LLM上的論文,更未見將研究成果應用於任何「產品」。
儘管擁有AI技術和能力,Google的「保守遲疑」和兵力分散,讓其在OpenAI的勢如破竹面前,功敗垂成。
一招遲緩,全線潰敗。高手對弈,還需兵貴神速。
03
OpenAI時速下的遠見和信念

反觀OpenAI的速度和選擇,似乎一切都是勢之必然。
藴含着遠見和信念的OpenAI更具果敢和魄力。在巨大的不確定未來和競爭對手的壓力面前,OpenAI始終堅定最初的目標和信仰,邁出充滿信仰力量的一步步。
從2018年開始,四年如一日,只用decoder only的GPT,踐行着「暴力美學」——以大模型的路徑,實現AGI。
圖靈獎得主LeCun也説OpenAI的ChatGPT「不是什麼革命性的東西,只是組合得很好」。而正是如此簡單樸素的堅持,見證了OpenAI的眼光和執着。
從技術路徑來看,OpenAI是實用至上的「拿來主義」。
沒有知識分子的清高,沒有孤勇黑馬的桀驁,無論是Transformer、Instruction Tuning、還是RLHF和「思維鏈」,不因是別人發明的就避之不用,而是取其精華,默默在自己的大模型裏埋首用功。
如果 Instruction Tuning 是關鍵,那Google和DeepMind在2021年10月發明了它以後,直到2022年12月都沒有重視過。反觀OpenAI只花了5個月就將其用到InstructGPT,堅實了ChatGPT的基礎。
如果將「思維鏈」視為 ChatGPT 能解題的關鍵,當Google還將它用於象牙塔的「實驗」時,ChatGPT已準備走向「產品化」。
組織文化和產品路徑上,OpenAI堅持「產品驅動」的AI研究,也始終堅持第一時間把「玩具」公示於眾,敢於直面羣嘲,敢於在“眾目睽睽”之下迭代。反觀學術驅動的MSR和項目驅動的DeepMind,從「功利主義」的結果來看,相比OpenAI的躬身入局沙場點兵,Google更像坐而論道紙上談兵。
PR層面,OpenAI並沒有過多大公司「聲譽風險」的羈絆和考慮,反而利用大眾和媒體充滿褒讚和爭議的聲音,熱浪不息,全球風靡。
犀利如箭的棋局背後是靈魂棋手的智慧,這也是OpenAI一切遠見和信仰的真正來源。
2015年,幾位滿懷對AI革新信仰又才華橫溢的年輕人,從成立一個「工程型的AI實驗室」出發,到今天OpenAI成為變革AI的引領者。如果説ChatGPT講述了一個「足夠好的預測帶來了你所夢想的一切」的故事,那麼其靈魂人物的前瞻眼光和今天的OpenAI也完美註解了這一句。
歷史的潮流奔湧向前,硅谷的創新土壤、互相競逐的技術迭進、巨頭的鉅額注資,有萬千人「守護」夢想的OpenAI走到歷史的必然。
任何大衞擊敗歌利亞的故事,都值得我們思考。
OpenAI此局高踞上風,與微軟的聯姻也將讓兩者更強。如今棋佈錯峙的谷歌,無法再「按兵不動」了。緊急應戰的Bard能否讓Google重歸尊位?
AIGC時代,幾位科技巨頭們之間的「棋局」激戰正酣,一切還遠未到握手言和的時刻。
羣雄逐鹿,一切才剛剛開始。