嫌英偉達GPU不夠用,OpenAI準備自己造芯片_風聞
知危-知危官方账号-10-07 21:13
據路透消息,OpenAI 正在探索製造自己的 AI 芯片。

知情人士透露,至少從去年開始,OpenAI 就在想各種方案去解決 AI 芯片的短缺和昂貴等問題,這些方案中就包括構建自己的人工智能芯片。
其實,OpenAI 對芯片這事兒憂心已久了。
OpenAI 的 CEO 阿爾特曼( Altman )其實很早就開始對 GPU 相關問題有意見了,在今年 5 月底,他曾表示向 Humanloop 表示目前 OpenAI 的 GPU 極其有限,這推遲了他們的許多短期計劃。
“ 大部分問題都是 GPU 短缺造成的 ” 他説。
首先 OpenAI 很多客户都在抱怨 API 的可靠性和速度,在沒有足夠的 GPU 的情況下,這是沒有辦法被解決的。
第二,由於算力的緊缺,ChatGPT 更長的 32k 上下文能力( 大約是 24000 個詞的上下文能力 )也暫時無法推送給更廣的客户。
第三,由於算力的緊缺,ChatGPT 的模型微調 API 也做不到很好的支持,不能使用 LoRa 等高效的微調方法。
第四,由於算力的緊缺,OpenAI 沒辦法賣給客户更多的專有定製化模型,現在的解決辦法是要求客户預先支付高達 10 萬美元的定金。
基於以上種種問題,阿爾特曼和 OpenAI 現在非常的焦慮,雖然他們是大模型浪潮的締造者,但他們卻不得不仰仗於英偉達的產能,英偉達在 AI 領域佔有近 80% 的市場份額,英偉達的產能一天上不來,OpenAI 就沒辦法儘快發展。
於是,在與英偉達進一步加深合作的同時,OpenAI 考慮開始着手自行製造芯片,達成方式是向英偉達定製( 可能是買斷部分產能 )以及收購相關的芯片公司,據路透社報道,OpenAI 現在正在考慮對收購標的進行盡職調查。
除去產能問題,自研芯片還會可以預見的降低成本,我們前文提到過英偉達在 AI 芯片市場佔據非常強勢的主導地位,所以在產能緊缺的情況下基本上價格是沒得談的。
由於英偉達 GPU 的價格高企,根據 Bernstein 的分析,ChatGPT 每回復一條消息的成本大概為 4 美分,按現在的匯率來算就是大概 3 毛錢人民幣一條,非常昂貴。Bernstein 預測 ChatGPT 的規模如果增長到 Google 搜索規模的十分之一,將會需要價值 481 億美元的 GPU,並且每年要追加大概 160 億美元的新芯片投入。
錢再多,如此鉅額的投入也是讓人吃不消的,所以自研芯片降低成本也成為了 OpenAI 持續良性發展的一個不錯選擇。
有趣的是,關於 OpenAI 這次的動向,路透的形容是其想製造自己的 “ AI 芯片 ” 而不是 “ GPU ”,所以知危編輯部懷疑OpenAI 可能會像 Google 當年為 TensorFlow 量身定做 TPU 芯片一樣,搞出個諸如 “ OPU ” 的東西。
至於 OpenAI 的計劃能否成功,現在還很難説。自研芯片需要每年投入數億美元,並且不知道一共要投入多久,與此同時,研發也不是能保證成功的,很有可能前期投入很多最後得不到什麼效果。
比如,Meta 作為大模型的玩家之一,雖然不像 OpenAI 一樣是行業領頭羊,但它的 Llama 也有很高的市場地位,它曾萌生出跟 OpenAI 同樣的想法:自己做 AI 芯片。
但在 2021 年左右,Meta 放棄了自己正在研發的自有人工智能芯片,原因在於他們發現自己的自研芯片在性能上比不上英偉達的 GPU,並且針對不同類型任務的靈活性也不如英偉達。
隨後,2022 年,Meta 改變了方向,向英偉達訂購了價值數十億美元的 GPU。( 最近,不死心的 Meta 又重啓了自研芯片的計劃 )
在財力和技術上都如此強悍的 Meta 都在自研 AI 芯片的路上吃了癟,作為創業公司的 OpenAI 未必能好到哪裏去。
不過,OpenAI 總是能給我們帶來驚喜,就像他做出了遙遙領先於 Meta 和 Google 的 ChatGPT 一樣。
或許,在 AI 芯片上,它能帶來同樣的驚喜。
至於英偉達,可能還是會繼續做很長一陣子 “ 世界主宰 ” 了。