280億!亞馬遜投了OpenAI最大敵人_風聞
极客公园-极客公园官方账号-09-26 08:11

不僅是大模型,亞馬遜投出「一攬子計劃」。
作者 | 宛辰
編輯| 靖宇****
9 月 25 日下午,亞馬遜在公司官網公佈,向大模型公司 Anthropic 投資至多 40 億美元,後者以擁有對標 ChatGPT 的聊天機器人 Claude 而聞名。
雲計算公司大筆投資大模型公司,微軟已經在今年 2 月開了個好頭,以 100 億美元獲得 OpenAI 這個微軟雲 Azure 的大客户,以及 ChatGPT 的優先使用權。現在看來,這筆交易對微軟而言,穩賺不賠,今年以來,微軟市值已抬升 40%。
但半年後的現在,大模型領域上下游的關係正在變得複雜,亞馬遜投資 Anthropic 絕不僅僅是為 AWS「鎖定」客户,甚至不一定是為了大模型。
官方合作細則顯示:Anthropic 將使用 AWS Trainium 和 Inferentia 芯片來構建、訓練和部署其未來的基礎模型。並且,兩家公司還將合作開發未來的 Trainium 和 Inferentia 技術。值得注意的是,AWS Trainium 是 2020 年底,AWS 推出的定製 ML(機器學習)訓練芯片,Inferentia 芯片是由 AWS 在 2019 年推出的高性能機器學習推理芯片。
通過投資 Anthropic 加深合作,亞馬遜意在加速開發自研的AI芯片。
幾天前,The information 獨家爆料英偉達想從三大雲廠商中「收一道手續費」——英偉達想從雲廠商手中租賃英偉達服務器,從而可以通過雲,而不是服務器或者芯片的方式向 AI 應用者直接提供服務,這些應用者也包括三大雲廠商們。
但,只有亞馬遜拒絕了這一提議。
現在看來,亞馬遜拒絕英偉達的底氣在於,想辦法加快升級自研 AI 芯片。大模型時代,亞馬遜穩住雲計算市場第一寶座的核心競爭力在於,AI 芯片。
01
第一雲平台出手
OpenAI 最大敵人
對於這份合作,亞馬遜表示,將初步投資 12.5 億美元購買 Anthropic 的少數股權。作為交易的一部分,亞馬遜表示可以選擇將對 Anthropic 的投資增加至 40 億美元。
作為擴大合作的一部分:
Anthropic 將使用 AWS Trainium 和 Inferentia 芯片來構建、訓練和部署其未來的基礎模型,並受益於 AWS 的價格、性能、規模和安全性。兩家公司還將合作開發未來的 Trainium 和 Inferentia 技術。
AWS 將成為 Anthropic 的主要任務關鍵型工作負載雲提供商,包括安全研究和未來基礎模型開發。Anthropic 計劃在 AWS 上運行大部分工作負載,進一步為 Anthropic 提供全球領先雲提供商的先進技術。
Anthropic 做出長期承諾,為世界各地的 AWS 客户提供通過 Amazon Bedrock 訪問其下一代基礎模型的權限,Amazon Bedrock 是 AWS 的完全託管服務,可提供對業界頂級基礎模型的安全訪問。此外,Anthropic 還將為 AWS 客户提供早期訪問模型定製和微調功能的獨特功能。
亞馬遜開發人員和工程師將能夠通過 Amazon Bedrock 使用 Anthropic 模型進行構建,這樣他們就可以將生成式 AI 功能融入到他們的工作中,增強現有應用程序,並在整個亞馬遜業務中創造全新的客户體驗。
兩家公司沒有透露亞馬遜投資 Anthropic 的估值。

Dario and Daniela Amodei|圖片來源:時代
Anthropic 由 OpenAI 前員工 Daniela Amodei 和 Dario Amodei 創辦,他們是 OpenAI GPT2 和 GPT3 的核心研發人員。目前,Anthropic 擁有最受歡迎的聊天機器人之一 Claude。
作為 ChatGPT 製造商 OpenAI 的挑戰者,Anthropic 今年早些時候獲得了谷歌 4 億美元的投資,並在 3 月份 Spark Capital 的一輪融資後估值超過 40 億美元。
02
亞馬遜想幹什麼?
向 Anthropic 至多投資 40 億美元,亞馬遜到底想幹什麼?
一個顯而易見的原因是,為了「搶」客户。大模型廠商和 AI 應用企業作為雲計算(未來)最大的客户,成為各大雲廠商的必爭之地。
今年以來,谷歌、微軟、AWS、甲骨文和英偉達心照不宣、不約而同都做了一件事——通過戰略投資「鎖定」客户(花錢買客户),儘管這一操作在財務上備受爭議。
但事實上,Anthropic 自 2021 年以來就一直是 AWS 的客户,AWS 通過 40 億美元加深與 Anthropic 的合作,旨在更深的合作權益:大模型,以及最重要的——自研AI芯片。

換句話説,通過戰略投資這筆學費,亞馬遜學習怎麼做大模型。也通過和與 OpenAI 對壘的對手切磋,研發甚至顛覆英偉達 GPU 的 AI 芯片。畢竟,GPU 並不是為訓練神經網絡而生,靠 CUDA 和各種技術一個場景一個場景「魔改」是一種選擇,但不是最優解。
亞馬遜首席執行官安迪·賈西 (Andy Jassy) 的發言側面印證了這一點,他表示:「相信我們可以通過更深入的合作幫助改善許多短期和長期的客户體驗。」
短期和長期的客户體驗,對應亞馬遜的大模型和自研 AI 芯片。
他進一步補充,「客户對 Amazon Bedrock 以及 AWS 的 AI 訓練芯片 AWS Trainium 感到非常興奮,Amazon Bedrock 是 AWS 的新託管服務,使公司能夠使用各種基礎模型來構建生成式 AI 應用程序;而 AWS Trainium 是 AWS 的 AI 訓練芯片,我們與 Anthropic 的合作應該可以幫助客户獲得這兩項功能更多的價值。」
事實上,上半年,亞馬遜推出了自己的大模型 Titan,並對外宣佈了這一大模型的典型客户,但幾天後便被這一典型客户跳腳,向媒體被吐露亞馬遜大模型不好用。
可見,亞馬遜在自研大模型的準備上,並不充分。因此,亞馬遜轉而向市場大力推廣大模型平台 Amazon Bedrock,客户可以在該平台調用其他主流大模型廠商的服務,包括 Anthropic。
另一方面,亞馬遜需要穩住雲計算的基本盤。
大模型時代,雲計算面臨不同的工作負載,需要探索新的技術來實現更快的推理能力。在這方面,亞馬遜其實也是先行者。自研數據中心芯片和服務器,曾一度被視為 AWS 為「區別於微軟和谷歌」所做的「最重要的事情之一」,其服務器擁有更高的速度,並且省電。
在 AI 專有芯片和服務器上,亞馬遜也是三大雲廠商中(微軟雲、谷歌雲)中佈局最早的。但其 AI 芯片的進展和性能一直沒有單獨對外釋放消息,而是通過捆綁在服務器中,通過雲服務向客户提供服務。因此,客户直接感知到的只有雲計算的性能,而沒有其中芯片的性能。
現在,亞馬遜需要了解哪些工作負載在哪種處理器上最適合,和 Anthropic 的合作是實現手段之一。
當前,根據 The information 生成式 AI 數據庫的 69 家公司中,有 32 家使用 Amazon,26 家使用 Google,13 家使用 Microsoft 作為雲提供商。當然,有些公司使用多個雲提供商。
大模型時代,雲計算、大模型和 AI 應用的合作與競爭正在變得更加複雜。經久未有大變局的雲計算產業,也終於迎來的變革的契機。
*頭圖來源:視覺中國
本文為極客公園原創文章,轉載請聯繫極客君微信 geekparkGO