OpenAI潛入黑客羣聊!盜用ChatGPT被換成“喵喵GPT”_風聞
量子位-量子位官方账号-11-01 14:12
金磊 發自 凹非寺
量子位 | 公眾號 QbitAI
當ChatGPT被**黑客“入侵”**時,OpenAI會如何應對?
掐斷API,不讓他們用?不不不。
這幫極客們採取的做法可謂是劍走偏鋒——反手一記《無間道》。

故事是這樣的。
OpenAI雖然在發佈ChatGPT之前做了大量的安全性檢測,但當開放API之後,還是防不住一些居心叵測的黑客們拿它搞事情。
然後有一天,團隊中的一個工程師突然發現ChatGPT端點上的流量有些不太正常;在經過一番調查之後,確定了大概率是有人在反向工程API(盜版API)。

不過OpenAI並沒有選擇立即阻止這些黑客,因為如果團隊這樣做了,黑客們就會馬上發現異樣,然後改變策略繼續攻擊。
這時,團隊裏一個“大聰明”就支了個妙招:
我們搞成“catGPT”,每個token都是“meow”……

**“陷阱”**佈置成功後,黑客大兄弟再向ChatGPT提問時,畫風就是這樣嬸兒的了:

沒錯,不管問啥,回答都是**“喵言喵語”**:
喵,我不知道。我是隻貓,不是隻鳥!
這位黑客大兄弟起初還不知道自己早已落入“陷阱”,還發帖描述了自己神奇的經歷
。

不過黑客團伙中很快有人察覺到了異樣:
兩個代理都出現了同樣的情況;我覺得我們完了(暴露了)。

團伙中還有人在Discord社區中這樣討論:
兄弟,你覺得OpenAI是發現了我們在(拿盜版API)用模型,然後開始拿“貓語promt”來回答我們嗎?
若真如此,那也太搞笑了吧!

殊不知,OpenAI的成員們早就潛入了Discord社區,觀望着黑客們的對話……

黑客們最終還是發現了真相,後知後覺的他們,最終在Discord中給OpenAI的團隊發話了:
我很失望。我知道OpenAI的某人正在讀這段文字。
你們有千載難逢的機會給我們來個“Rick Astley”(發現被整蠱時用的橋段),你們竟然就搞個貓。

對此,OpenAI的成員表示:“收到,下次我們會的”。

上面這個有趣的故事,其實是一位OpenAI工程師Evan Morikawa在一場技術分享活動中自曝的。

不少網友在看完這個故事之後,紛紛感慨道:
絕對的傳奇!

雖然故事很精彩、很有趣,不過言歸正傳,這也從側面反映出了目前大模型時代下所存在的安全隱患。
正如Evan在活動中所説:
隨着模型變得越來越強大,它們在壞人手中可能造成的傷害變得更大,我們在這裏的警惕性確實需要成倍增加。

除此之外,Evan在活動中還分享了兩個與OpenAI、ChatGPT相關的“隱秘的故事”。
我們繼續往下看。
OpenAI:GPU夠的話,發佈早就提前了
Evan先是回顧了ChatGPT最初爆火的盛況:
從內部決定發佈,到後來意外走紅,就連馬斯克都發推討論等等。
隨之而來的便是大量用户的湧入,當時他們自己也很擔心,因為以他們GPU的能力,完全hold不住那麼大的負載。
然後Evan在現場展示了他們為ChatGPT提供動力的計算機,裏面有8個英偉達A100 GPU:

每個GPU上還都附加了特殊的HPM高帶寬內存;至關重要的是,他們還需要所有GPU相互通信:

Evan表示,裏面的每個環節的性能都會影響ChatGPT最終的體驗感。
接下來,Evan站在現在這個時間節點,回顧並總結了OpenAI最初在GPU上所遇到的瓶頸。
1、GPU內存不足
由於ChatGPT的模型非常大,需要佔用大量GPU內存來存儲模型權重。而GPU上的高帶寬內存非常昂貴和有限,不夠用來同時服務大量用户請求。這成為第一個瓶頸。
2、計算效率低下
初期通過簡單的GPU利用率指標監控存在問題,沒有充分考慮到tensor運算的內存訪問模式。導致GPU算力沒有被充分利用,浪費了寶貴的計算資源。
3、難以擴容
ChatGPT流量暴增,但受限於整個GPU供應鏈,短時間內無法擴充GPU服務器數量,不得不限制用户訪問。無法自動擴容成為重大挑戰。
4、多樣化負載特徵
隨着用户使用模式的變化,不同模型和請求類型對GPU的計算方式和內存訪問模式需要不斷調整,優化難度大。
5、分佈式訓練困難
GPU之間的通信和數據交換成為訓練架構中新的瓶頸。
可以看出,OpenAI開始將GPU用於部署大模型服務時,確實因為經驗不足而遇到一些系統級別的困難。但通過不斷調整策略和深入優化,才使ChatGPT得以穩定運行。
而且Evan還爆料説:
如果不是因為GPU短缺,去年產品和功能的發佈速度會更快。
我們已經準備好了東西了,但我們也知道無法處理負載。

基於上述的挑戰,Evan分享了OpenAI總結出的經驗教訓:
把問題視為系統工程挑戰,而不僅僅是研究項目;需要優化各個系統組件的協同工作,如緩存、網絡、批處理大小等。
要深入瞭解硬件的底層細節及其對系統的影響,如GPU內存帶寬、ops/bytes等對性能的影響;不能停留在表面指標。
不斷根據模型和場景變化對系統進行調優;不同的模型結構和使用場景會對系統提出不同要求。
要考慮到硬件的各種限制,如內存和算力均衡、擴容限制等,這會影響產品路線圖;不能簡單地套用傳統的雲擴展經驗。
把ChatGPT看成初創公司
至於團隊方面,Evan也有所介紹。
ChatGPT啓動時,應用工程團隊只有30人左右,發佈10個月後才擴充到近100人。
OpenAI一直在員工數量增長與保持高人才密度之間尋找平衡,他們最初希望團隊儘可能小,這樣可以保持高效的迭代文化。
不過後來隨着產品規模增長,很多職能只有幾個人在支撐,這樣就會存在一定風險,因此才決定進行一定擴張。
Evan對於團隊建設方面的分享,有一個觀點是值得劃重點的。
那就是他認為:
不要把ChatGPT看成是OpenAI的一個部門。
他們在三年前就嘗試過用API做類似ChatGPT的事情,因此在Evan看來——
ChatGPT更像是個10月大的初創公司嵌套到了3年前的初創公司;而這個三年前的初創公司,又嵌套在一個8年前的初創公司(即OpenAI)。
接下來,如果公司還會出現新的產品,Evan希望還是能夠保持沿用這種模式。

參考鏈接:
[1]https://www.youtube.com/watch?v=PeKMEXUrlq4
[2]https://twitter.com/random_walker/status/1719342958137233605?s=20
[3]https://twitter.com/nearcyan/status/1719225443788935372?s=20