GPT3有多強?伯克利小哥拿它寫雞湯狂漲粉,還成了HackerNews最火文章_風聞
大数据文摘-大数据文摘官方账号-2020-08-25 15:31
大數據文摘出品
GPT-3有多強大?可不止能寫高考作文。
最近,一位美國小哥用GPT-3寫的博客,就打敗了一票人類作者,登上了新聞平台技術板塊熱榜第一??
你沒聽錯。這位小哥名叫Liam Porr,來自加州大學伯克利分校計算機科學系。他參考最熱的網文風格,用GPT-3生成了幾篇文章,用筆名“adolos”開了個博客,開始連續產出文章。
然而有趣的是,一大部分人愣是沒看出來文章不是人類寫的。接下來,他的博客瘋狂漲粉,第一篇文章竟然就登上了YC新聞平台Hacker News熱門榜第一名。
Porr表示,他以adolos為筆名發佈的每一個帖子都是從GPT-3輸出中複製粘貼過來的,幾乎沒有編輯。
並且,整個項目都異常迅速簡單。
“從我想到這個想法,到找到技術合作者,到我真正創建了這個博客,再到第一個帖子被瘋狂傳播——這大概只花了幾個小時。”
用GPT-3寫“雞湯文”,登頂技術博客最熱門首位
項目開始,Porr首先要決定的是,讓AI寫什麼類型的文章呢?
無需大量編輯即可生成內容是GPT-3的優點也是缺點。Porr説:“它擅長於編寫漂亮的語言,而並不擅長邏輯和理性。”
因此,他選擇了一個不需要嚴格邏輯的流行博客類別——“雞湯”文。這種文章不僅好寫,並且在各種網站上都非常受歡迎。
之後,他按照一個簡單的公式來寫他的標題:在Medium和Hacker News上“翻來翻去”,看看在這些類別中發生了什麼,然後把一些相對相似的東西放在一起。
兩週後,他開始持續發帖子運營博客,Porr表示,第一篇帖子在短短几個小時內就迅速傳播開來,訪問量超過了26,000。
Porr第一篇博客文章,也是登頂Hacker News最受歡迎文章榜首文章標題為《感覺效率不高?也許你應該停止思考(Feeling unproductive? Maybe you should stop overthinking)》。
這個標題,還真的有那味兒了!
咱們再來看其中一個段落:
定義2:過度思考(OT)指試圖提出別人已經考慮過的想法,OT通常會導致不切實際、不可能實現甚至愚蠢的想法。
似乎也能夠去懷疑這些文字不是由人類寫出來的,但現在互聯網上有很多質量不太好的文章,所以大部分人也沒有質疑這篇文章的作者。
甚至有讀者讀後留言稱,“好文!和Ethan Hawke在Ted的演講一樣深刻”。
文摘菌搜索了一下,包括medium、YC的新聞平台等多家平台都轉載刊發了這篇博客,直到現在人氣依然很旺。
感興趣的同學也可以自己去讀一下:
https://adolos.substack.com/p/feeling-unproductive-maybe-you-should
第一篇文章大火之後,Porr又持續發佈了一系列類似的文章,收穫了大批粉絲。
Adolos最後一篇文章的標題意味深長——為“如果我沒有道德,我將如何使用GPT-3”,文章用假設的方式描述了他的整個實驗項目。同一天,他還在自己真正的博客上發表了一篇更直接的自白,結束了這個項目。
少數人懷疑AI參與了文章編寫,GPT-3將導致在線內容質量下降?
儘管GPT-3一出,許多人就在猜測這款迄今為止最強大的語言生成模型有多強,能產出多逼真的內容,但此前都是大家在猜測,這次是第一次真實地證明了GPT-3的潛力。
Porr在短短一週時間內搞定了GPT-3,而在此之前他都沒聽説過這個模型。Porr説:“實際上,它超級簡單,這才是令人細思極恐的地方。”
GPT-3是OpenAI迄今為止推出最新、最大的AI語言模型。去年2月,OpenAI的GPT-2(該算法的早期版本)登上了新聞頭條,OpenAI宣佈將保留該版本,以防被濫用。這一決定立即引發了強烈反響,研究人員指責該實驗室在搞噱頭。到了11月,該實驗室改變了立場,發佈了這個模型,稱“到目前為止沒有發現濫用的有力證據”。
總部位於舊金山的研究實驗室對GPT-3採用了不同的方法。它既沒有拒絕也沒有允許公眾訪問。取而代之的是,它將算法提供給了那些申請私有測試的研究人員,目的是收集他們的反饋,並在今年年底將這項技術商業化。
儘管GPT-3還沒有徹底開放,但據Porr表述,他獲取接口的過程也不難。他先是提交了一份申請,填寫了一張表格,裏面有一份關於他打算如何使用的簡單問卷。但他也沒有等待,在聯繫了伯克利人工智能社區的幾名成員後,他很快找到了一名已經有此權限的博士生。這個研究生同意合作後,Porr就寫了一個小腳本讓他運行。它給了GPT-3一個博客文章的標題和介紹,並給出了幾個完整的版本。
GPT-3是由總部位於舊金山的OpenAI設計的一系列AI自動完成工具的最新版本,最基本的説法來説的話,GPT-3代表的是“預訓練的生成式變壓器”(generative pre-trained transformer),它會根據人類作家的提示自動完成文本。
James Vincent對此解釋道:
與所有深度學習系統一樣,GPT-3也需要數據模式。為簡化起見,該程序已針對龐大的文本集進行了訓練,根據統計規律進行了挖掘,這些規則對於人類來説是未知的,但是它們被存儲為GPT-3神經網絡中不同節點之間數十億的加權連接。
重要的是,此過程中無需人工干預:程序在沒有任何指導的情況下就能夠查找和發現數據模式,然後將其用於完成文本提示。如果你在GPT-3中輸入“fire”一詞,程序會根據網絡中的權重得出,“truck”和“alarm”等詞會比“lucid”或“elvish”更有可能出現。
Porr編寫了一個腳本,該腳本為GPT-3提供了博客文章的標題和簡介,隨後系統生成了該帖子的幾個版本,Porr在這些版本中挑選出了適合博客風格的版本,幾乎沒怎麼編輯就直接從GPT-3的生成結果中進行了複製粘貼。
Porr表示,該帖子在短短几個小時內迅速傳播開來,訪問量超過了26,000。
Porr表示,他想證明GPT-3可以假裝人類作家。確實,儘管該算法的編寫模式有些怪異,並且偶爾會出現錯誤,但是Hacker News上的熱評用户中,只有三到四個人懷疑這篇博客文章可能是由算法生成的,但這些質疑都立即遭到其他社區成員的反對。
長期以來,專家們對於這種語言生成算法都充滿了擔憂。自OpenAI首次發佈GPT-2以來,人們就一直在認為,這項技術容易被濫用,甚至OpenAI在自己的博客文章中也重點介紹了AI被武器化後生成大量錯誤信息將會造成怎樣的後果。
Porr説,他的實驗還顯示了一個普遍但仍同樣令人困擾的替代方案:人們可以使用該工具生成大量內容誘導讀者進行點擊閲讀。他説:“這樣很有可能導致大量平庸的博客出現,在線內容的價值將大大降低。”
“在私人Beta版中發佈GPT-3的目的是,使社區可以利用OpenAI展示它們的新用例。”Porr寫道。值得注意的是,儘管Porr申請了GPT-3的API,但他仍無法進行訪問,他向《麻省理工學院技術評論》坦言,“這讓我很沮喪”。
GPT-3被玩兒壞了,不僅可以讓AI寫食譜,還能寫谷歌的廣告詞
為了讓更多人享用到GPT-3的魅力,OpenAI最近也開放了GPT-3的API接口,不用碼代碼也能輕鬆上手。
這不,除了上文提到的寫博客,還有很多之前對技術不感冒的大V也紛紛開始試用,並做出了一些很酷的demo,在Twitter引起了熱議,網友紛紛表示,“GPT-3被玩壞了”。
比如舊金山一位開發商和藝術家Arram Sabeti就在推特上説:**“玩GPT-3就彷彿可以看到未來。”**這幾乎就是自GPT-3發佈以來社交媒體上大部分人對這個強大語料庫的反應。
Sabeti在博客上展示了他用GPT-3做的許多AI生成文本項目,比如可以用AI寫一篇短篇小説,用AI寫歌、新聞稿等等。他還發了一篇博文稱,“GPT-3幾乎什麼都能寫!”
Sabeti博客鏈接:
https://arr.am/2020/07/09/gpt-3-an-ai-thats-eerily-good-at-writing-almost-anything/
除此之外,還有一位名叫elyase的熱心網友整理出了大家用GPT-3做的項目集錦,有趣的Demo項目都在這個合集裏:
https://github.com/elyase/awesome-gpt3
文摘菌看了一下,有用GPT-3做數據分析的,比如根據描述創建圖表;有做邏輯推理的,比如讓GPT-3做數學題;還有一些比較常規的文本生成項目,比如可以讓AI幫你想Google的廣告詞:
可以讓AI幫你做簡報、做創意食譜,還能讓它生成莎士比亞風格的詩歌。
Wired有一篇文章寫道,“GPT-3如此令人着迷,或許更多地證明了語言和人類智能存在的魅力,而非人工智能。人們在Twitter上發表的一般都是正向的誇讚,而不是指出它的缺點,這可能會在無形中誇大GPT-3”。
隨着GPT-3在AI界得到廣泛應用,就連它的發明者也在呼籲要謹慎行事。OpenAI的首席執行官Sam Altman週日在twitter上寫道,“GPT-3的炒作太過了,它仍然有嚴重的弱點,有時還會犯非常愚蠢的錯誤。”
就比如adolos這篇騙過了幾乎所有人類的博客。
Porr的做法證明了GPT-3強大的功能,因為幾乎所有人都誤認為這些博客文章是由AI編寫的,不過,與此同時,Porr也表示:“實際上,這非常容易做到,這也正是令人恐懼的地方。”