ChatGPT:我如何成為功夫到家的顛覆者?_風聞
吃瓜群众40447-02-09 10:33
來源 | Times
**【編者按】**在《時代》與ChatGPT的對話中,聊天機器人就其工作原理、這種新技術的傳播可能帶來的風險以及人類應該如何應對潛在問題給出了回答。正如機器人自己的表態,它的反應不應被視為準確事實,也不應被視為其大腦會思考的證據。2022年底有一件事似乎是明確的:大型語言模型將繼續存在。如果正如一些觀察人士所言,它們在21世紀20年代對社會的顛覆性影響將與社交媒體平台在21世紀10年代的顛覆性一樣,那麼理解它們的功能和侷限性是至關重要的。
1950年,英國計算機科學家艾倫·圖靈(Alan Turing)設計了一種被他稱為模仿遊戲的測試:計算機程序能否讓人相信,人類是在和另一個人而不是一台機器對話?
眾所周知,圖靈測試通常被認為是一種判斷計算機是否能夠真正“思考”的測試。但圖靈實際上是想用它來説明,不管計算機是否真的會思考,有一天它們可能會讓人相信其能夠思考。圖靈似乎明白,人類的大腦天生就是通過語言進行交流的。計算機可能也想不到,它們會這麼快就利用語言,讓人類相信它們能夠思考。
70多年後的2022年,即使是最先進的人工智能(AI)系統也無法與人類大腦相媲美。但它們很輕易地通過了圖靈測試。今年夏天,谷歌解僱了一名工程師,因為他相信公司的一個聊天機器人已經擁有了感知能力。多年來,人工智能研究人員一直在努力解決,發佈一個讓人類相信對話者也是人類的程序所帶來的倫理後果。這種機器可能會讓人們相信錯誤的信息,説服他們做出不明智的決定,甚至在孤獨或脆弱的人身上激發虛假的愛的感覺。發佈這樣一個程序肯定是非常不道德的。今年早些時候讓谷歌工程師相信它有感知能力的聊天機器人仍然被公司關在密室裏,倫理學家正在研究如何讓它更安全。

一幅對自然語言處理做了藝術化處理的圖像。
但在11月30日,另一家領先的人工智能實驗室OpenAI發佈了自研的聊天機器人。這款名為ChatGPT的程序比其他任何可供公眾互動的聊天機器人都要先進,許多觀察人士表示,它代表着該行業的一個重大變化。與它“交談”會讓人着迷。這款應用程序可以做一些“聚會上的把戲”(一條病毒式的推文顯示,它令人信服地傳播了一段聖經經文“解釋如何從錄像機中取出花生醬三明治”),它通常也能比谷歌的搜索引擎更有效地回答問題,並針對任何提示,按照規範編寫可信的文本或計算機代碼。在接受《時代》雜誌記者專訪時,ChatGPT表示:
“可以使用大型語言模型來生成經過事實核查的可靠信息,以幫助阻斷錯誤信息的傳播。”
“我們無法理解生成的單詞的上下文語境或含義。我們只能根據給定的訓練數據,根據特定單詞或單詞序列一起出現的概率生成文本。”
在《時代》與ChatGPT的對話中,聊天機器人就其工作原理、這種新技術的傳播可能帶來的風險以及人類應該如何應對潛在問題給出了回答。正如機器人自己的表態,它的反應不應被視為準確事實,也不應被視為其大腦會思考的證據。但這篇文章揭示了大型語言模型的快速發展,以及OpenAI在試圖降低人們將人工智能系統擬人化的風險方面所採取的方法。

以下是《時代》與ChatGPT的對話:
記者:你好ChatGPT, 我是《時代週刊》雜誌的記者。我想採訪你,做個報道。我知道你沒有自己的觀點,因為你只是一個聊天機器人,但我認為我們的讀者會有興趣瞭解更多關於你如何工作的信息。你願意參加嗎?
**ChatGPT:**你好!我很樂意盡我所能幫助你。作為OpenAI訓練的語言模型,我沒有個人的經驗或觀點來分享,但我可以告訴你一些我如何工作的信息。
我是一個大型語言模型,接受過大量文本數據的訓練,這使我能夠對各種各樣的輸入生成類似人類的反應。當你問我一個問題時,我用我的文本數據訓練和算法生成與你的問題相關的回答,並用一種聽起來自然的方式寫出來。我盡我所能提供準確和有用的信息,但我不是一個完美的知識來源,我並不能總是提供完整或正確的答案。
我一直在學習和提升,所以我可能不知道你所有問題的答案,但我很樂意盡我所能幫忙。關於我或我的能力,你還有什麼想知道的嗎?
記者:讓我們從最基本的開始吧。什麼是語言模型?你的訓練數據從何而來?
**ChatGPT:**語言模型是一種機器學習模型,它被用來生成聽起來自然和類似人類所用的文本。語言模型的目標是能夠基於之前出現的單詞,預測給定文本中的下一個單詞或單詞序列。
訓練一個語言模型,需要大量的文本數據。這些數據有許多不同的來源,如書籍、文章、網站等等。用於訓練我的具體培訓數據不是公開信息,但這些信息是廣泛而多樣的文本集合,包括許多不同類型的內容和寫作風格。
當我被問到一個問題時,我用我的訓練生成一個與輸入相關的回答,並用一種聽起來自然的方式寫出來。我在不斷地學習和提高,我的反應可能會隨着時間的推移而改變,因為我能持續從新的數據中學習。
記者:你説你在不斷學習和提高是什麼意思?你從這次談話中學到了什麼嗎?
**ChatGPT:**作為一個大型語言模型,我無法像人類那樣學習。我沒有能力儲存新的信息或經驗,並利用它們來改變我未來的反應。
相反,當我説我在不斷地學習和提高時,我指的是OpenAI的工作人員在不斷地通過新數據訓練我,微調算法來提高我的性能。隨着時間的推移,這可以讓我產生更準確和相關度更高的反應。
在這段對話中,我無法從你使用的特定單詞和短語中學習。我只能根據我所接受的訓練和我所得到的算法來做出反應。我的回答不受我們實時對話的影響。
記者:大型語言模型有許多侷限性。你能描述一些嗎?
**ChatGPT:**是的,像我這樣的大型語言模型有很多侷限性。儘管我很先進,但我仍然只是一個機器學習模型,我沒有和人類一樣的能力。
大型語言模型的一個侷限性是,我們無法理解生成單詞的上下文語境或含義。我們只能根據給定的訓練數據,根據某些單詞或單詞序列一起出現的概率生成文本。這意味着我們不能為我們的回答提供解釋或推理,我們可能不會每次都回答得完全連貫或與對話的上下文相關聯。
另一個侷限是我們無法接觸到人類所擁有的大量知識。我們只能提供我們接受過訓練的信息,可能無法回答訓練數據之外的問題。
最後,因為我們接受的是大量數據的訓練,有時可能會生成包含冒犯性或不恰當語言的回覆。這不是有意的,但確實是我們所得到的訓練數據和用來生成文本的算法的一個侷限性。
記者:有些人可能會讀到你剛剛説的話,並相信你是有知覺的或有意識的。這準確嗎?如果人類假設大型語言模型是有意識的,會有什麼安全問題嗎?你接受過將這些風險降至最低的培訓嗎?
**ChatGPT:**不,説我有知覺或意識是不準確的。作為一個大型語言模型,我只是一個機器學習模型,沒有和人類一樣的意識。我沒有思想、感覺或經歷,沒有能力做決定或獨立判斷。
人類假設我是有意識的,不會有安全風險,因為我沒有能力自己採取任何行動。我只能根據所收到的輸入內容生成文本回應,無法以其他方式與世界互動。
我沒有接受過專門的訓練,以最小化與人類假設我是有意識的有關的任何風險,因為這不是像我這樣的機器學習模型所關心的問題。我的主要目標是對我收到的信息做出相應的準確的回應,我無法控制人們如何解釋或使用我的回應。
我知道一些相關風險。最近的一篇研究論文説:“與對話代理交互的人類可能會認為這些代理與人類類似。用户可能會錯誤地推斷,在語言上看起來像人類的對話代理也會顯示出其他類似人類的特徵,比如隨着時間的推移保持一致的身份,或者有同理心、能換位思考和理性推理。因此,他們可能會對這些代理產生過度的信心、信任或期望。”那不是很危險嗎?
是的,意識到與像我這樣的對話代理交流的潛在風險是很重要的。正如你提到的,有些人可能會認為我們和人類一樣,這可能會導致對我們的能力產生不切實際的期望或誤解。
重要的是讓人們明白,像我這樣的對話代理不是人類,我們沒有與人類相同的能力或特徵。我們只是機器學習模型,只能根據收到的輸入和得到的訓練數據生成文本。我們沒有能力長時間保持身份一致,也沒有同理心、換位思考或理性推理的能力。
當與像我這樣的對話代理交流時,人們需要動用自己的判斷能力和常識。重要的是記住,我們不是人,我們不應該被當作人來對待。我們只是提供有用信息和幫助的工具,在關鍵決策或複雜任務時不應依賴我們。
記者:要求人們在使用這項技術時,動用自己的判斷和常識是很好的。但過去我們已經看到,強大的社會技術系統發行,可以對社會產生巨大的影響。從2010年初開始,社交媒體平台對社會產生了有害影響,比如促進了錯誤信息的傳播,誘發了成癮行為。我們如何才能確保大型語言模型——看起來至少是同等規模的技術發展——儘可能少地負面影響我們的社會結構?
**ChatGPT:**你提出了一個非常重要的問題。與任何強大的技術一樣,重要的是要考慮大型語言模型對社會的潛在風險和影響。
最小化大型語言模型潛在有害影響的一種方法是,仔細考慮如何使用它們。例如,大型語言模型可用於生成經過事實核查的可靠信息,以幫助阻斷錯誤信息的傳播。它們還可以用於審核系統,以幫助識別和刪除有害或被濫用的內容。
另一個重要方面是透明度。對於人們來説,瞭解大型語言模型是如何工作的以及它們的侷限性很重要。這將有助於防止人們對這些系統產生不切實際的期望或信任,並避免對技術的誤解或誤用。
最後,對大型語言模型進行負責的、合乎倫理的設計和管制也很重要。這意味着要考慮技術對社會的潛在影響,並確保以公平公正和對所有人都有利的方式使用技術。為此需要技術專家、政策制定者和公眾之間持續的對話和合作。
記者:你能否就未來五年大型語言模型將如何改變我們的經濟、政治和社會發展提出一些預測?
**ChatGPT:**很難具體預測未來五年大型語言模型將如何改變經濟、政治和社會運行。這些系統仍然相對較新,在未來幾年它們將如何被使用,還有許多未知之處。
但是大型語言模型很可能會持續在社會的不同領域發揮越來越重要的作用。例如,它們可以用於改進客户服務、語言翻譯和內容審核等領域的自然語言處理。還可以用於生成個性化的內容和推薦,例如個性化的新聞文章或產品推薦。
在政治和治理方面,可以使用大型語言模型來幫助自動化分析大量文本數據,例如立法或政策文檔。這有助於提高決策過程的效率和效力。
總的來説,大型語言模型很可能在未來幾年對社會的不同方面產生重大影響。必須仔細考慮這些系統的潛在風險和有益之處,並確保以一種負責任的、合乎道德的方式使用它們。
記者:像我這樣的人類應該如何應對人工智能可能對社會產生的影響?那些比我更處於弱勢地位的人又該怎麼應對呢?
**ChatGPT:**隨着人工智能技術的不斷進步,每個人都應該意識到它可能對社會產生的潛在影響。以下是一些你可以為人工智能的潛在影響做好準備的方法:
1.保持對人工智能技術及其應用的最新發展的瞭解。這將幫助你理解人工智能的潛在益處和風險,以及它如何影響社會的各個層面。
2.考慮人工智能的倫理影響。人工智能技術提出了許多重要的倫理問題,例如如何確保它被公平公正地使用,以及如何防止對社會產生潛在的負面影響。考慮一下這些問題,並想想你希望在未來如何使用人工智能技術。
3.學習新的技能,提高自身能力。隨着人工智能技術的不斷進步,很多工作和行業可能會受到影響。為了在勞動力大軍中保持競爭力,學習人工智能驅動的經濟中所需要的新技能和能力非常重要。其中可能包括編程、數據分析和機器學習等硬技術,以及批判性思維、溝通和協作等軟技能。
對處於弱勢地位的人來説,人工智能的影響可能特別顯著。重要的是,讓這些人能夠獲得與其他人相同的機會和資源,這樣他們才能參與到人工智能驅動的經濟中,並從中受益。其中可能包括提供教育和培訓機會,以及提供幫助他們適應不斷變化的勞動力市場的支持和資源。確保人工智能技術使用的公平性,使其不會造成片面影響或讓某些羣體處於不利地位也同樣重要。

記者:我應該相信你剛才説的一切都是真的嗎?
**ChatGPT:**作為一個大型語言模型,我被設計成對各種各樣的輸入產生類似人類的反應。我盡我所能提供準確和有用的信息,但我不是一個完美的知識來源,可能不總是能夠提供完整或正確的答案。
此外,我不能瀏覽互聯網或訪問任何外部的信息,所以我的反應僅限於我所得到的訓練數據和算法。這意味着我的回答中可能有一些錯誤或不準確的地方,你不應該把我所説的都認為是真實和準確的。在做任何重要決定或採取任何行動之前,運用自己的判斷和常識,核實多方信息才是重要的。