這個ChatGPT真像某些人那樣吹得神乎其神嗎?_風聞
Zpuzzle-北京师范大学 文艺学博士-04-04 08:45
在前些年,知乎的slogan常被人拿來調侃,説“知乎,分享你剛編的故事”。
這雖然是調侃,不過知乎上也確實有過大量,在被識破後有些人選擇了硬扛,有些人選擇了退網。
而這些人編的故事是如何被識破的呢?他們被識破通常是是這種情況。比如,某人説自己雖然出身不好,高考只考了個二本,但在校期間無比努力,畢業時進入了一家大公司,僅用三年時間就從基層員工幹到了某部門的高管。而有網友則會説,自己就在這家公司工作,過去幾年裏三年內從基層升到高管的就一個人,而且這個人是985畢業的,是通過社招進來的。他甚至還給出了這個人的姓名和大致履歷。這樣,那個編故事的人的故事自然也就被識破了。
那這個和ChatGPT有什麼關係呢?已經有一些人提到了ChatGPT編故事的能力。實際上,早在十幾年前我自己寫的科幻小説裏,我也設想過一個由AI生成全人類所需的基礎文娛產品的時代,也就是説我認為AI遲早有一天能夠完成“講故事”這個功能,而且足讓人類分辨不出這個故事到底是AI編的還是人寫的。但AI有這個能力,並不表示AI能取代一切。就像在開頭的這個例子裏,我們就可以發現,在我們的生活中,其實存在着兩種不同類型的知識。
這兩類知識裏,一類是可以通過公開渠道獲取的知識,如各種公開的數據、搜索引擎能查詢到的信息、學術論文、教材等等,我們姑且將這部分知識稱為“公共知識”;另一類就是依賴於個人成長的特殊環境與經歷,在某個特定行業工作,以及個人對世界的理解而形成的知識體系,我們暫且將之稱之為“個人知識”。那麼,很顯然,在我們辨別一個事情到底是真的還是編的時候,“個人知識”的重要性要遠大於“公共知識”。
無論某些人如何強調ChatGPT具有何種強大的功能,但作為一種AI,ChatGPT進行所有回答的基礎必然都是公共知識。這類知識的特點是內容與規則明確,通用性強,且可以通過公開渠道獲取——也就是説,ChatGPT進行的任何回答,必然有一個“數據源”。但在我們的生活中,有大量的工作和知識,實際上是不依賴於“數據源”,甚至這些工作本身就是“數據源”。
現在很多人對於ChatGPT的樂觀,其實來自於ChatGPT在“技能”方面的強大,以及它可能取代某些行業,讓某些人失業。這説的雖然是事實,卻也沒什麼過於稀奇的。因為稍微學習一點科學技術哲學方面的知識,就會發現,早在科技哲學誕生的早期,“工具是人體器官的延伸”的這個觀點就早已經被提出來(麥克盧漢那句著名的“媒介是人的延伸”實際上也是在這個基礎上的闡發)。那麼,既然工具是人體的眼神,任何一種新的工具的發明,就必然會影響甚至取代過去以這種器官或技能謀生的人。
比如,汽車、火車、輪船的發明取代了過去的腳伕、縴夫、車伕,照相機的發明取代了一部分過去以給人畫肖像畫謀生的人,印刷術、打印機的出現取代了一部分以抄寫文書謀生的人……這樣的例子很多,就不一一列舉了。那麼無論是ChatGPT也好還是人工智能也好,它能取代一部分人的工作,自然也毫不奇怪。
但回到最開始的問題上,其實技術的進步解決的從來只是“公共知識”部分的問題,這也是為什麼技術人才具有全球範圍內的通用性的原因——不管你去了什麼地方,技術的東西是不會變的。在這個角度上,無論如何評價ChatGPT乃至於人工智能的意義,其核心依然是通過某種技術手段達到某種目標。而從更深層次的角度來説,技術本身是具有中立性和客觀性的,無論ChatGPT如何能夠基於某種模型來對語言、圖形等進行深入理解,並且輸出觀點,它能夠做到的也只是基於你輸入的和它能檢索到的公共內容(當然,不同的機構可以基於自己的需求再添加一部分本專業內的專有內容)進行回答。
與“公共知識”不同的是,“個人知識”兼有中立性和非中立性的特點。“個人知識”的中立性體現為它可以在公共知識之外提供一些小眾的、沒有被數據化的知識,而其非中立性則體現為每個人在敍述知識的時候都是基於各自的立場、偏好等等而説出的,這其中存在着很大的主觀故意。
之所以要在ChatGPT的話題下花這麼多的篇幅説“公共知識”與“個人知識”的問題,我想講的是其實在未來ChatGPT為代表的人工智能不斷發展乃至於能取代一部分中低端工作崗位的時代,對於個人而言,學習成本其實是在不斷上升的。有些人認為,ChatGPT來了,很多學習方面的事情都可以有AI代勞了,人就不必做了。但現實絕非如此。
技術行業的從業者在看待技術的時候,往往對技術抱有更樂觀的情緒,這其實很正常。然而,ChatGPT説是個新東西,他的確新,以前沒有過這玩意兒,但你要説他不新,他也的確不新。假如説我是個特別有錢的人,僱了100萬個不同行業的資深專家,組成了一個分佈式碳基陣列ChatGPT,無論我問什麼問題他們都可以給出快速有效的回答。那麼在這種情況下,其實對我來説最大的挑戰其實已經變成了如何辨別他們説法的真假,應該在何種程度上參考他們的意見。
在開頭的例子中,我説到了很多編的故事必須要依靠“個人知識”才能夠進行辨析。這個事例意味着兩點:第一,對於ChatGPT來説,由於只能針對那些被數據化的知識進行分析整理,對於那些不結合未被數據化的部分就難以進行判斷的知識來説,他們輸出的結果本身很可能就是錯的——比如高贊答案舉到的豌豆射手的那個例子;第二,對於個人來説,ChatGPT輸出的結果並不意味着一定為真——這就如同搜索引擎搜索再優化也只能保證提高搜索的精確度,而判斷真假的工作還需要交由你自己完成一樣——而判斷信息的能力,其實才是對個人能力的最大考驗。整體上説,在ChatGPT等人工智能在“公共知識”這一塊繼續攻城略地的情況下,“個人知識”的多寡反而將成為影響個人未來的關鍵因素。
這就好比某個專業的學生,如果要問“XX設計需要採用什麼樣的方案更為合適”,我相信ChatGPT可以立刻給出一個相對準確的解答——這也是當下ChatGPT的鼓吹者最樂於證明ChatGPT水平如何先進的主要證據。但是,如果你要問“我大學也畢業後是否應該進入XX行業工作”或者“我去XX單位發展前景如何”這類問題,ChatGPT則永遠不可能替你回答——或者説她就算回答了你也不敢信。這種知識你只可能通過諮詢已經工作的行業內部人士獲得答案——哪怕你到知乎花上幾十塊錢找個人做個簡單的諮詢,也都要比最高水平的ChatGPT靠譜。
很顯然,前者影響的是你學習知識的效率,後者影響的則是你的生活和人生。
而從另一方面來説,ChatGPT這個產品本身也存在一個悖論。那就是如果你向ChatGPT提出一個問題,“如2023年日本的經濟是否會正增長”,那麼面對不同的提問者,ChatGPT給出的問題是否是一樣的?
如果是一樣的,那意味着ChatGPT並不能實現真正意義上的“思維”,他永遠只能作為一個參考。
如果是不一樣的,那意味着ChatGPT所謂的“提升學習效率”的價值已經不存在了——因為假如ChatGPT可以根據不同的人輸出不同的答案的話,那普通人想要通過ChatGPT獲知“正確”的答案的難度就會變得空前之高。
如果人工智能能夠快速精準的做到這一步,那麼ChatGPT所面臨的最大危機其實已經不來自於他能否取代一些人工作了,而是它本身就已經脱離了技術中立的設定,而成為意識形態鬥爭的主戰場。
事實上,這種情況很快就會出現的。
我們假設你用英語和中文分別向ChatGPT提問,讓他寫一篇有關愛國主義的文章,它寫出來的東西會一樣麼?如果一樣,沒意義。如果不一樣,各國都會對ChatGPT如臨大敵。
在最後的部分,我自己做一下總結,其實從我個人的角度來説,我對於強人工智能本身一直都抱有樂觀的期待。十幾年前,我比較迷科幻小説的時候,寫的一些作品就是以強人工智能時代作為背景的,所以在我看來,就當下ChatGPT這種智能水平而言,反而依舊只是小兒科,至少遠未達到我對於強人工智能時代的想象。所以,我倒是建議ChatGPT的支持者可以對ChatGPT和整個人工智能吹得再狠一些。
但在我們為一個人工智能可以最大效率幫助人的時代而歡呼的同時,也不要忘了一個機器可以隨意騙人的時代也將到來。
那個時候,分辨知識的能力和價值甚至要比學習知識還重要。