聊天機器人將助力人類物種延續——《華爾街日報》
Holman W. Jenkins, Jr.
一個問題是,當今聊天機器人通過掃描海量文本庫中符號間關係來運作的算法過程,是否屬於一種能浮現新信息和洞見的心理組織形式。
若是如此,仍需人類來識別這些發現。聊天機器人既不知道也不關心其輸出對人類接收者是否具有真實信息價值。就連最成功的聊天機器人顯然也不清楚自己是否具備動機。“ChatGPT本質上並未被編程設定動機或意圖,“它告訴我,但"開發者可能為其設定了某些目標或意圖”。
相比傳統搜索,ChatGPT能更快獲得答案。我問:“現代Santa Cruz是否受雞肉税影響?“必應聊天機器人回答:“現代Santa Cruz不受雞肉税影響,因為它在美國生產。雞肉税是1964年起對進口輕型卡車徵收的25%關税。”
但你仍需核實,因為該系統設計初衷是生成合理語句而非確保準確。ChatGPT在信息層面可能淪為死胎,正因為它切斷了流向其基礎數據源的廣告資金流。 若不想讓新型聊天機器人自我消亡,就必須找到可行的商業模式。
有人擔憂失業問題,我認為這種擔憂實屬誤判——事實上我們需要生產力大幅提升才能償付社保醫保,滿足日益增長的老年退休羣體需求。
如果説新聞從業者對ChatGPT特別警覺,那是因為比起其他人,我們更懷疑自己也不過是算法。我們對任何話題的"真相"認知,不過是所處環境中暫時佔優的特定詞句組合。這並非玩笑。OpenAI首席執行官山姆·奧爾特曼本週在國會作證時諂媚地提醒道,這能抵消許多媒體歇斯底里的反應:“重要的是要明白GPT-4是工具,而非生物。”
據説,人工智能的能力發展速度已超出我們的評估能力;它可能會產生意想不到的特性,比如自我意識,這導致一些人堅持要為這種非生命體賦予“權利”。即便如此,決定權仍在我們手中,就像我們有權決定是否賦予奶牛或未出生嬰兒權利一樣。
人們最常表達的擔憂是,無論有意還是無意,一旦引入某種機制,人工智能可能會認為通過奴役或消滅人類最能實現其目標。通過某些未明確説明的漏洞,它控制了實現這一目標的工具,包括被稱為人類的工具,通過脅迫讓他們為其目的服務。
而我更直接的擔憂是:新型聊天機器人能夠生成無限量的文本輸出,這將淹沒其賴以學習的人類文本,用衍生出的廢話填滿信息空間。谷歌搜索終究不會過時;相反,它將緊急升級,以篩除那些毫無意義的算法廢話,轉而青睞那些真正藴含人類推理和知識的文本及其他真實文件。
在任何情況下,中國都不太可能加入某些人提出的暫停發展通用機器智能的倡議。也不太可能參與其他人推動的許可制度,這些制度旨在只允許那些做我們喜歡的事情的人工智能進入世界。
也許中國會成為未來人工智能領域的切爾諾貝利,讓我們從中吸取教訓,但除非人類文明利用現有手段自我毀滅,否則人工智能似乎註定會繼續發展。而且,總體而言,這似乎是件好事。
一個嚴肅的理論認為,我們未能探測到先進文明的宇宙信號,是因為這些文明無法在自己的技術革新中倖存。然而,這些理論家也承認,技術是我們唯一的希望。化石記錄表明,像智人這樣的物種滅絕的時間,將遠早於讓埃隆·馬斯克擔憂的時間表。這位人工智能批評者卻希望為太陽約五十億年後的死亡做計劃。一項研究估計,哺乳動物物種的平均壽命僅為兩百萬年。
自然歷史的必然預測是,雖然我們的技術可能毀滅我們,但沒有技術我們必定滅亡。除非能發明超光速旅行,否則機器人和人工智能似乎是唯一可行的方法,將我們的生物種子傳播到遙遠的行星,然後構建初始棲息地和支撐基礎設施,使其在那裏繁榮發展。
而且,不,曲速驅動可能不是天降神兵。認為超光速旅行可行,可能等同於認為我們已經註定滅亡,因為某些已經在銀河系中漫遊的先進文明肯定不會歡迎我們的競爭。我的猜測是,一個需要人工智能進行星際殖民的宇宙對我們來説,比一個允許光速旅行的宇宙更安全。
照片:Cfoto/Zuma Press出現在2023年5月20日的印刷版中,標題為《聊天機器人將幫助我們的物種延續》。