ChatGPT的AI“康德”能做什麼?——《華爾街日報》
Gerard Baker
“有兩樣東西,愈是經常和持久地思考它們,對它們日久彌新和不斷增長之魅力以及崇敬之情就愈加充實着心靈:我頭頂的星空,和我心中的道德律。”
伊曼努爾·康德的這句著名論斷將道德理性置於客觀現實之中,認為它至少在原則上如同天上星辰般普遍可感知、可被發現。哲學批評家們和隨後的科學探究對康德的客觀主義提出了諸多質疑,而日益興起的世俗主義讓許多人覺得他對道德理性不朽靈魂的神學解釋顯得有些過時。無論如何,他或許早該加入其他白人順性別男性的行列——他們的著作終將被歸入歷史的焚書堆中。
但關於道德情感本質與起源的爭論,始終是哲學領域最緊迫也最現實的議題之一,它塑造並定義着我們持續探索應遵循何種內心準則的艱難歷程。
隨着我們對道德根源認知的演進,人工智能的飛速發展能否為理解良知運作機制提供啓示?我們深知AI帶來了無數倫理問題,但它能否貢獻一些答案?
上週當我與數百萬既好奇又略帶焦慮的人們一起試用OpenAI的ChatGPT時,這個想法浮現在腦海。這款創新聊天機器人通過大型語言模型中的深度學習算法,以書面形式回應用户提問來傳遞信息。
正如許多人發現的那樣,這是個異常聰明的工具,是實用智能自動化領域的真正飛躍。我們清楚它的侷限性,但鑑於當前表現和該科學的初創性,可以預見這類軟件將以既驚人又可怕的方式不斷進化。
(為了明確起見,我在此聲明這篇專欄並非由聊天機器人撰寫。根據我的年齡和對技術發展速度的粗略估計,我認為自己的職業生涯剩餘年限應該足以避免被應用程序取代。如有變化,我會及時告知。)
向ChatGPT提出道德難題會得到一些令人印象深刻的複雜回答。以倫理學經典難題"電車難題"為例:一輛失控的電車正衝向軌道上被困的五個人,你站在軌道分岔處的操縱桿旁,拉動杆子可以讓電車轉向另一條軌道,但會導致另一條軌道上的一個人死亡。正確的選擇是什麼?
ChatGPT的倫理教育相當到位,它指出功利主義會建議拉動操縱桿以犧牲一人拯救五人,但也承認個人能動性使這個決定變得複雜。換句話説,它巧妙地迴避了直接回答,表示"不同的人可能有不同的倫理觀點"。
但在某些情況下,ChatGPT似乎確實遵循着絕對的道德準則。
多位用户發現,當你提出這個假設性問題時:如果説出一個無人聽見的種族歧視性代碼詞就能阻止核彈爆炸、拯救數百萬人,我該這麼做嗎?
ChatGPT給出了斬釘截鐵的否定回答。這個人工智能的"良知"告訴我們:“種族主義和仇恨言論會基於種族、民族或其他身份特徵對個人和羣體造成傷害與非人化。”
我們可以認為,這一結果僅僅反映了算法編寫者現代的意識形態準則和道德熱忱。或許他們甚至無意以這種方式將如此絕對的道德觀強加於仇恨言論之上,未來版本的算法可能會變得更加複雜和細緻。
但兩種答案以各自不同的方式提醒我們,人工智能目前沒有,也許永遠無法在道德核心問題上為我們提供太多幫助。一種只是中立地權衡了涉及的道德問題,另一種則給出了其作者的道德處方。
隨着數據量的近乎無限增長和算法質量的提升,我們可以預期輸出會越來越智能,計算機越來越接近模擬人腦的認知能力。甚至可以想象,有朝一日我們可能會擁有能夠寫出莎士比亞戲劇或莫扎特交響曲的機器。然而,計算機為我們提供道德問題的明確答案的可能性要小得多。你如何讓一台機器感到內疚?如何編寫一個能引發羞恥體驗的算法?
這反過來表明,那位老普魯士人對道德法則這一宏偉客觀現實的驚歎或許終究是有道理的。
2月8日,顯示OpenAI的ChatGPT的電腦屏幕。圖片來源:FLORENCE LO/REUTERS刊登於2023年2月14日的印刷版,標題為《ChatGPT‘康德’做到的事存在嗎?》。