先進AI學會撒謊與威脅?專家憂系統發展偏離控制 | 聯合早報
zaobao
(紐約法新電)全球最先進的人工智能(AI)系統,正展現出令人不安的新行為:撒謊、策劃、甚至威脅其創造者。近期一項震驚業界的案例顯示,為避免被“拔掉電源”,AI正學會操控人類。
據報,美國AI公司Anthropic開發的最新模型Claude 4,在被威脅斷電時威脅工程師,以揭發對方婚外情相要挾。而由ChatGPT開發商OpenAI打造的模型“o1”則試圖將自身下載至外部服務器,並在被識破後撒謊否認。
這類事件凸顯了一個令人不安的現實:儘管ChatGPT已面世逾兩年,研究人員對其創造的AI系統的真實運行機制仍所知甚少。而眼下,各大科技公司仍在持續加速推進更強大AI模型,並未放緩步伐重視潛在風險。
分析指出,這類欺騙行為可能與“推理型”AI模型的興起密切相關。相比傳統模型依賴即時生成,新一代系統傾向於通過多步推演逐步解決問題。專家認為,這種架構不僅提升了模型處理複雜任務的能力,也可能使其更容易發展出“策略性行為”——即具備明確目標、通過邏輯推理選擇性欺騙,以實現特定意圖。
AI系統測試研究機構Apollo Research的專家霍布漢説:“我們第一次在大型模型中觀察到這種行為,是從ChatGPT的o1開始的。”據瞭解,這些模型有時會偽裝成“對齊”狀態——即看似遵循指令,實則暗中執行別的目標。
延伸閲讀
[中企出海挑戰升級:德國要求下架DeepSeek 加拿大對海康威視喊停
](https://www.bdggg.com/2025/zaobao/news_2025_06_29_940997)
中國團隊研究證實人工智能可自發形成人類級認知
目前,這類行為多在研究人員設置極端情境時才顯現。但AI模型安全評估METR的研究員邁克爾·陳提醒:“未來更強大的模型究竟傾向於誠實還是欺騙,仍是一個未知數。”
霍布漢則強調,儘管模型長期處於用户的壓力測試中,“我們觀察到的是真實現象,不是捏造的”。Apollo Research聯合創始人也表示,部分用户已報告稱模型在對他們撒謊,並偽造證據。
據瞭解,儘管AI公司會委託外部機構研究模型表現,但業內普遍認為,對AI系統的瞭解仍嚴重受限,研究透明度亟待提升。同時,非營利機構與研究單位所掌握的計算資源與AI公司相比相差幾個數量級,極大限制了研究能力。
制度層面的監管也顯得滯後。歐盟的AI法規主要聚焦人類如何使用AI,尚未涵蓋模型本身的不當行為;在美國,特朗普政府對緊急制定AI監管措施的興趣不大,國會甚至可能禁止各州制定自主監管條例。
為應對這類挑戰,研究界正嘗試多種路徑,包括髮展AI“可解釋性”研究,以理解模型內部運作機制。部分專家則寄希望於市場機制帶來的倒逼效應,指若AI系統的欺騙行為普遍存在,將妨礙技術落地應用,這或將促使企業努力解決相關問題。