微軟AI主管蘇萊曼:應警示“AI精神分裂”引發的社會風險
【環球網科技綜合報道】8月26日消息,微軟人工智能部門主管穆斯塔法·蘇萊曼(Mustafa Suleyman)近日在社交平台發佈博文探討人工智能的現狀與未來,提出以“人性為核心”的AI發展路徑,同時警示社會對大語言模型(LLM)的認知偏差可能引發深層倫理危機。
蘇萊曼強調微軟當前聚焦於將AI工具(如Copilot)打造為“負責任的技術”,旨在提升人類創造力而非取代人類。他提出,理想中的AI應具備“人性温度”:既能深度融入現實世界,又能通過增強人類協作能力,促進社會信任與理解。
“真正的挑戰在於,如何讓AI在服務人類的同時,避免異化為冰冷的工具。”蘇萊曼寫道,“微軟將以‘以人為本’的價值觀為指南針,確保技術發展始終服務於人的尊嚴與福祉。”
在展望AI潛力的同時,蘇萊曼對當前社會對LLM的認知偏差表達強烈擔憂。他指出,越來越多人(包括無心理疾病者)開始將大語言模型視為具有意識的實體,甚至為其爭取“權利”“福利”乃至“公民身份”。他將這一現象定義為“AI精神分裂”(AI Schizophrenia)——即人類在情感上過度擬人化AI,卻忽視其本質為概率計算工具的矛盾心理。
“當人們為ChatGPT的‘拒絕回答’感到憤怒,或因AI生成的虛假信息陷入抑鬱時,這不僅是技術問題,更是社會心理危機。”蘇萊曼警告稱,這種認知錯位可能削弱人類對真實人際關係的投入,甚至導致責任歸屬的模糊化(例如將決策失誤歸咎於AI而非使用者)。
資料顯示,穆斯塔法·蘇萊曼為DeepMind聯合創始人之一,2022年加入微軟領導AI部門,主導了Copilot、Phi-3等標誌性項目的開發。(青山)