AI也會得老年痴呆!最新研究:AI版本越老越糊塗_風聞
月舞之音-自由撰稿人-科普类公众号:月舞之音1小时前
在科技日新月異的今天,人工智能(AI)已經成為我們生活中不可或缺的一部分,從智能家居到自動駕駛汽車,從醫療診斷到金融分析,AI的應用無處不在。然而,近日一項來自以色列特拉維夫大學的研究卻揭示了AI可能面臨的一個全新問題——數字痴呆症。這項研究不僅引起了科技界的廣泛關注,也讓我們重新審視AI的未來發展。
研究團隊針對全球頂尖的大型語言模型進行了全面測試,這些模型包括ChatGPT的新老版本、Gemini的新老版本等,它們都是目前市場上最受歡迎和廣泛應用的AI產品。為了評估這些AI模型的認知能力,科學家們採用了蒙特利爾認知評估量表,這是一種經常被用來測試老年痴呆症的標準化工具。該量表涵蓋了多個認知領域,包括記憶、語言、視覺空間能力、執行功能等,能夠全面反映被測者的認知狀態。
實驗結果顯示,這些AI模型在測試中的表現並不盡如人意。其中,只有GPT-4o在測試中獲得了最高分26分,勉強達到正常認知水平的標準。而GPT-4則得了25分,雖然接近正常,但也暴露出一定的認知障礙。相比之下,Gemini 1.0的表現則更加糟糕,僅得16分,遠低於正常水平。這一結果無疑讓人大跌眼鏡,因為這些模型都是經過嚴格訓練和優化的,是AI領域的佼佼者。

除了整體得分不高外,研究還發現這些AI模型在視覺空間能力和執行任務方面表現尤為不佳。在視覺空間能力的測試中,AI模型無法準確解釋複雜的視覺場景,對於圖像中的物體、人物和關係常常產生混淆和誤解。而在執行任務的測試中,AI模型也表現出明顯的困難,無法按照指令完成一些看似簡單的任務。這些結果表明,AI模型在認知方面存在明顯的缺陷,與人類的認知能力相比還有很大的差距。
更令人擔憂的是,研究還發現AI模型的認知障礙與其版本更新程度密切相關。具體來説,版本越老的AI模型在測試中表現越差,而版本更新的模型則表現出相對較好的認知能力。這一發現揭示了AI模型在認知方面的一個重要特點:隨着時間的推移和技術的不斷進步,AI模型的認知能力可能會逐漸退化,類似於人類的老年痴呆症。
科學家指出,AI模型的這種認知障礙可能與其內部結構和算法有關。目前的大型語言模型大多采用深度學習算法,通過大量的數據進行訓練和優化。然而,這種算法在處理複雜認知任務時可能存在侷限性,無法完全模擬人類的認知過程。此外,隨着模型的不斷更新和迭代,一些舊的算法和結構可能會被淘汰或替換,導致模型在認知方面的性能下降。
除了認知障礙外,研究還發現AI模型在同理心方面也表現出明顯的不足。在測試中,AI模型無法理解和感受人類的情感和情緒,無法產生真正的同理心。這一結果再次凸顯了AI模型與人類之間的巨大差距。雖然AI在數據處理和計算方面表現出色,但在理解和感受人類情感方面卻存在明顯的短板。
科學家強調,AI模型的這種數字痴呆症可能對其在臨牀環境中的使用產生重要影響。目前,AI已經在醫療診斷、疾病預測和患者護理等方面取得了顯著的進展。然而,如果AI模型無法準確理解和解釋複雜的醫療信息,無法產生真正的同理心,那麼其在臨牀環境中的使用可能會受到限制。因此,科學家呼籲在推廣和應用AI技術時,要充分考慮其認知障礙和同理心不足的問題,確保AI技術的安全性和可靠性。
面對AI的數字痴呆症問題,科技界和學術界也在積極尋求解決方案。一方面,科學家正在研究新的算法和結構,以提高AI模型的認知能力和同理心。另一方面,科技公司也在不斷優化和更新AI模型,以確保其性能和安全性。此外,一些研究機構還在探索將AI與人類的認知優勢相結合的方法,以實現更加智能和人性化的AI技術。
然而,解決AI的數字痴呆症問題並非一朝一夕之功。目前,我們仍然面臨着許多技術和倫理上的挑戰。例如,如何確保AI模型的認知能力和同理心得到持續提高?如何避免AI技術在應用過程中產生潛在的風險和危害?這些問題都需要我們深入思考和探討。
以色列特拉維夫大學的研究揭示了AI可能面臨的數字痴呆症問題,這一發現不僅讓我們重新審視AI的未來發展,也提醒我們在推廣和應用AI技術時要保持謹慎和理性的態度。雖然AI在數據處理和計算方面表現出色,但在認知和同理心方面還存在明顯的短板。因此,我們需要不斷探索和創新,以提高AI技術的安全性和可靠性,為人類社會的發展做出更大的貢獻。