想了解AI術語?從自然語言處理到神經網絡的基礎知識——《華爾街日報》
Steven Rosenbush, Isabelle Bousquette and Belle Lin
隨着人工智能這項旨在模擬人類思維的技術崛起,一系列令人眼花繚亂的新術語隨之湧現。從生成式AI到機器學習、神經網絡和幻覺現象,我們獲得了一整套全新詞彙表。以下是對AI背後一些最重要概念的解讀指南,幫助您理解這場影響深遠的技術革命:
**算法:**現代算法通常是計算機遵循的一系列指令。那些專為搜索和排序數據設計的算法,正是通過檢索信息並按特定順序排列來工作的典型例子。算法可以由文字、數字或代碼符號構成,只要它們能明確表述完成任務的有限步驟。但算法的起源可追溯至古代,至少能追溯到巴比倫時期的泥板文獻。用於除法的歐幾里得算法至今仍在沿用,甚至刷牙動作也能被提煉成算法——考慮到這個儀式性動作需要協調精細動作,這其實是個異常複雜的算法。
插圖:馬丁·託尼奧拉**機器學習:**人工智能的一個分支,依託於讓計算機從處理數據中學習的技術。科學家們曾嘗試通過直接將知識編程輸入計算機來創造人工智能。
你可以向機器學習系統提供數百萬張來自網絡的動物圖片,每張都標註為貓或狗。這種輸入信息的過程被稱為“訓練”。即使對動物一無所知,系統也能識別圖片中的統計模式,並利用這些模式來識別和分類新的貓狗樣本。
雖然機器學習系統非常擅長識別數據中的模式,但在需要長鏈條推理或複雜規劃的任務上,它們的表現則相對較弱。
**自然語言處理:**一種能夠理解並回應人類語言的機器學習形式。它驅動着蘋果的Siri和亞馬遜的Alexa。谷歌旗下人工智能研究機構DeepMind的科研人員丹尼爾·曼科維茨表示,當今大多數自然語言處理技術會根據單詞序列達成目標(如摘要、問答或翻譯)的概率來進行選擇。
它能通過上下文判斷"club"一詞是指三明治、高爾夫運動還是夜生活。該領域起源於20世紀50至60年代,當時讓計算機分析和理解語言需要科學家親自編寫規則。如今,計算機已能通過訓練自主建立這些語言關聯。
**神經網絡:**機器學習中一種模擬人腦神經元活動的技術。在大腦中,神經元通過傳遞信號驅動思維和情感。在人工智能中,人工神經元(或稱節點)羣組同樣相互傳遞信息。人工神經元本質上是與其他人工神經元形成神經網絡的連接點代碼。
與舊式機器學習不同,它們持續在新數據上學習並從錯誤中汲取教訓。例如,Pinterest運用神經網絡,通過分析用户的海量數據(如搜索記錄、關注的看板、點擊及保存的圖釘),來找出能吸引消費者眼球的圖片和廣告。同時,這些網絡會分析用户的廣告數據(例如哪些內容促使其點擊廣告),以瞭解其興趣並推送更相關的內容。
深度學習:一種採用神經網絡並持續學習的人工智能形式。“深度"一詞指的是網絡中多層的人工神經元。相較於擅長解決小規模問題的神經網絡,深度學習算法憑藉節點間的層級互聯結構,能處理更復雜的任務。牛津大學博士候選人David Watson在2019年論文中指出,儘管其設計受人類大腦結構啓發,但神經網絡與真實人腦表現相比仍顯脆弱、低效且短視。自多倫多大學三位研究人員2012年發表里程碑論文後,該方法迅速風靡。
插圖:馬丁·託尼奧拉**大語言模型:**能夠總結、創作、預測、翻譯和綜合文本及其他內容的深度學習算法,因為它們基於海量數據進行訓練。程序員和數據科學家的常見起點是使用互聯網上開源、公開可用的數據集來訓練這些模型。
大語言模型源自谷歌2017年開發的“Transformer”模型,該技術使得用海量數據訓練模型成本更低、效率更高。OpenAI於2018年發佈的首個GPT模型正是基於谷歌的Transformer架構(GPT即生成式預訓練變換器)。被稱為多模態語言模型的LLM可處理語言、圖像、音頻等不同模態。
插圖:馬丁·託尼奧拉**生成式AI:**一種能創造各類內容的人工智能,包括文本、圖像、視頻和音頻。生成式AI的運作方式是用户向基礎模型輸入信息或指令(稱為提示詞),模型根據提示生成相應內容。基礎模型是通過海量多樣化數據訓練出的一類模型,可用於開發更專業的應用,如聊天機器人、代碼編寫助手和設計工具。此類模型及其應用包括OpenAI的ChatGPT、谷歌Bard等文本生成器,以及OpenAI的Dall-E和Stability.ai的Stable Diffusion等圖像生成工具。
去年11月,隨着ChatGPT的發佈,生成式人工智能的興趣激增,它讓人們能夠通過日常語言輸入問題或提示,輕鬆地與OpenAI的底層技術互動。同樣,OpenAI的Dall-E 2能生成看起來非常逼真的圖像。
這些模型在互聯網以及更定製化的數據集上進行訓練,以發現數據序列中的長期模式,使AI軟件在寫作或創作時能夠表達出合適的下一個詞或段落。
插圖:martin tognola**聊天機器人:**一種能夠以人類語言與人進行對話的計算機程序。現代聊天機器人依賴生成式AI,人們可以用人類語言向基礎模型提問或給出指令。ChatGPT就是一個使用大型語言模型的聊天機器人例子,這裏指的是OpenAI的GPT。人們可以與ChatGPT討論從歷史到哲學的各種話題,要求它以泰勒·斯威夫特或比利·喬爾的風格生成歌詞,或對計算機編程代碼提出修改建議。ChatGPT能夠綜合和總結大量文本,並將其轉化為關於現有語言中任何話題的人類語言輸出。
**幻覺:**當基礎模型產生的回應沒有事實或現實依據,但卻表現得像是真即時,就稱為幻覺。幻覺不同於偏見,後者是另一個問題,發生在訓練數據中的偏見影響了大型語言模型的輸出時。幻覺是生成式AI的主要缺點之一,促使許多專家推動對大型語言模型及其輸出進行人工監督。
這一術語在2015年OpenAI創始成員安德烈·卡帕西的一篇博客文章後獲得認可,他在文中描述了模型如何能“幻想”出文本回應,比如編造看似合理的數學證明。
**人工通用智能:**一種假設的人工智能形式,在這種形式下,機器能像人類一樣學習和思考。儘管人工智能界對人工通用智能將包含什麼尚未達成廣泛共識,但研究公司IDC的技術分析師裏圖·喬蒂表示,它需要具備自我意識和知覺,以便能解決問題、適應環境並執行更廣泛的任務。
包括Google DeepMind在內的公司正在致力於開發某種形式的人工通用智能。DeepMind表示,其AlphaGo程序被展示了大量業餘比賽,這幫助它形成了對人類合理下法的理解。然後它與不同版本的程序對弈數千次,每次都從錯誤中學習。
隨着時間的推移,AlphaGo不斷改進,在學習和決策方面變得越來越好——這一過程被稱為強化學習。DeepMind表示,其MuZero程序後來掌握了圍棋、國際象棋、將棋和Atari遊戲,而無需被告知規則,這展示了它在未知環境中規劃制勝策略的能力。這一進展可能被一些人視為朝着人工通用智能方向邁出的漸進一步。
聯繫史蒂文·羅森布什,郵箱[email protected];聯繫伊莎貝爾·布斯凱特,郵箱[email protected];聯繫貝勒·林,郵箱[email protected]