AI真會讓你失業嗎?結果取決於如何獲取和使用3種知識(之二)_風聞
普遍进化论-一切变化都是进化,或基本进化,或复合进化05-01 20:25
摘要:AI大模型(GPT)是如何生成知識的?與人類相比有哪些優勢?有哪些侷限性?本文從普遍進化論的視角,來分析哪些職業容易被AI取代,哪些職業比較安全。文章分為三個部分,本文是第二部分。
AI大模型是一種“部分功能型”比特智能實體
普遍進化論把所有智能實體分為4個類別,即基因智能實體、信號智能實體、符號智能實體和比特智能實體,AI大模型屬於比特智能實體。
根據知識表徵系統、知識進化系統和知識表達系統的功能強弱不同,比特智能實體還可分成兩大類別:部分功能型比特智能實體(植物型)和完整功能型比特智能實體(動物型)。
AI大模型知識表徵和知識表達能力較弱,知識進化能力很強,屬於“部分功能型”比特智能實體。
AI大模型主要特點體現在以下3個方面:
AI大模型的知識獲取和生成方式
現在的主流AI大模型,如OpenAI公司的ChatGPT、百度的“文心一言”,阿里巴巴的“通義千問”、商湯的“日日新”等,都屬於自然語言模型。
AI大模型的輸入和輸出都是人類的自然語言——符號知識,但是運算過程,或者知識進化狀態則是比特知識。
往簡單了説,比特知識進化就是一個由多個“元素組合+條件選擇→穩態組合體”基本進化單元組成的進化過程。
我們以ChatGPT為例來説明這個過程。
首先,ChatGPT要“學習”很多比特化的符號知識,並從中獲取各種詞組、短語、句子、段落等多個層次組合出現的概率,也可以理解為“組合規律”。
其次,ChatGPT要通過“內置規則”,來剔除不符合人類需求的組合,這就是條件選擇。
這些內置規則可能是在編程時人工設定的,也可能是ChatGPT通過學習人工標註的語料學會的。
比如,人們把一些涉及暴力、色情等詞彙進行標註,告訴ChatGPT這些詞彙不能接收和輸出。
最後,專業人員再對ChatGPT輸出的結果進行評判,告訴ChatGPT哪些是正確的,哪些是錯誤的,這樣就使得ChatGPT的產出和人類的常識、認知、需求、價值觀保持一致。
總之,ChatGPT的知識創造過程就是一個比特化符號知識的“組合”、“選擇”過程,即比特知識的基本進化過程。
與人類思維相比,AI大模型的三大優勢
1、知識豐富,能力全面:AI大模型的訓練數據大都在數百個TB水平,還能隨時從互聯網上獲取海量數據。隨着越來越多的語音、文字和圖像(符號知識)轉換為大數據(比特知識),AI大模型也變得越來越“博學多能”。
所以,AI大模型不但“記住”的知識量遠超人類,而且還是一個多面手,能寫詩、作畫,還能編程、作曲。
2、算力強大,產出高效:AI大模型能夠快速地完成多樣化任務。比如,人類幾天畫一幅畫,它可以在幾秒鐘內產生數張畫作。
3、快速進化,快速迭代:由於比特知識進化速度遠超信號知識和符號知識,因此,AI大模型的迭代速度往往超乎人們的想象。
AI大模型的侷限性:脱離實際,紙上談兵
人類是一個複合型智能實體,不但擁有符號智能,還同時擁有信號智能和基因智能。
人類在突發情況下,或者做出重大決策時,或者在生死攸關時刻,起決定作用的往往不是符號智能,而是信號智能或基因智能。
信號智能或基因智能的決策依據是幾百萬年,乃至幾十億年的進化積累,這樣的決策更具有大局觀,更能經得住時間的考驗。
比如,我們緊急避險的本能快速而有效,此時沒有經過符號知識的邏輯思考,而是信號知識在發揮作用。
父母在危機情況下拼死保護子女的行為動機,不大可能來自符號知識的邏輯推理,更可能源於“自私的基因”。
更為重要是,人類擁有的信號知識和符號知識,大都是通過“信號知識-實體系統”複合進化、“符號知識-實體系統”複合進化獲取的,與實體聯繫密切。
而AI大模型輸出的知識,僅僅是有限數量的比特化符號知識封閉進化的結果,沒有經過複合進化的檢驗,無法真實表徵實體世界。
這些知識看起來似乎合情合理,有時還非常驚豔,卻屬於紙上談兵,空中樓閣。
因此,AI大模型經常出現“人工智能幻覺”、“一本正經地胡説八道”等情況,也就不足為奇了。