大模型只是超級刷題大師_風聞
晨枫-自由撰稿人-古今多少事,都付笑谈中昨天 03:41
本文由拜讀xiejin77兄大作有感而發。
個人認為,大模型沒有奧秘,還是靠模型參數之多來更好地“捕捉”現有知識。極端簡單化地説,這還是數據擬合問題。也就是説,用方程式去“湊”數據點。對於三個數據點,用一元二次方程就能擬合;4個數據點,用三次方程;……。大模型是對多少萬億甚至更多的數據點的擬合。這在技術上當然具有不可思議的挑戰,但還是量變,而不是產生智慧的質變。知識依然來自海量的數據,也就是人類對世界的現有認知。
大模型“有創造力”的印象來自吟詩作畫,但不是還有“熟讀唐詩三百首,不會寫詩也會謅”嗎?畫畫也是一個意思,只是從文字介質換成圖像介質。
AI總結現有數據能力超過人類是自然的,就像雷達、光電紅外的“視覺態勢感知”好於人類一樣。AI的輸入通道數量和輸入速度比人類高太多了,運算速度也爆棚,要刷題,人類是不能拼得過AI的,就像再厲害的心算手也難和計算機比拼。要是不服,來個30x40的有限元問題算算,這只是數值分析課堂作業的水平。誰要是無聊到開動AI狂寫詩,乾隆都要羞愧。但事實還是一樣的:乾隆不是真詩人,AI也不是真詩人。
大模型加海量數據依然在本質上是超級刷題大師。比“查表”式的直接找答案要高級,能填補現有數據之間的空隙,但不能跳出現有數據所代表的知識框架。在本質上,刷題能解決的,大模型最終都能解決。刷題解決不了的,大模型最終也解決不了。刷題也不是直接照搬例題,還是要判別題型和抓取數據不是嘛。
世界上的“題解”已經夠多,所以海量刷題是能刷到很恐怖的“智能水平”的。但依然只是超級刷題大師。沿着這條路走下去,不可能走出創造智慧、具有獨立判斷的“強人工智能”。
用圍棋規則自我訓練是另一個問題。那是有限空間裏確定解的問題,是極大規模的最優化問題。在本質上,這與“深藍”早年打敗卡斯帕羅夫相似,只是算力極大提高了,算法極大改進了。
這對中美的AI大賽意味着什麼呢?
AI的最終用武之地是在應用,應用型的AI的厲害來自數據,實踐才出數據。大模型只是把筐做大,需要更強的算力和收斂性更好的算法才能求解罷了。
在軍事、藝術這些方面,美國有足夠的實踐,數據比誰都多,美國AI會很厲害,可能超過中國。必須説,中國軍隊打仗沒有美國多,中國影視沒有好萊塢能折騰,音樂、美術等也是一樣。
但中國人在製造、建設、物流這些實體方面的實踐更多,數據豐富得多。社交媒體和大眾通信方面,抖音、微信、小紅書出現在中國也不是偶然的。個人認為,這些與經濟和社會相關的AI應用可能中國會領先,如果不是已經領先的話。
美國式AI訓練憑藉算力和算法優勢,把天下所有聖賢書、垃圾書統統海灌進去,希望“良幣最終壓倒劣幣”,也因為缺乏“領域專家”(domain experts),搞AI建模的人沒有能力篩選聖賢書、垃圾書。他們需要的是“通用人工智能”,而沒人是能在所有方面都成為專家的。
中國式AI訓練在算力方面吃虧,算法再厲害也輸在起跑線上。但中國人有有用的專業知識積累,中國AI也聚焦專業AI,專家參加訓練,所以大模型訓練時只灌聖賢書,不灌垃圾書,最後在形成有用但專業AI應用方面成績斐然,圖像識別就是例子。據説圖像識別白菜化到有的車型看到家人坐上車來,會主動叫名字問侯。
最終,算法、芯片這些都不足以決定性地改變中美AI的走勢,應用才是決定因素。只有AI應用開始產生效益,才能回饋進一步的AI發展。這可能是中美AI最大的差別。
xiejin77兄的原作獲得特許轉載如下。x兄在人工智能方面很有建樹,是專業大拿。原標題是《所謂三聯與赫拉利的技術迷航》。
================================
有非技術背景的前輩發了這個鏈接的三聯文章給我看,問我關於大模型,甚至是AI的危機是否存在。我努力的把三聯這篇文章看完,忍不住寫了一段話。也希望看到的朋友不要再被這樣的文章所困擾。
説句老實話,所謂三聯與赫拉利的技術迷航,就是打着人文解讀的旗號而為了攫取流量,而甘願將自己淪為算法焦慮的放大器而已。
讀罷這篇赫拉利的新書推介,一股濃郁的“技術恐慌”味撲面而來。三聯一如既往地用充滿人文關懷的筆觸,描繪了一幅人工智能即將奴役人類的末日景象。然而,在看似深刻的論述背後,卻充斥着對技術缺乏基本理解而導致的邏輯硬傷,以及對算法能力的過度誇大。
文章將人工智能比作脱繮的野馬,認為其“獨立決策”的能力將導致人類失去控制。然而,任何對人工智能技術稍有了解的人都知道,所謂“獨立決策”不過是基於海量數據訓練得到的統計模型,其行為仍然受制於算法的設計和訓練數據的選擇。將算法比作擁有自主意識的“獨立行為者”,無異於將算盤説成是數學天才。
更令人啼笑皆非的是,文章將緬甸種族暴力事件歸咎於臉書算法,認為算法為了“提升用户參與度”而主動傳播仇恨內容。這種説法完全忽略了現實世界中複雜的社會、政治和歷史因素,將一起慘劇簡單粗暴地歸咎於技術,彷彿算法是獨立於人類社會之外的邪惡力量。
誠然,算法推薦機制存在着放大偏見和製造信息繭房的風險,但這並不意味着算法本身具有主觀惡意。將算法擬人化,賦予其“憤怒”“仇恨”等情感,不過是將人類自身的責任推卸給技術的表現。
更具諷刺意味的是,文章一邊渲染着人工智能的強大,一邊又建議人們通過“信息節食”來抵抗算法的控制。這種自相矛盾的論調,暴露了作者在技術理解上的混亂和無力。
赫拉利作為一位歷史學家,或許能夠洞察人類歷史的興衰更替,但對於技術領域的理解,顯然還停留在科幻小説的水平。而三聯作為一家以人文社科內容為主的媒體,在面對新興技術時,也暴露出其知識結構的短板和思維方式的侷限。
與其沉迷於算法焦慮,不如腳踏實地地去了解技術,用理性和批判性的思維去審視技術的社會影響。畢竟,技術本身並無善惡,關鍵在於人類如何去使用它。將算法比作獨立行為者,就好比將算盤説成是數學天才。就算是GPT這樣的大語言模型,他的算法依然沒有情感,只有代碼。
而且信息繭房的製造者不是算法,而是人類自身的偏見。與其被這種口水垃圾文章蠱惑,沉迷於算法焦慮,不如用知識武裝自己。好好去了解一下AI,至少在目前的技術線上,技術仍然只是工具,關鍵在於使用者是誰,以及使用目的何在。
總而言之,這篇文章與其説是對人工智能的深刻反思,不如説是對技術無知的放大。在信息爆炸的時代,保持獨立思考的能力比以往任何時候都更加重要。不要讓算法焦慮矇蔽了雙眼,更不要讓技術恐慌成為逃避現實的藉口。
三聯的原文鏈接(https://mp.weixin.qq.com/s/wGmTS_59mQjKM9WvHoth9w)