現有的AI大模型沒有一個能通過圖靈測試?_風聞
Tearkk宅猫-1小时前
【本文由“guan_17107286732084”推薦,來自《Sora拍片真實體驗:大力難出奇蹟,全靠人工逐幀後期》評論區,標題為小編添加】
- 噩夢種子
- 對,尚未可知,你怎麼就知道它會不會是下一個產業革命呢。
你的話讓我想起了我當年學畫時候的經歷,我當年學畫的時候家裏人總跟我説,以後學出來去畫海報吧,那行挺掙錢的。
結果,我還沒入學呢,大型彩噴打印機開始普及了,海報繪製這一行全體失業。
等我入學後,學的是廣告設計,心想這下行了,你有打印機也得用我的專業。
然後,我眼睜睜的看着我的一個同學用PS3.0在一個小時不到的時間裏面,繪製出了我一下午都畫不完的設計作業。
後來我又改行做裝飾設計,為了練出一張合格的手繪效果圖,我不到半年的時間畫了五百多張景物速寫。
然後,3DSMAX開始在國內普及了。。。。。。。
當我終於學會3DSMAX開始進入工作,並且自我創業小有成就之後,這兩年AI繪圖又誕生了。
所以,我這半輩子以來的經驗教訓就是,對新技術的產生要保持敬畏,你永遠都不知道這個技術會對你的行業帶來多大的影響。
我這半輩子所學到的東西就是,不要排斥新技術,要擁抱新技術,
當你開始排斥新技術時,那就意味着你開始落伍了,開始走向被行業及社會所淘汰的進程。
ai有很多用處,但不是資本吹噓的那樣能顛覆這顛覆那,它本質是一個超大型的數據庫,以往的數據庫受限於硬件處理能力和軟件的檢索速度,不能存儲太多的數據、太多的類型、個位數組合檢索條件.
隨着硬件能力的提升以及網絡傳輸速度提升才能支持的分佈式技術還有一些新型算法的實現,超大型分佈式數據庫得以實現(類似阿里巴巴後台的那種數據庫),這種數據庫的數據是天文級別的而且理論上可以無限擴充(只要有無限的硬件),這麼多的數據通過指數級的組合條件篩選、過濾、組裝總能搞出足夠多讓人讚歎的東西來,特別是近些年自然語言處理技術讓人找到了一部分語言對話的規律(類似科大訊飛那種),將這種規律用於ai對話讓人有了ai很智能的錯覺,但事實是現階段ai模型沒有一個能通過圖靈測試(資本輿論很聰明的不提這一點),所以現在説的所謂“ai”實質上是一個學會了一部分人類説話方式的效率助理,它能幫人類從機械、重複、非創造性、有規律的事物中解脱出來,但無法創造出超出人類經驗的事物,它在人類歷史中的地位類似於馬蹬對於人類早期的騎兵,馬蹬能讓騎兵作戰能力提升,但沒有馬蹬騎兵還是騎兵就是多休息幾次少了一些戰術選擇而已,並不是火藥那種顛覆式的。
事實上現階段的ai理論基礎是神經網絡,簡單來説就是人類的智能來源於大腦,但大腦的組成單位—神經元卻沒有智能,而神經元只有簡單的幾種反射,數以百億的神經元通過網絡的模式組合起來經過訓練(人類的學習)就有了智能,雖然人類目前還不知道這其中的奧妙,如果能通過程序的模仿達成目標也算是研究智能的助益(類似黑盒理論),於是就通過封裝各種算法形成算子再組合成各種模型(就是前文説的組合條件),算子就是模擬的神經元,模型就是模擬大腦的物理結構,在通過讓模型處理數據的方式進行訓練(學習),看看最後能不能出現智能,在這個過程中捎帶手出現了深度學習和自然語言處理一類的技術,在各類資本無法通過技術進步賺取鉅額利潤的今天(題外話:資本生來就是要增殖的不增殖就要吃人,這是內卷的根本原因),這些技術被資本們迫不及待的拿來炒作,用來製造虛假的技術差,以騙取鉅額利潤(割韭菜),近年來好多次來自西方的科技炒作都是這種,比如區塊鏈比如大數據,都是很有用但並不是那麼具有顛覆性和高不可攀的技術。
到今天神經網絡的研究還沒有完成,還是沒有搞明白怎樣產生智能。現階段所謂算力硬件,模型訓練動輒幾千幾萬台機器規模幾百萬度電的消耗,都只不過是場資本的狂歡,智能的本質是聰明是效率,相比真正的智能根據一段文字描述寫一篇文章耗能最多一個饅頭,耗幾百度電的能算聰明算智能?高能耗是馮諾依曼結構計算機的天性,高算力必定導致高能耗,按照人類的智力能耗比,馮諾依曼結構的計算機要生成智能所需的能耗只有核聚變才能提供,沒法指望這類型計算機產生智能就像沒法指望航天火箭燒水洗煤一樣,你能説水洗煤不好?它只是推不動火箭而已,要思考,不要被誤導。