人類的思維沒想象的高級,且在具體的生產中也沒想象的那麼富有創造性_風聞
知愚0000-04-01 07:39
【本文來自《馬斯克“宮鬥”GPT-5》評論區,標題為小編添加】
- 大智本行加V
- ChatGPT與智能沒半毛錢的關係,它就是一個在一堆肯尼亞勞工人工教導下的“人工智障”。ChatGPT全稱叫做Generative Pre-trained Transformer基於轉換器的生成式預訓練模型,這個Transformer其實是NLP自然語言處理領域的一個大語言模型,有兩個典型代表,一個是谷歌的BERT用Encoder訓練,另一個就是GPT用Decoder訓練適合於大型文本生成。BERT和GPT又分別是兩種NLP模型的代表,前者屬於雙向預訓練語言模型,後者屬於自迴歸預訓練語言模型,NLP的核心業務邏輯不是思考,而是“猜概率”——概率相關性分佈的建模,根據數據投餵、歷史經驗、人工反饋來猜測要説什麼,BERT是完形填空擅長理解語言,GPT是從左往右寫作文擅長文本生成。ChatGPT就是GPT的3.5版本,它實際上已經吃掉了三分之二的互聯網和整個的維基百科,並做了人類偏好優化,即人類反饋強化學習。它會什麼完全取決於互聯網上有什麼,它的回答都是互聯網知識的平鋪,沒有重點,不是它真的懂。未經訓練領域基本上是一本正經在胡扯,無法處理特別冗長或者專業的語言結構。它需要極大的算力來支撐,讓它變“聰明”的成本是很貴的。它還無法實時地利用新知識來訓練參數,並且可能像熊瞎子撿苞米。ChatGPT暫時是一個黑盒模型,無法保證它是否會做出一些比較有傷害性的回覆。它沒有思維、感情、意識,與真正意義上的智能沒有半毛錢的關係。沒了互聯網和維基百科的信息,它的智力就像白痴。説明它根本就沒有智力。
雖然它不是真正的人工智能,但由於它是NLP自然語言處理領域的一個大語言模型“基於轉換器的生成式預訓練模型”,所以,中國還是應該關注和投入其發展,只是對它的定位不要搞錯了。
人類的思維沒有你想象的高級,而且在具體的生產中也沒有你想象的那麼富有創造性。
具體而言:
1,已經有程序員做過嘗試:雖然GPT不能編寫一個複雜的程序出來,但是軟件工程師把一個大程序按照邏輯拆成許多個非常基礎的程序,讓GPT編寫這些基礎程序,然後按照順序“組裝”。那麼ChatGPT可以完成這項任務,他們聲稱可以節約95%的工作量,畢竟GPT還能改BUG。
2,很顯然這種事情推而廣之,除了編程,還有許多事情都不具有創造性。
比如説智能駕駛。而GPT-4就是為了在圖像上取得突破。
而且就人類“智慧”本身而言,也是基於超強的圖像分析能力。
所以如果GPT-4能在這點上慢慢突破的話,就能在許多工作上提高生產效率。
3,最後,你以為人的“智慧”是怎麼一回事?人類就真的理解了各種事物嗎?
就我個人的經驗,所謂的理解,你能在遇到某些事情時,能調用相關的知識和信息,從而把這個事物看成另外一種東西。
如 “物理學家的真空球形雞”,如“拿着錘子的人看什麼都像釘子”。這些諺語的確在批判人的思維要開放,不能太過偏頗。但是這些諺語也反過來證明,人類對事物的理解,本身就是偏頗的。
人類理解事物的過程:客觀對象→通過眼睛等傳感器把對象映射在大腦的存儲神經上→大腦開始一系列處理(處理1:視覺部分的自動簡化刪除和腦部。處理2:分析對象的特點,簡化,從而方便記憶。處理3:分析該對象的特點,對象和其他記憶的信息的相關性,從而產生關聯,這就是舉一反三。處理?人類大腦還有計算和推理功能,但是大腦非常不擅長做這件事情,需要消耗更多能量,而且計算機也會。處理?人類大腦還有其他未知超能力,畢竟現在腦科學不夠完善)。
好了,對比而言,你説GPT的自然語言處理技術,就是人類大腦去理解事物的處理方法之一,所以憑什麼説GPT沒有理解?