能“理解人類問題,並一本正經地胡説八道” 就已經説明GPT4的能力了_風聞
路平凡-03-30 09:27
【本文由“創新者的任務”推薦,來自《馬斯克等科技人士呼籲暫停訓練比GPT4更強大的AI系統,是我有了你不能有?》評論區,標題為創新者的任務添加】
- 經濟暴君
- 你向chatgtp詢問自己專業的問題,它給出的第一答案基本上是忽悠、糊弄。
如果你發現了錯誤,告訴它你錯了,它馬上就承認了。
這個模型訓練的基礎就是我先按照數據庫裏的信息糊弄你一下,如果你説錯了我就改,這樣逐步的減少它自己的錯誤,這樣持續訓練下來的一定是個忽悠大師。
比如它搞的假論文鏈接,假數據引用,就是這麼訓練出來的。
也就是説你如果真的想讓它搞點有用的東西出來是不可能的,車軲轆話一套又一套。
但是ai繪畫和ai視頻製作就非常的好用,因為這個領域只要足夠“像”,就真的變成真貨了。
這不恰恰證明了GPT4的高應用性嗎。
比如你這段評論,也是在“對GPT4底層機制一無所知”的基礎上一本正經的胡説八道。(沒有貶低的意思)
但難道其他人類,比如我,就要因此否定你的基礎智識能力?
車軲轆話本來就是人類語言的特色之一,對人類個體而言,在不觸及並深耕相關領域知識的情況下,最好的選擇是沉默,但是如果有不可抗力,要求你不能迴避答案,那可不就得一本正經的瞎扯嗎?
我覺得你話語中的“數據庫”,可能有種誤解,你是不是以為GPT4是一個可在線聯網實時搜索,或者説離線使用時,本地擁有大量現成數據資料的百科全書啊……
它只是一個語言模型啊!
還有,它在你的糾正下承認了自己的錯誤,也不是因為它“真的理解自己上文具體哪裏出錯了”,而是它“理解”了你新反饋中的否定含義,選擇重新抽獎,再次組織單字接龍罷了。
對語言包裹的信息做價值判斷(對與錯),是人類自己的事,跟AI本來就沒關係。
過往的那種搜索引擎式的思維,不再適用AI時代了。
以前的互聯網搜索,本質上是你直接跟其他人類的信息對接,搜索引擎只複雜通過關鍵詞架橋,那準確性當然高,但信息區間過大,需要人工摘選。
而AI聊天,其實是一個人機對接的窗口,只是把你的自然語言儘量吃透,然後翻譯給機器聽,僅此而已。
所以chatgpt更像是一個玩具,是openAI拿來展示應用性的,有價值的不是gpt4本身,而是它背後代表的通用語言模型。
千萬別把它理解成科幻電影裏全知全能的“機械神”。
它必將改變互聯網生態,因為它擊碎了人機交互的門檻。
還有,對AI繪畫方面,你依然在用“像”這個字來描述,説明你潛意識裏還是覺得AI是在搞臨摹和拼接……