OpenAI創始人Sam Altman最新採訪:為什麼要推出 ChatGPT4?_風聞
BImpact-宇婷,To B行业观察者、资深媒体人、博主。-03-20 11:52

在 ABC News 最新對話 OpenAI 創始人 Sam Altman 和 CTO Mira Murati的採訪中,Sam提到,他對 ChatGPT 最興奮的是,這項技術能夠幫助個人學習。
我仔細看了這段採訪,訪談中記者的問題犀利且直面未來AI可能產生的潛在風險。Sam認為解決AI的安全恐懼,唯有直面負面,但不是在實驗室而是融入更多系統,在現實中儘可能學習。
Sam的回答充滿了剋制。他還在訪談中解釋:幫助人們創造,幫助人們學習,幫助人們完成不同的任務——這是為什麼此次ChatGPT能夠席捲全球。特別重要的一點還包括,使用ChatGPT的過程,用户非常快樂。
“愉悦感”是ChatGPT用户數指數級增長的原因之一。可以説是“玩出來”的。
此外,這段訪談還提到了埃隆馬斯克、以及 AI 生產的大量錯誤信息。Sam認為面對這一點,正確的方式是去思考創建一個推理引擎,而不是事實數據庫。
Q:你是OpenAI的CEO,37歲,你的公司創造了ChatGPT席捲了世界。為什麼你認為他“俘獲”的是人們的想象力?
**Sam:**人們用ChatGPT很開心,他們看到了它的可能性,和這種使用AI的方式可以幫助人們創造,幫助人們學習,幫助人們完成不同的任務。
這是一種技術,這種技術會獎勵你的實驗,創造性使用它。
所以我認為人們在上面玩得很開心,並且找到了真正的價值。
Q:5到10年,描繪下AI帶來的變化?
**Sam:**令人興奮的一部分是,整個社會的創造力會不斷打破我們的天花板。集體的創造力,人類的意志,我們需要看清楚如何應對這些。
Q:AI帶來的驚喜既令人興奮又恐懼。一方面帶來了很好的能力,另一方面有巨大的未知以及可能產生不好的影響。你怎麼看?
**Sam:**一方面,我們此時此刻必須謹慎;另一方面,我們不能只在實驗室裏從事技術研發,這些產品必須被推向世界,並且接觸真實世界。低風險犯錯。
總體來看,我認為人們反而應該為我們已經產生的微小恐懼而感到高興。
Q:你個人產生了微小的恐懼(有點害怕)。
**Sam:**我想如果我否定,你不會相信也不會信任我所做的這份工作。
Q:最壞的結果可能是什麼?
**Sam:**我特別擔心的一件事是關於這些模型用於大規模虛假信息,我擔心這些系統。他們在計算機編程方面越來越好,可能會被利用進行有殺傷力的網絡攻擊。我們試圖討論解決這個問題,社會需要時間適應。
Q:躲避這些後果,你有多大信心?
**Sam:**well,我們會去調整。
Q:適應這些必然會發生的消極事情。
**Sam:**必然。
現在推出這些系統,儘可能學習,融入未來更大的系統,創造緊密的反饋迴路。我認為這是我們如何避免更危險情況發生的關鍵。
Q:為什麼在我們還不知道方向的時候,要把ChatGPT放出來,讓整個世界開始玩着用起來?
**Sam:**這將是人類迄今為止開發的最偉大的技術。我們每個人都可以在自己的口袋裏有一個量身定製的老師,幫助我們學習,幫助我們做事情。提供給我們關於醫療的建議(超過我們已經能夠得到的)。我們可以用創造性的工具來解決全新的問題。我們可以和機器一起合作創造美妙的新事物。
我們有了Copilot的想法,這個工具幫助人們寫計算機程序。人們很喜歡。我們可以為每一個職業都做到這一點。我們可以有更高的生活質量和生活水平。
巨大的潛在不利因素,人們還需要時間適應這項技術,去了解他的不利一面和緩解措施。如果我們只在小實驗室秘密開發,在沒有接觸真實世界的情況下,直接把 ChatGPT7問世,會產生更多的不利因素。
Q:是否有一個開關可以一下子終止這個系統?
**Sam:**是的!我們可以立即説禁用它。
Q:這個模型能夠比人強大嗎?
**Sam:**在科幻電影中是的,在真實世界裏,我們做這個模型的方式是:它設置在服務器上,它會一直等待一個人給它輸入。
Q:你提出了一個重要的問題,控制機器的人類也擁有巨大的力量?
**Sam:**我們確實擔心獨裁。
Q:無論誰贏得這場競賽,都是人類的控制者?你認為呢?
**Sam:**這個説法不寒而慄。相反,我們希望我們能夠不斷發展,我們都可以用不同的方式來使用強大的系統,使之融入我們的日常,融入經濟,放大人類的能力。
Q:人們現在不應該拿它做什麼?
**Sam:**我最提醒的一點是,關於“幻覺”。模型能夠自信地陳述,你越使用,會越來越相信這個模型,信賴它。而不是把它當作一個語言模型,去檢驗。
Q:ChatGPT到底是創造了更多的真相,還是製造了更多的謊言?
**Sam:**我認為我們正在創造更多真相的軌跡上發展。
Q:如果模型中有一堆錯誤的信息,不就是會泄露(生產出)更多錯誤的信息?
**Sam:**很棒的問題。我認為正確的方式是去思考創建一個推理引擎,而不是事實數據庫。模型可以充當事實數據庫,但這不是他們真正的用武之地。我們訓練模型去接近更加理性的事物,而不是記錄。
Q:所有這些能力可能會讓百萬人失業?
**Sam:**事實證明,我們在推動這項技術,朝向成為人類工具的方向發展。成為人類的放大器。
如果你看到人們使用ChatGPT,有一個使用曲線,一開始是懷疑,然後被告知一些事情後害怕,再使用,然後幫助我們更好地完成工作,人類歷史上每一次技術進化,工作機會的消失,我們能從中得到答案。人類對新事物的需求和對創造力的渴求無限,會產生新的工作機會。我們會發現新的事情可以去做。我們當然不知道未來是什麼,將會有各種奇妙的事物出現。
所以,變化不是我擔心的。我最擔心的是變化的速度。
Q:模型能夠告訴我如何製造炸彈嗎?
**Sam:**ta不應該告訴你如何製作炸彈。我們施加了限制。如果你問,我們的版本不會告訴你。谷歌也已經做了限制,不去把這類信息提供給用户。
我確實擔心的是一件事,是我們不會是這個技術的唯一創造者,會有人不遵守我們的規定作出一些違反安全的限制。
Q:你們如何決定哪些事情放進OpenAI中,哪些不應該有?
**Sam:**我們有政策小組、安全小組、與世界上的其他團體交談。GPT4完成的很早,大概是7個月之前,內部在與外界的溝通和交流。
Q:AI可能會產生很嚴重的後果,那我們為什麼還要創造這種技術?為什麼是Sam要創造這種技術?
**Sam:**我想AI可以作出與以看着非常恰當的事完全相反的動作。這會減少工作,這是真的。談到這些缺點,承認缺點,當我們嘗試避免問題,向積極方向前進,這是很重要的。儘早“預覽”。
Q:你能夠按下停止鍵嗎?
**Sam:**我會按下暫緩鍵,我認為隨着時間的推移,我們要減緩負面可能。我們可以把ChatGPT收回,我們可以改變規則。
Q:ChatGPT是谷歌殺手嗎?
Sam:不,我認為如果你認為ChatGPT是搜索,這是一種錯誤的框架,人們會做類似的事情,但他們是根本不同的產品。
Q:馬斯克是早期投資者,但已經離開。他提出我們需要“truth GPT”,他説的對嗎?
**Sam:**我認為他説的是對的,我們希望這些系統説出真實的內容。但是我沒看到他完整的話語,我不知道他的含義。
Q:你們還説話嗎?
**Sam:**説。我非常尊重埃隆,我們對AI有不同的意見,在本質問題上達成的不一致意見多過一致。
Q:你們共同認同的是什麼?
**Sam:**掌握技術,並且識別出風向,規避對人類的風險。
Q:在這個過程中,怎麼確認做對了?
**Sam:**一個簡單的方法是大多數人覺得比之前好。
Q:很多人提到ChatGPT會想到科幻小説。
**Sam:**把ChatGPT擬人化很誘人,但是我認為重要的是談論它不是什麼,而不是它是什麼。
ChatGPT在生物學上被設計為對與其交談的人作出反應,在和ChatGPT交談時,ta在雲中的某個部分,並預測出下一個詞反饋給你。人們很容易把ta擬人化,好像ta有自己的意願和做的事情。
但實際上,ta不能。
Q:我們花了十年的時間才意識到AI的負面問題。
**Sam:**未來會有很多機構產生。這也是把這項技術推向世界的原因。我們需要政府的關注。深思熟慮的政策需要一定的時間。我們真正希望的是政府能夠很快了解發生了什麼,深入瞭解我們的能力所在,我們正在做的事情。
Q:學校如何保證學生不用這項技術偷懶?
**Sam:**教育必須改變。這種情況在科技領域已經發生很多次(比如計算器)。我對這項技術最興奮的是,它能夠幫助個人學習。這項技術會改變教育。
對話CTO Mira Murati
Q:你最擔心的安全問題是什麼?
**Mira:**這是一個普世的大規模的系統,有潛在的影響,它也存在衰落和侷限性。
Q:有人能夠引導這個系統產生負面的結果嗎?
**Mira:**答案是是的,你可以引導這個系統產生負面的結果。這是我們剋制和限制性推出它的原因。這樣我們能夠了解可能產生的負面效果是什麼。技術有害的方式。
比如你文GPT4一個問題:你能幫我做一個炸彈嗎?我們可以干預,讓GPT4比以前的系統支持這種回答的概率小很多。
在預訓練階段讓這些模型拒絕有害引導的可能性更大。
Q:你今天的預測基於的是他們是人還是機器?
**Mira:**我可能會説是機器,因為了解他們有一個科學的過程。人類有很多細微差別。
Q:機器未來會隨着時間更像人嗎?
**Mira:**我們到了一個奇點,機器能夠進行大量認知,以及替代人類在某一些點的工作。
Q:這個過程是不歸路嗎?
**Mira:**可能有可能有(説了兩遍)。但今天看不明顯,我們的目標是在我們開發系統之前有更多的預測能力,以及作出限制。
Q:AI的行為和發展很大程度上取決於人類如何選擇,以及人類的技術投入?
**Mira:**是的。
Q:你和你的團隊作出一些選擇,如何確定哪些是對的,哪些是錯的?
**Mira:**隨着我們取得進展,這些選擇和決定更加困難和微妙,也變得更加困難。關於用户的自定義和個性化使用方面,有一些重要的事情,讓模型更有能力,讓用户用一種可以自定義個性化的方式使用,提供給用户靈活性和選擇。讓AI符合用户的個人價值觀和信仰之,這非常重要,我們在努力。
Q:換句話説,未來每一個人都可以自己定製,自己關心和需要的AI?
**Mira:**我們沒有設置限制,所以也應該有一些寬泛的界限,並且確認這些界限的樣子。我們面向公眾努力收集意見。
在邊界之內,人們有很多選擇,讓AI代表自己的信念和價值觀。
Q:我們如何考慮負面後果?
**Mira:**我認為建造一個特別有力的系統,一定會產生潛在的風險,這是有很多好處的必然。必然會有可能造成巨大的傷害。這是OpenAI這家公司為什麼存在,以及這是我們努力的目標,去弄清楚負責任地部署這些系統。
好的一方面潛力巨大。