OpenAI與Anthropic高管新加坡“聚首” 探討AI安全與監管 | 聯合早報
zaobao
OpenAI首席科技官穆拉蒂(Mira Murati)認為,如果各大人工智能(AI)企業圍繞安全性展開競爭,且不走“捷徑”,這其實是一件好事。
穆拉蒂星期四(5月30日)在新加坡亞洲科技會展(Asia Tech x SG)的ATxSummit上,通過視頻對話表達上述觀點。穆拉蒂也是首席執行官奧爾特曼(Sam Altman)之後,OpenAI的第二號人物。
本週,電動車巨頭特斯拉(Tesla)首席執行官馬斯克(Elon Musk)旗下的人工智能起步公司xAI,完成60億美元(約81億新元)的B輪融資,以期與OpenAI等AI巨擘競爭。
穆拉蒂認為,重要的是安全地、負責任地競爭。OpenAI的目標是構建安全且有益於人類的通用AI(AGI),即與人類同等甚至超越人類的智能。
她説, 當前科技發展迅速,OpenAI正在安全性和社會影響方面加倍投入資源,“為即將到來的進步做好準備”。
延伸閲讀
[調查:我國2030年AI經濟效益可達1983億元 約佔去年GDP近30%
](https://www.bdggg.com/2024/zaobao/news_2024_05_31_685666)
[本地醫療團隊用大語言模型 研發“虛擬醫生”居家看診
](https://www.bdggg.com/2024/zaobao/news_2024_05_30_685435)
過去一年多,生成式AI打開了人們對未來的想象空間,也引發一系列擔憂。在ATxSummit的另一場爐邊對話會上,AI起步公司Anthropic總裁阿莫代伊(Dario Amodei)同樣談到AI的風險與監管問題。
成立於2021年的Anthropic,早期的團隊成員全部來自OpenAI,他們因為與OpenAI理念不合而另起爐灶。
阿莫代伊認為,在未來一兩年內,無論從全球安全、選舉、還是算法偏見層面,AI模型都可能做出“非常危險”的事情,這是非常現實的擔憂。
Anthropic總裁:須衡量算法偏見等風險
所謂的算法偏見,指的是當AI模型的訓練數據集包含了決策者的固有偏見,這些偏見會被系統編纂和放大。譬如,如果一個人臉識別AI系統,訓練數據以白人面孔為主,那麼它對其他人種的識別能力就會相對較差。
阿莫代伊説,從監管角度來看,衡量這些風險非常重要,若不能有效衡量,監管就無從談起。在他看來,最值得信賴的監管方式是採用第三方測試。
在這種模式下,政府不必對AI系統進行全面測試,而是創造一個具一定標準的市場來進行。
當前,新加坡資訊通信媒體發展局(IMDA)已與Anthropic等模型開發商合作,使用生成式AI評估沙盒,來對AI系統進行測試評估。
即使技術帶來的風險仍不明確,兩位生成式AI時代的領軍人物都對AI的經濟前景充滿信心。
穆拉蒂説,在很短時間內,AI已成為人們的工作夥伴,尤其是最近發佈的多模態模型GPT-4o,展現強大能力。“我們並沒有完全意識到這對企業和工作的影響,因為它剛開始,但我預計,隨着系統變得廣泛可用,這將(對企業)相當重要。”
阿莫代伊説,不論AI最後會否通往AGI,如果規模指數級增長下去,會得到越來越好的模型,發揮巨大價值。例如,AI可以在藥物研發等方面輔助人類,甚至可做出科學發明,“發明十個像PCR(聚合酶鏈式反應)或脊髓灰質炎疫苗這樣的東西”。
AI發展挑戰可被克服
阿莫代伊認為,從未來產生的價值來看,當前對AI領域的投入相當理性。“如果你問,為什麼人們花1000億美元來訓練這些模型?事實上,這些事物產生的價值將遠超1000億美元。”
他也提到了AI的“規模定律”,即輸入更多的數據和更多的計算,模型就會變得智能。
未來,AI發展可能面臨一些障礙,但可以克服。一方面是數據,他認為,在一兩年內,網上可自由獲取的數據量會達到極限,目前已有一些合成數據的方法,將緩解這一瓶頸。算力方面,能源供應可能面對限制,但這個問題也正獲得解決。