外媒:麻省理工學院推出新模型,借鑑大型語言模式訓練機器人
【環球網科技綜合報道】11月4日,據TechCrunch消息,近日,麻省理工學院展示了一種全新的機器人訓練模型,該模型突破了傳統方法依賴標準數據集的侷限,轉而模仿大型語言模型(LLM)所使用的大規模信息處理方式,為機器人學習新技能提供了全新的途徑。
在傳統模仿學習中,機器人通過跟隨執行任務的人類或其他代理進行學習。然而,這種方法在面對如照明變化、不同環境或新障礙等小挑戰時,往往因數據不足而難以適應。為了克服這一難題,麻省理工學院的研究團隊借鑑了GPT-4等大型語言模型的強力數據方法,探索了一種新的解決方案。
“在語言領域,數據以句子的形式存在,”新論文的主要作者王立睿指出,“但在機器人領域,數據具有高度的異質性。如果我們想以類似語言模型的方式進行預訓練,就需要構建一種全新的架構。”
為此,研究團隊引入了異構預訓練變壓器(HPT)這一創新架構。HPT能夠整合來自不同傳感器和環境的多樣信息,並利用變壓器技術將這些數據彙總到訓練模型中。值得注意的是,變壓器的規模越大,其輸出效果也越好。
在使用該模型時,用户只需輸入機器人的設計、配置以及期望完成的任務,系統便能根據這些信息為機器人提供所需的技能。這一創新不僅提高了機器人學習的效率和靈活性,也為實現更廣泛、更復雜的機器人應用奠定了堅實基礎。
卡內基梅隆大學副教授戴維·赫爾德在評價這項研究時表示:“我們的夢想是擁有一個通用的機器人大腦,用户可以直接下載並使用它,而無需進行任何額外訓練。雖然目前我們還處於這一願景的早期階段,但我們將持續努力,希望藉助規模化的優勢,在機器人策略方面取得像大型語言模型那樣的突破性進展。”(文智)