全球最大AI巨量模型誕生,參數規模高達2457億
*【環球網科技綜合報道】*9月28日,浪潮人工智能研究院在京發佈全球最大規模人工智能巨量模型 “源1.0”。據悉,源1.0模型參數規模為2457億,訓練採用的中文數據集達5000GB,相比GPT3模型1750億參數量和570GB訓練數據集,源1.0參數規模領先40%,訓練數據集規模領先近10倍,成為全球最大規模的AI巨量模型。
據介紹,“源1.0”在語言智能方面表現優異,獲得中文語言理解評測基準CLUE榜單的零樣本學習和小樣本學習兩類總榜冠軍。在零樣本學習榜單中,“源1.0”超越業界最佳成績18.3%,在文獻分類、新聞分類,商品分類、原生中文推理、成語閲讀理解填空、名詞代詞關係6項任務中獲得冠軍;在小樣本學習的文獻分類、商品分類、文獻摘要識別、名詞代詞關係等4項任務獲得冠軍。
在對“源1.0”進行的“圖靈測試”中,將源1.0模型生成的對話、小説續寫、新聞、詩歌、對聯與由人類創作的同類作品進行混合並由人羣進行分辨,測試結果表明,人羣能夠準確分辨人與“源1.0”作品差別的成功率已低於50%。
巨量模型的發展備受關注。斯坦福大學李飛飛教授等人工智能領域知名學者近期在論文中表示,這類巨量模型的意義在於突現和均質。突現意味着通過巨大模型的隱含的知識和推納可帶來讓人振奮的科學創新靈感出現;均質表示巨量模型可以為諸多應用任務泛化支持提供統一強大的算法支撐。
業內人士指出,源1.0中文巨量模型的發佈,使得中國學術界和產業界可以使用一種通用巨量語言模型的方式,大幅降低針對不同應用場景的語言模型適配難度;同時提升在小樣本學習和零樣本學習場景的模型泛化應用能力。
對此,浪潮人工智能研究院表示,“源1.0”將面向學術研究單位和產業實踐用户進行開源、開放、共享,降低巨量模型研究和應用的門檻,有效推進AI產業化和產業AI化的進步,切實為國家在人工智能研究創新和產業發展作出貢獻。