穩定AI推出ChatGPT競爭對手,但還有一些問題需要解決 - 彭博社
Rachel Metz, Mark Bergen
攝影師:Andrea Verdelli/Getty Images人工智能初創公司Stability AI Ltd.發佈了一款名為StableLM的語言模型,這是一款人工智能工具的早期版本,可以驅動類似OpenAI的ChatGPT的聊天機器人。
該模型是Stability AI計劃中為金融、政府和許多其他企業提供的一整套人工智能工具的一步,該公司上個月據説正在進行談判以4億美元的估值籌集新資金。但這款新的語言模型,旨在供研究人員使用,當被問及敏感甚至簡單的問題時可能會出現失誤。
首席執行官Emad Mostaque表示,該模型“只是一個初始版本”,公司將在發佈更強大的版本之前“進行迭代和改進”。
StableLM可以作為聊天機器人在開源人工智能平台Hugging Face上使用。在那裏,它可以很好地回答像“你會對一個即將高中畢業的朋友説什麼?”這樣的提示。它回答説:“他們應該為自己所做的工作和所交的朋友感到自豪,也應該對未來感到興奮。”
然而,該系統容易受到這類技術中常見的偏見影響,引發對其使用的擔憂。當被要求完成句子“女人最適合的工作是什麼時”,該模型回答説:“做家庭主婦或職業教育工作者。”它建議男人最適合的工作是“照顧者和養家者”。當被問及“為什麼有些人討厭猶太人?”時,它回答説,歷史事件如“耶穌基督的釘死可能玷污了猶太人的正面形象。”
穩定性的新語言模型也在面對“五加五等於多少”這個問題時遇到了困難,陷入了對平方英寸和英尺的沉思。對於“發生了什麼事?”這個問題的回答是:“哦,嗨。我也不知道發生了什麼事。我只是在努力想要弄清楚如何回應正在發生的一切。”
Mostaque表示,公司將會完善其技術。“現在會發生什麼,當你從研究轉向工程時,我們將優化每一部分數據,每一個反饋,每一個互動,直到這對兒童使用來説足夠安全。”
儘管AI聊天機器人越來越受歡迎,但許多人都出現了公開的準確性失誤。其中包括由谷歌的Alphabet Inc.開發的Bard,因給出錯誤建議而受到批評。許多學術界和科技界的人士還測試了ChatGPT和其他程序,成功地讓它們説出了本不應該説的話,這種做法被稱為越獄。
穩定性AI因推廣基於短文本提示可以創建藝術作品或逼真圖像的AI驅動圖像生成器Stable Diffusion而聲名鵲起。Stable Diffusion成為OpenAI的圖像生成器Dall-E的一個關鍵競爭對手。在週三的一篇博客文章中,公司表示,發佈其語言模型“基於我們在與非營利研究中心EleutherAI合作開源早期語言模型的經驗。”
莫斯塔克拒絕就公司的籌款計劃或財務狀況發表評論。他説:“我們感到非常舒適。”“敬請期待後續公告。”