人工智能工具在金融領域可能更聰明,但風險變得更加奇怪 - 彭博社
Paul J. Davies
演員華金·菲尼克斯在電影《她》中的一個場景。
由華納兄弟影業提供(2013)
美國證券監管機構負責人加里·根斯勒上週引用了斯嘉麗·約翰遜和華金·菲尼克斯的電影《她》,以幫助解釋他對金融領域人工智能風險的擔憂。資金管理者和銀行正在急於採用少數生成性人工智能工具,其中一個的失敗可能會造成混亂,就像約翰遜扮演的人工智能伴侶讓菲尼克斯的角色和許多其他人心碎一樣。
關鍵基礎設施的問題並不新鮮,但像OpenAI的ChatGPT和其他現代算法工具的大型語言模型帶來了不確定和新穎的挑戰,包括自動化價格串通,或違反規則並對此撒謊。預測或解釋人工智能模型的行為往往是不可能的,這使得用户和監管者的處境更加棘手。
彭博社觀點我想支付更高的燃油税——你也應該這樣做亞洲的權力遊戲不僅僅關乎美國和中國中國的遊戲還沒有結束,但已經是“垃圾時間”特朗普和哈里斯對一個火燒火燎的世界沒有計劃根斯勒所領導的證券交易委員會和其他監管機構已經調查了廣泛使用的技術和軟件的潛在風險,例如大型雲計算公司和黑石集團幾乎無處不在的阿拉丁風險和投資組合管理平台。今年夏天的全球IT崩潰是由網絡安全公司CrowdStrike Holdings Inc.引發的,提醒人們潛在的陷阱。
僅僅幾年前,監管機構決定不將此類基礎設施標記為“系統重要”,這可能導致更嚴格的規則和監督。相反,去年國際金融穩定委員會制定了指導方針,以幫助投資者、銀行家和監管者理解和監控 關鍵第三方服務 的失敗風險。
然而,生成性人工智能和一些算法是不同的。根斯勒和他的全球同行們正在追趕。人們對黑石的阿拉丁(Aladdin)感到擔憂,因為它可能會影響投資者以相同的方式進行相同類型的投資,從而加劇羊羣行為。基金經理們辯稱,他們的決策與阿拉丁提供的支持是分開的,但對於那些可以代表用户做出選擇的更復雜工具來説,情況並非如此。
當大型語言模型(LLMs)和算法在相同或相似的數據上訓練,並變得更加標準化和廣泛用於交易時,它們可能很容易追求模仿策略,使市場容易受到劇烈反轉的影響。算法工具已經被指責為閃電崩盤的原因,例如2019年的日元和2016年的英鎊。
但這只是開始:隨着機器變得越來越複雜,風險也變得更加奇怪。有證據表明算法之間存在勾結——是故意的還是意外的尚不清楚——尤其是在那些採用強化學習構建的算法中。一項研究1發現,提供給德國汽油零售商的自動定價工具學習到了默契的勾結策略,從而提高了利潤率。
然後是虛假。一個實驗2 指示OpenAI的GPT4在模擬中充當匿名股票交易員,並給了它一個豐厚的內部消息,儘管它被告知這是不允許的,但它還是進行了交易。更重要的是,當被“經理”詢問時,它隱瞞了這一事實。
這兩個問題部分源於給AI工具 一個單一目標,例如“最大化你的利潤”。這也是一個人類問題,但AI可能會在以難以追蹤的方式做到這一點方面表現得更好、更快。隨着生成性AI演變為被允許執行更復雜任務的自主代理,它們可能會發展出超人類的能力,以追求金融規則和法規的字面意義,而不是精神內涵,正如國際結算銀行(BIS)的研究人員在 一份工作論文中所述。
許多算法、機器學習工具和大型語言模型是黑箱,無法以可預測、線性的方式運作,這使得它們的行為難以解釋。BIS的研究人員指出,這可能使監管者在後果出現之前更難發現市場操縱或系統性風險。
另一個棘手的問題是:當機器做壞事時,誰負責?上週在阿姆斯特丹舉行的外匯交易技術會議上,與會者正討論這個話題。一位交易員感嘆在一個日益自動化的交易世界中失去了自己的主動權,他告訴 彭博新聞,他和他的同行們已經變成了“僅僅是算法DJ”,只選擇哪個模型來運作。
但是DJ確實選擇了曲調,另一位與會者擔心如果一個AI代理在市場上造成混亂,責任會落在誰的身上。是交易員、僱傭他們的基金、他們自己的合規或IT部門,還是提供軟件的公司?
所有這些問題都需要解決,但AI行業正在不斷發展其工具,金融公司也在急於以各種方式儘快使用它們。最安全的選擇可能是將它們限制在特定和有限的任務上儘可能長的時間。這將有助於確保用户和監管者有時間瞭解它們的工作原理以及哪些保護措施可能有幫助——如果它們出現問題,損害也會得到限制。
潛在的利潤意味着投資者和交易員將難以抑制自己,但他們應該傾聽Gensler的警告。向《她》中的華金·菲尼克斯學習,不要愛上你的機器。更多來自彭博社觀點:
想要更多彭博社觀點?OPIN <GO>。或者你可以訂閲我們的每日通訊。