ChatGPT能取代你的財務顧問嗎?目前還不行,但等等看——《華爾街日報》
Shlomo Benartzi
ChatGPT及其競爭對手已經達成了一些令人矚目的里程碑——它們能通過律師資格考試,還能協助解決醫療案例。
那麼,這些AI工具現在就能取代你的財務顧問了嗎?
乍看之下,AI顧問的優勢顯而易見。專業財務諮詢費用高昂,許多美國人負擔不起。AI可以降低這些成本,讓所有人隨時獲得智能化的個性化指導。AI還能擴大顧問覆蓋的財務決策範圍,提供更全面的建議。如今人們不僅需要將ETF納入投資組合的建議——他們還要在儲蓄、保險和債務管理等方面做出艱難抉擇。
但儘管AI在某些方面能做得和財務顧問一樣好,有時甚至更出色,它目前還無法取代人類顧問。
要理解其中原因,讓我們看看有效財務諮詢的五個關鍵特質,評估AI當前的表現,以及它需要如何改進才能達到目標。
1. 糾偏能力
先説壞消息。
財務顧問提供的重要價值之一就是糾偏,即幫助客户避免由行為傾向導致的昂貴錯誤。比如人們傾向於過度重視短期損失而投資過於保守,即便他們的投資期限長達30年或更久。在我與理查德·塞勒共同進行的研究中,看到一年期投資回報圖表的人將40%的資產配置為股票,而看到長期圖表的人配置了90%——儘管兩組投資者都是為長期投資。
一位優秀的顧問能幫助人們做出符合長期目標的財務決策。他們引導客户遠離那些短期圖表或手機上不斷彈出的最新市場波動,協助客户選擇與其實際投資週期相匹配的投資項目。
遺憾的是,加拿大皇后大學楊晨團隊的工作論文顯示,ChatGPT表現出許多與優秀顧問努力規避的行為傾向和認知偏差。例如,人類在遭受損失後往往會選擇更高風險選項以求翻本——這在拉斯維加斯被稱為"加倍下注"。ChatGPT同樣存在這種傾向,可能導致代價高昂的錯誤。若投資者在加密貨幣崩盤後損失慘重,ChatGPT可能會認為他們應該加倉加密貨幣,進一步押注高風險資產。
情況甚至更糟。因為AI工具還存在嚴重過度自信問題——它們並非偶爾出錯,而是經常自認為正確。這不僅無法自我修正,還會給客户製造虛假安全感,從而放大既有偏見。
要提升AI顧問的表現,我們需要建立元規則(即管理其他規則的規則)來克服這些偏差。可行方案之一是讓AI在推薦具體金融操作時,必須同步審查該操作可能存在的錯誤理由。這就像內部審計機制,迫使系統審視可能遺漏的因素。
元規則之所以經常必要,是因為這些AI工具的學習方式。它們被稱為大型語言模型(LLM),通過從互聯網抓取的海量文本數據集進行訓練。由於互聯網往往以未經過濾的形式反映人性,這類軟件會折射出人類許多低級的衝動和傾向。
好消息是,通過應用元規則,AI幾乎肯定比人類更容易消除偏見。雖然我們無法直接編輯大腦中的"軟件",但可以修正AI模型。
2. 共情力
顧問的第二個關鍵素質是共情力。想象一位對市場波動感到緊張焦慮的投資者。研究表明,投資者的情緒底色會對其財務決策產生重大影響——恐懼會驅使他們規避風險,而憤怒則導致更冒險的行為。優秀顧問的職責就是在市場動盪時提供安撫支持,避免恐懼等情緒損害長期財務前景。
值得慶幸的是,ChatGPT在共情方面表現卓越。最近一項研究比較了ChatGPT與人類醫生對網絡論壇真實患者提問的回覆。由醫療專業人員組成的評審小組從信息質量和共情力兩個維度評估這些回答。
結果AI取得了壓倒性勝利。醫療專家認為ChatGPT提供"良好或優秀"信息的概率是人類的近4倍。而在共情力方面,ChatGPT的得分更是人類的近10倍——45%的AI回覆被評為具有共情力或高度共情力,而醫生回覆僅佔4.6%。
這些結果表明,人工智能已能出色完成部分財務顧問的關鍵任務。雖然顧問在市場調整時未必總能抽出時間或具備能力安撫客户,但AI技術能幫助他們更具人情味,至少能放大其人性化服務。例如,下次市場大幅下跌時,顧問不必僅限於給幾位高淨值客户打電話,AI可針對每位客户提供共情式回應。若某客户每日查看投資組合,AI既能展示長期市場趨勢的安撫性數據,也能説明擇時交易的高昂代價。
3. 準確性
顧問的另一重要品質是確保事實準確。即便AI能消除偏見,其建議仍需基於對投資、通脹、税收等要素的精確表述。
更多壞消息:當前AI工具極不可靠且錯誤頻出。例如當我讓某主流AI工具比較先鋒與富達納斯達克指數基金時,它給出了一份聚焦長期業績和管理費率的漂亮分析——唯一問題是選錯了分析標的,誤用先鋒標普500基金和富達房地產基金的數據作答。其回答既充滿自信又完全謬誤。
此問題可通過插件或外部工具大幅改善,即讓AI調用輔助功能彌補短板。就像谷歌回答數學題時會同時啓動計算器,AI工具也應如此。除計算功能外,AI顧問還應接入晨星等可靠金融數據庫,確保其模型與建議基於真實市場數據。
“人們常常誤以為語言模型能包辦一切問題,而非智能應用中的組件。”微軟研究院高級首席研究員丹·戈爾茨坦表示,他專攻人工智能與人機交互領域,“金融界優化的系統和海量數據存儲不會被AI取代——它們將被AI調用。”
相比人類顧問,AI或許更容易監控利益衝突。插圖:道格·柴卡### 4. 最佳利益原則
顧問必須以實現客户最佳利益為行動準則。例如,他們不能僅因佣金更高就推薦費用更貴的基金類別。理論上,AI產生利益衝突的可能性更低——與人類不同,ChatGPT不會試圖最大化自身收入。
但這僅是理論推演,我們並不清楚AI的實際表現。一種可能是它會面臨與人類相似的問題。例如,研究發現投資者更傾向於購買營銷費用更高的共同基金,即便這些費用會通過更高佣金降低整體收益。雖然這類基金很可能投資價值更低,但消費者仍受廣告影響。AI可能陷入相同陷阱,因為廣告投入更大的基金在AI數據庫中會顯得更突出。
鑑於這種不確定性,AI架構師審核數字顧問的建議至關重要。這類似於一條元規則,只不過其目標不是消除偏見,而是消除利益衝突。
幸運的是,相比人類顧問,AI可能更容易監控利益衝突。如果軟件開始建議高費用投資或高利率抵押貸款,而實際上存在更便宜的替代方案,AI工具甚至可能自動糾正,就像拼寫檢查修正錯別字一樣。
Goldstein認為關鍵在於強調透明度。“當決策在幕後做出時,我們只能猜測這些問題,“他説。“但如果每個決策的輸入和輸出都被記錄,就可以進行前所未有的檢查。”
5. 一致性
好的財務建議應該具有一致性。也就是説,如果同一個客户帶着相同的投資組合去找不同的顧問,他們應該提供類似的建議,專注於那些經過時間檢驗的原則。
然而研究表明,顧問們難以提供始終反映客户目標、情況和偏好的建議。最近一項研究顯示,當顧問去世或退休後,客户被隨機分配給新顧問時,他們往往會投資於費用和風險特徵不同的基金。這並不是因為他們的投資偏好突然改變——而是因為新顧問將自己的信念強加於他們的投資組合。如果新顧問為自己的個人投資組合選擇了高風險投資或昂貴基金,他會假設客户也偏好這些。
這應該是一個可以解決的問題。人工智能建議應能通過確認向具有相似財務需求和偏好的客户提供相同建議來實現一致性。一旦AI工具實現一致性,軟件應向處於相同情況的客户提供相同的建議,就像Netflix根據相同的觀看歷史向人們推薦相似內容一樣。
未來可能的樣子
在AI能成為有效的財務顧問之前,還需要很多改進。儘管如此,很明顯AI將在財務建議的未來扮演重要角色。
這個未來可能是什麼樣子?
一個潛在的模型來自醫療領域,在那裏智能軟件和醫生多年來一直作為混合團隊合作。特別是,醫生越來越依賴AI工具來幫助他們提高護理質量,因為這些工具可以生成一長串可能的診斷,減少誤診或縮短診斷時間。
當然,仍然需要人類醫生來篩選ChatGPT生成的可能診斷的擴展列表,並選擇最佳診斷。這表明AI可以幫助我們擴展思維,即使它實際上無法自己找到答案。
雖然沒有關於混合財務建議質量的研究,但我推測,只要人類學會如何有效地與AI合作,混合模型將會勝出。一個原因是被稱為算法厭惡的行為傾向——人們傾向於拒絕自動化軟件,除非它近乎完美。這意味着大多數客户會更喜歡由專業人士監督的AI提供的財務建議,就像人們期望飛行員在駕駛艙監督自動駕駛儀一樣。
更重要的是,混合方法還可能顯著增加獲取建議的途徑。我希望人類顧問能利用人工智能來幫助服務更多人。
對於那些仍負擔不起人類顧問服務的美國人呢?我相信只要我們能解決涉及準確性和去偏見的關鍵問題,人工智能可以24/7全天候提供建議。
如果你是金融顧問,我不會擔心ChatGPT會搶走你的工作。(自動駕駛儀並沒有讓飛行員失業。)相反,我會專注於如何利用這項技術為更多人提供更好的建議。
什洛莫·貝納茨是加州大學洛杉磯分校安德森管理學院的名譽教授,也是《華爾街日報》專欄的常駐撰稿人。聯繫方式:[email protected]。
本文發表於2023年10月30日印刷版,標題為《人工智能能取代你的財務顧問嗎?暫時不能。但請拭目以待》。