企業如何利用生成式人工智能?一位先行者給出了答案——《華爾街日報》
wsj
維克拉姆·巴加瓦(左)與大衞·韋克林在《華爾街日報》風險與合規論壇上探討AI工具。圖片來源:華爾街日報ChatGPT讓所有人——沒錯,所有人——都開始討論。
人工智能程序將如何實際應用仍是個巨大未知數。但國際律所安理律師事務所為我們提供了企業可能開始運用這類程序(及其侷限)的早期範例。
在近期舉行的《華爾街日報》風險與合規論壇上,本報記者薩拉·卡斯特利亞諾斯與安理律師事務所合夥人、市場創新組負責人大衞·韋克林展開對話。韋克林負責領導該律所人工智能戰略的制定工作。參與討論的還有喬治·華盛頓大學商學院戰略管理與公共政策助理教授維克拉姆·巴加瓦,他探討了圍繞ChatGPT類程序的一些倫理問題。
以下是經過編輯的討論摘錄。
早期應用
**《華爾街日報》:**大衞,貴所律師已在運用基於ChatGPT的工具。您認為生成式AI有哪些機遇?
**韋克林:**我們使用的是相同的基礎模型,但並非ChatGPT。我們需要在業務中安全使用它。目前僅通過部署該技術輔助任務,我們就已看到顯著的生產力提升。
未來機遇將更加廣闊。調整基礎模型或行業基礎模型的工作會減少,重點將轉向讓模型處理特定商業數據集。這正是其真正價值所在——開始撬動企業的知識產權價值。
**華爾街日報:**維克拉姆,您如何看待企業開發和部署生成式AI?存在哪些風險?
**巴爾加瓦:**去年11月首次接觸這項技術時,我感到非常震驚。它在多個方面確實令人矚目。
關於風險與倫理問題:首先是其輸出結果可能存在的缺陷,比如準確性不足、判斷存在偏見等。
其次是流程問題,例如"當企業在客服或招聘場景中使用ChatGPT時,用户同意與之互動的真正含義是什麼?"
每個類別都有不同問題。如果僅從"這是個倫理問題"的單一維度看待,可能會忽略那些不明顯的倫理隱患。
**華爾街日報:**生成式AI產品如OpenAI的ChatGPT和谷歌的Bard,其訓練數據涵蓋海量文章、圖像、社交媒體帖子和即時對話。大衞,請談談GPT-4最令人印象深刻的特點,這項支撐聊天機器人的先進技術由微軟投資的初創公司OpenAI開發。
**韋克林:**我們去年11月通過Harvey(一家專注於為律所等專業服務機構提供生成式AI的OpenAI資助初創企業)接觸GPT-4並進行了試點。與之前版本相比,其差距之大令人驚歎。過去幾年我們在事務所應用過許多AI技術,但它開箱即用的卓越語言能力、推理能力和理解力令人印象深刻。我從未見過類似技術,因此我們確信這是技術範式的根本轉變。
這是一項如此龐大的工程,我們啓動了這個極具雄心的計劃,要在43個辦公室的3500名律師中安全推行,並圍繞此進行了大量變革管理和治理工作。我們始終確保有專家參與其中。
在使用方式上有一些關鍵要點,但對我們而言,這項技術如此出色,以至於延遲採用反而可能成為競爭劣勢,某種程度上會削弱企業正確運用它所帶來的潛力和競爭優勢。
不應自動化的理由
**華爾街日報:**維克拉姆,企業在使用生成式AI(無論是ChatGPT還是其他工具)開發產品時,真正需要考慮哪些倫理問題?
**巴爾加瓦:**大部分討論集中在這些算法可能產生不良後果的方式上。比如一個招聘算法可能導致帶有偏見的結果,可能是性別歧視、種族歧視或其他問題。當然這些都是嚴重問題,但已有大量資源投入這些技術改進中。毫無疑問會有進步,許多問題將通過工程手段解決。
我更關注的核心問題是:“有哪些任務,即使我們能改善結果,仍然存在不應自動化的理由?”
舉例來説,幾個月前密歇根州立大學發生了槍擊悲劇。範德堡大學皮博迪學院發佈了一封聲援信,信中表示"我們與密歇根州立大學社區同在",並表達了哀悼之情等等。
現在我正在改寫這封信。在信的底部,寫着“由ChatGPT生成”或類似的內容。許多人對於範德堡大學使用ChatGPT來生成一封與密歇根州立大學社區團結一致的公開信感到震驚。
問題不在於這封信寫得不好。它文筆流暢,結構精巧等等。但即使它能達到同樣好的效果,自動化地表達我們的團結似乎有些不妥。
除非是我們自己動手,否則這就不是一種真誠的團結表達。
在招聘或解僱的背景下,假設有一家公司使用這類技術來做某些解僱決定。如果我找到他們問:“發生了什麼?為什麼我被解僱了?”而他們回答:“嗯,你知道的,是它讓我們這麼做的。”這似乎缺失了一些東西。
換句話説,有一類決定在討論中被很大程度上忽視了。因為大多數關於AI倫理的討論都集中在“看,有這麼多糟糕的結果,不準確的判斷,種族主義的結果出現。”
生產力提升
**華爾街日報:**David,你們律所的律師是如何使用Harvey的,這個工具真正帶來了哪些商業價值?
**WAKELING:**我們正在用它來實現無聊的生產力提升,讓3500名律師每週多出一兩個小時。它可以起草初稿,利用律所內大量的專業知識,比如‘給我起草一個關於隨機事項X的條款’或者‘總結法律領域Y並在美國和歐洲之間進行比較和對比’。它在這方面非常擅長。
只要用户明白——他們確實明白,我們費盡心思教育他們——這可能會產生幻覺,可能會出錯——只要人們理解這一點,並且總有專家在使用它時進行把關,這些生產力提升就能實現。
這就是目前可用的東西,而且非常重要。實際上,對我來説,這項技術令人興奮之處在於我們逐步提高的生產力。這值得投入時間。
**華爾街日報:**如果Harvey真的犯了錯誤,誰該負責?
**WAKELING:**哦,是使用它的人。每次都有專家把關。幾乎從來沒有Harvey的工作成果是最終使用的成品。我想説從來沒有。我從未見過這樣的結果。它總是用來節省一點時間,然後有人完成它,並用正確的專業知識走完最後一英里。
**華爾街日報:**你們如何防止幻覺,並確保算法使用最正確和最新的數據?
**WAKELING:**我能想到的最好比喻是,你應該把問答功能看作是一個非常健談、異常雄辯且見多識廣的青少年。青少年不知道它不知道什麼,會繼續根據數學反應、基於預測給出答案,總是以同樣迷人的自信給出答案。我們告訴人們這一點。我想説每個律師都知道AI幻覺是什麼,而一年前情況並非如此。
未來技術的發展方向及其演進趨勢讓我深感着迷。因為我們以13歲少年作為類比——如今的技術正引導AI模型指向特定數據庫。就像我們會説:“13歲的孩子,去安理國際律師事務所的圖書館找本書,找出支持你答案的頁面,給我看看出處。”
**華爾街日報:**David,您是否預見到有一天Harvey能撰寫面向安理客户的文書?屆時你們會如何區分人類律師和聊天機器人的產出?
**WAKELING:**以我目前所見的技術還做不到。現有技術存在導致幻覺的固有缺陷,所以我將其視為漸進式的生產力提升工具。兩年後再問我,情況或許不同,但就目前而言我看不到這種可能性。
來信請發送至[email protected]