AI是大型製藥公司提高臨牀試驗平等性的最新工具 - 彭博社
Nacha Cattan, Kanoko Matsuyama
插圖:Ibrahim Rayintakath為彭博商業週刊繪製黑人患者患多發性骨髓瘤的可能性是他們白人同行的兩倍,但他們參與該骨髓癌治療臨牀試驗的比例僅為4.8%。現在,藥品巨頭強生表示,通過使用一種非傳統工具——人工智能,它成功地增加了這一比例。
算法幫助J&J確定了黑人患者可能尋求治療的社區中心。該信息幫助公司將五項正在進行的研究中的黑人招募率提高到約10%,該公司表示。傳統上進行試驗的知名學術中心或診所通常對少數族裔或低收入患者不易接近,因為距離或成本的原因。
J&J現在正在使用人工智能來增加50項試驗中的多樣性,並計劃明年將該數字提高到100項,其製藥部門首席數據科學官Najat Khan表示。她表示,一項皮膚病研究利用手機快照和電子同意書使患者能夠遠程參與試驗,成功將有色人種的招募率提高到約50%。
新澤西州新不倫瑞克的強生總部。攝影師:Mark Kauzlarich/彭博“你有索賠數據,連接到電子健康記錄數據,連接到實驗室測試數據,所有這些都被去標識化和匿名化,” Khan説。“機器學習算法會為您計算並創建一個熱圖,顯示出符合該試驗資格的患者所在的位置。”
近幾十年來,越來越多的證據表明藥物對所有人的影響並不相同。新冠疫情突顯了不同族裔在獲得醫療保健方面存在深層次的差異。為此,監管機構和倡導團體一直在向全球的藥企施壓,要求在新的治療試驗中包括少數族裔羣體,不僅是為了改善生物醫學知識,也是為了在少數族裔羣體中建立對醫療系統的信任。許多公司正在求助於人工智能。
這個行業確實需要一些幫助。《健康事務》雜誌最近的一項分析發現,2020年批准的藥物中少於20% 的藥物有關於黑人患者的治療效果或副作用的數據。根據國家科學院、工程院和醫學院的一份2022年報告,試驗中缺乏多樣性在未來三十年將使美國損失“數十億美元”,該報告指出了過早死亡和缺乏有效醫療干預等因素。報告還指出,不包容的試驗阻礙了創新,因為招募率低而失敗,破壞了信任,加劇了健康差距。
2020年獲批新藥臨牀試驗中大約75%的參與者是白人,11%是西班牙裔,8%是黑人。但研究表明,人們對藥物的反應可能會因其種族、族裔、年齡、性別和性別而有所不同。例如,研究人員自上世紀80年代以來就表示,白人患者對一種名為β受體阻滯劑的降壓藥和一類被廣泛使用於心血管疾病的藥物ACE抑制劑的反應往往比黑人患者更好。其他研究表明,接受名為PD-1和PD-L1的免疫檢查點抑制劑治療的亞洲癌症患者與非亞洲人相比,生存率顯著提高。
監管機構越來越希望藥企在審批新治療方法時考慮到這種差異。2014年,歐洲藥品管理局發佈了指導方針,要求藥企必須證明非代表性臨牀試驗的合理性。澳大利亞的治療品管理局的 2022年指南 表明藥物研究人羣應該代表廣泛人口的構成。美國將很快 要求臨牀試驗提交給食品藥品監督管理局的多樣性行動計劃,這一規定已包含在2023年12月頒佈的政府支出法案中。
臨牀試驗很難進行,因為涉及協調多方:患者、醫院和合同研究公司。因此,製藥公司通常依賴於成熟的學術醫療中心,那裏的人口可能沒有那麼多樣化。但計算機算法可以幫助研究人員快速審查大量過去醫學研究的數據,搜索來自世界各地的海量患者病歷,並快速評估人羣中疾病的分佈。這些數據可以幫助藥企找到更多樣化的患者的新醫生和診所網絡,這些患者更容易符合其臨牀試驗的條件——有時比人類審查數據快數月,成本更低。
“他們[製藥公司]必須要求醫生在看到患者時考慮患者,然後考慮種族和種族——這只是使一個困難的任務變得更加困難,” Deep 6 AI 創始人 Wout Brusselaers説,Deep 6 AI 是一家銷售基於人工智能的軟件,用於匹配患者和臨牀試驗的初創公司。
人工智能對製藥商提出了新的挑戰,因為這項技術存在着引入所謂的算法偏見可能使情況比現在更糟的風險。
例如,2019年,學者們表示他們在 Optum Inc. 銷售的一款軟件產品中發現了無意的種族偏見,Optum Inc. 是一家主要的健康服務公司,全國各地的醫療中心使用該軟件來預測哪些患者需要高風險護理。該算法基於患者的醫療支出進行預測,而不是基於疾病的嚴重程度或需求。根據發表在《科學》雜誌上的一項研究,在一家機構對該算法影響的研究中,只有18%的黑人患者最終得到了額外的幫助,而實際需要幫助的47%沒有得到。該研究的作者表示,這種偏差是醫療中心和政府機構用來為全國2億人提供服務的風險預測工具的典型特徵,類似的偏見可能也存在於其他軟件中。
Optum 是 UnitedHealth Group Inc. 的一個部門,該公司表示,基於規則的算法並沒有種族偏見。“有關研究對一個臨牀分析工具中使用的成本預測算法進行了錯誤描述,這與該工具的任何推薦使用方式不一致,”該公司在回答問題時表示。
FDA正在考慮起草建議,針對提交AI應用進行藥物開發的公司,以確保他們的模型不會無意中對未受服務的患者進行歧視。
“未來可能需要更多的監管明確性,特別是在我們看到新的AI技術出現時,”FDA政策分析副主任Tala Fakhouri説道。這樣的監管明確性將“考慮到算法偏見。”
一些批評者指出了其他問題。約翰斯·霍普金斯大學腫瘤學教授Otis Brawley指出,遠程進行試驗或為參與者提供交通或停車券將比使用AI更多地吸引少數族裔參與試驗。他説,美國的黑人人口在貧困方面存在不成比例的情況,照顧他們的醫院通常沒有額外的資源來進行臨牀試驗等額外項目。
“AI可以做到這一點,但只要我被允許支付人們的停車費,只要我在資源豐富的地方這樣做,我也可以做到,”曾在亞特蘭大格雷迪紀念醫院工作的Brawley説道,他表示在那裏,他沒有資源來進行臨牀試驗。他説,即使在約翰斯·霍普金斯大學,由於停車費用的原因,他失去的少數族裔比白人更多。
沃爾格林聯盟公司——在2022年開始運行藥品製造商的臨牀試驗——在鼓勵研究中採取了不同的方法。它使用AI工具快速定位來自不同羣體的符合條件的患者,但依靠遍佈美國近9000家門店的當地藥劑師來招募來自少數族裔羣體的個人,藥店的臨牀試驗業務負責人Ramita Tandon説道。“我們有海報、傳單,”上面有關於試驗的信息,她説,或者簡單地説,“藥劑師在患者取藥時與他們進行對話。”
紐約布魯克林的一家Walgreens商店。攝影師:Stephanie Keith/Bloomberg坦頓表示,這種方法幫助提高了黑人患者參與一項心血管研究的比例達到了15%,這一數字超過了一般人口中黑人的比例。她説,新的FDA多樣性要求引起了大型製藥公司對Walgreens的臨牀試驗業務產生了很大興趣。
在其他地方,人工智能的應用遠遠超出了種族和民族的範疇。日本武田製藥公司的研發負責人Andrew Plump表示,該公司利用人工智能幫助吸引和留住臨牀試驗中的多樣化人羣。人工智能幫助公司個性化複雜的同意書給少數羣體的患者,比如LGBTQ社區。他説,技術可以根據人們自我認同的性別和性取向調整措辭,從而在流程中建立更大的信任。
總部位於紐約的H1,利用生成式人工智能幫助匹配製藥公司和試驗地點,表示正在努力消除其收集數據中的偏見。例如,其關於種族和民族的數據可能來自信用卡和銀行對賬單,這意味着可能沒有捕捉到經濟狀況較差的人羣,H1首席執行官Ariel Katz表示。
“我們正在做大量工作,以確保我們的數據集全面,沒有偏見,但在這方面還有更多工作要做,”他説。
J&J現在設立了一個人工智能倫理委員會,其中包括學術界的意見,該委員會正在監控試驗以消除數據偏見,同時增加代表性,Khan説。“我們始終讓人類參與,”她説。“我的團隊可能有60%或70%的時間用於這個方面,而不是其他任何事情,即確保數據適合用途、合適和具有代表性,如果不是,就獲取其他數據集使其更具代表性。”