您的醫療設備正變得更智能美國食品藥品監督管理局能否保障其安全性?——《華爾街日報》
Ryan Tracy
人工智能在醫療設備中的應用正呈爆炸式增長,為潛在的救生技術進步鋪平了道路,同時也給負責保障新產品安全的監管機構帶來了嚴峻挑戰。
如果科技公司如願以償,焦慮的患者或許有一天會選擇與聊天機器人而非人類治療師交談。患者入院時將接受人工智能驅動的風險評估計算器評估,自動化助手將協助完成檢測。這類用於診斷或治療的人工智能應用程序,將屬於美國食品藥品監督管理局(FDA)監管範圍內的醫療設備——這意味着開發商可能需要獲得該機構批准才能上市銷售。
隨着人工智能革命加速推進,FDA正與眾多美國監管機構共同艱難探索合適的政策框架。2020年至2022年末期間,FDA批准了300多款具備人工智能功能的醫療設備,數量超過此前十年總和。“我們正面臨隧道中疾馳而來的列車,即將遭遇重大挑戰,“2019至2021年擔任FDA食品與藥品首席副局長的艾米·阿伯內西表示,她現任Alphabet旗下製造人工智能醫療設備的Verily生命科學公司首席醫療官。
數十年來,該機構審查醫療設備的方式與審查藥物相同:視其為靜態化合物。FDA批准某款設備後,製造商只能銷售該版本。升級新版本需重新獲得監管批准。但人工智能設備通常採用可快速更新的算法,甚至具備自主學習能力。監管機構正努力在確保設備安全性的同時,應對這項快速發展的技術。
“人工智能產品的一個關鍵優勢在於它能隨時間不斷優化,”炎症檢測公司Inflammatix的首席執行官蒂姆·斯威尼表示。該公司開發的血液檢測技術可預測感染的存在、類型及嚴重程度。他舉例説,如果公司瞭解到某種特定的免疫反應模式強烈預示着敗血症發作,就會希望重新訓練算法以納入這一特徵。“當獲得大量新增數據時,理應提升檢測結果的準確性。”斯威尼強調。
然而根據美國食品藥品監督管理局的傳統監管方式,像Inflammatix這樣的企業在修改算法前很可能需要額外申請許可。
該機構正引導開發者轉向新路徑,於四月發佈了關於人工智能醫療設備如何提交彈性改進方案的正式指南。製造商可提交列明預期調整的"預定義變更控制計劃”,由FDA的法律、醫學和技術專家團隊評估修改範圍。一旦設備獲批,企業無需再經FDA審批即可實施計劃內的算法更新。
FDA數字健康卓越中心主任特洛伊·塔茲巴茲解釋:“此舉旨在確保市場在堅守產品審批時設定安全邊界的同時,保有推動技術前沿的創新靈活性。”
儘管眾多設備製造商對此表示歡迎,但他們希望FDA能進一步明確允許的修改範圍。克利夫蘭醫學中心首席研究信息官拉拉·傑希坦言:“預先確定所有可能的改進方向具有挑戰性。科學領域唯一可預測的就是其不可預測性。“她曾參與開發人工智能患者評估工具。
NeuroPace是一家生產治療嚴重癲癇腦植入設備的公司,其首席醫療官瑪莎·莫雷爾表示,將考慮在新推出的AI版設備中納入"變更控制計劃”。
NeuroPace生產的治療嚴重癲癇的腦部植入設備圖片來源:Neuropace目前該設備通過釋放電流來阻止癲癇發作,且電流強度需經醫生審閲患者數據後手動調整。莫雷爾稱,未來該設備或將獲得即時解讀患者腦電波並自主決定電流強度的權限,但需在預設安全閾值內運作。
這位自稱"A型人格醫生"的高管坦言,即便對她而言,將此類決策權交給設備也令人不安。但她堅信患者將因此受益,強調FDA與公司需共同制定確保設備安全性的標準。
針對FDA最新發布的AI醫療設備指南,她預言:“隨着我們竭力應對這場巨大變革,後續指導文件將接踵而至。”
批評者認為FDA新政策可能帶來風險,指出既往醫療設備軟件失誤曾危及患者生命。他們強調AI系統帶來新挑戰:監管者未必完全理解其運作機制,種族偏見等潛在問題亦難量化評估。佛羅里達州立大學衞生法教授梅森·馬克斯指出:“AI帶來全新傷害類型——那些難以理解和解釋的算法傷害。“他認為FDA允許未經審查修改複雜算法,“實質是給予製造商過大自由裁量權。”
美國食品藥品監督管理局(FDA)的一位發言人表示,該機構對醫療設備的評估會考慮潛在的偏見問題。
未來,這些擔憂可能會通過FDA一些官員討論過的新政策得到解決:要求人工智能設備上市後進行即時監測。這將不同於傳統做法,即FDA批准的設備製造商只需報告可能影響患者的"不良事件”。新的監測要求旨在確保製造商密切跟蹤其算法的表現。但實施這些要求可能需要FDA目前不具備的法律授權。如果行業團體認為這些要求過於嚴苛,可能會遊説反對FDA獲得此類權力。
隨着更多開發者整合能生成類人文本、照片、視頻和其他媒體的生成式AI系統,這些爭論只會變得更加緊迫。
Woebot Health提供了一款聊天機器人,希望精神科醫生、醫師或保險公司能推薦給患者用於改善心理健康問題。該機器人全天候給予鼓勵和回應。Woebot表示,作為安全措施,其回覆僅限於人工預先審核的內容範圍。該公司正在測試使用生成式AI模型來理解用户表達,但對開放對話持謹慎態度。
Woebot成人版被宣傳為幫助人們更好地應對焦慮和抑鬱症狀的工具。圖片來源:WoebotWoebot將其聊天機器人定位為心理健康支持應用,刻意規避使用“治療”等可能引發FDA審查需求的術語。該機構擁有監管權限,可規範任何用於疾病診斷、治療或預防的器械——這一廣泛職權適用於眾多醫療軟件功能。對於其視為低風險的情況(如健康類應用),FDA並不強制執行相關規定。
Woebot表示希望獲得FDA批准認證,但同時也謀求無需處方即可銷售產品,以觸達更廣泛的用户羣體。目前FDA批准的心理健康“數字療法”通常不允許直接面向消費者銷售。“如何確保這些工具經過臨牀驗證[但]不一定需要處方?”Woebot監管科學與戰略副總裁Robbert Zusterzeel提出,“FDA未來需要審視這種中間選項。”
這揭示了FDA政策的另一潛在影響:監管邊界最終塑造了產品開發方向。
“這形成了耐人尋味的激勵機制。”研究FDA監管的哈佛商學院教授Ariel Dora Stern指出,“我接觸過一些初創公司,他們實際開發的解決方案遠未達到其算法能力上限,純粹因為對監管避之唯恐不及。”
寫信給瑞安·特雷西,郵箱:[email protected]
刊登於2023年10月12日印刷版,標題為《醫療設備變得更智能。FDA能跟上嗎?》。