(相關資料圖)
當前,在“AI大模型”與醫療健康的結合下,疾病診療、新藥開發、臨床研究等領域隨之產生一系列變革。
“AI大模型在醫療健康的七大領域已有部分探索性應用,這七大領域包括:醫療服務、運營管理、患者服務以及科教研、藥品供應、傳統醫學與公共衛生。”中國信通院云大所副所長閔棟在日前舉辦的2023世界人工智能大會上表示,但目前上述應用大多處于按科室或單病種的個案研究狀態,尚未進行大范圍推廣,并且,不同領域AI大模型的應用機會、產生影響程度和成熟速度上的差異仍然較大。
閔棟舉例,比如,醫療服務上,AI大模型可根據醫療信息生成診斷決策(這需要AI大模型針對聊天、網頁、開源文獻等大量自然語言處理數據訓練,并自動補償桌重點和關鍵信息,不斷進化);再如,運營管理上,AI大模型可以產生結構化的醫療紋文書并實現內容質控(對ChatGPT下達指令,即可以生產排版的出院小結),以及可產生管理用表單并輔助決策;此外,患者管理上,AI大模型可以用通俗的語言為患者用藥進行答疑和導診。
除此之外,之前很長一段時期內,AI大模型也通過靶點發現、復雜分子結構和序列的篩選、藥物安全性評估等來加速藥物研發進程;而在公共衛生方明,AI大模型也被愛丁堡大學亞瑟人口健康科學學院一項分析用來對“新冠疫苗阻斷疫情人群傳播的有效性”進行模擬分析。
事實上,由于患者需求使然,AI大模型率先落地的場景仍然是“醫院”,但仍有其局限性,“AI大模型可以覆蓋患者預問診、分診、導診,以及導航推送、科普教育等功能,“不過我們仍然要考慮,是否針對AI大模型有一個評價、監管的工具,大量的個人診療隱私如何做到合理、安全使用。”復旦大學附屬中山醫院黨委書記顧建英表示。
而AI大模型在科教研層面產生了諸多業內爭議。閔棟稱,在臨床科研過程中,盡管AI大模型能在選題立項上生成綜述和參考文獻,在研究方案設計時生成新視角和新思路,并且自動生成同行評議結果,“但AI大模型對科研的風險在于,一方面可能會被認為偽造了參考文獻,另一方面,由此產出的科研貢獻難以甄別,也無法對生成的內容負責。”
但其仍然面臨不少風險與挑戰。業內人士告訴記者,醫療健康領域存在特殊性,對醫療數據質量與安全,患者隱私保護要求很高,為此,AI大模型或將面臨技術成熟度風險,醫學數據質量與安全風險,和醫療服務公平性風險。
詳細來說,技術成熟度的風險在于AI大模型的算法可能會局限并導致內容失真,算力不足導致效率過低;醫學數據質量與安全風險在于模型訓練的數據質量不高,存在隱私風險;醫療服務公平性風險在于模型生成的內容存在虛假、錯誤,以及算法偏見導致的不公平。
為此,閔棟建議,可以從三個方面給予解決方案。第一,推動算法平臺建設及算力設施部署,來形成適配醫療健康AI大模型的算力資源服務模式。第二,是構建規范化、標注化的訓練用專病數據庫,來保障AI大模型的可靠、真實性及安全。第三,是推動人工智能醫療應用合規,包括支持建設一批相關檢測機制、合規審核、應用規范等。
“下一步,應該要研制出符合醫療健康行業應用特色的AI大模型標準框架。我們的初步設計是:基礎設施層,包括數據準備、模型開發、開發平臺;模型層,包括語言大模型、圖像大模型、音頻大模型等;應用層,包括生成文本、生成圖像、生成音頻等。” 閔棟補充。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com