(相關資料圖)
當前,在“AI大模型”與醫(yī)療健康的結(jié)合下,疾病診療、新藥開發(fā)、臨床研究等領域隨之產(chǎn)生一系列變革。
“AI大模型在醫(yī)療健康的七大領域已有部分探索性應用,這七大領域包括:醫(yī)療服務、運營管理、患者服務以及科教研、藥品供應、傳統(tǒng)醫(yī)學與公共衛(wèi)生。”中國信通院云大所副所長閔棟在日前舉辦的2023世界人工智能大會上表示,但目前上述應用大多處于按科室或單病種的個案研究狀態(tài),尚未進行大范圍推廣,并且,不同領域AI大模型的應用機會、產(chǎn)生影響程度和成熟速度上的差異仍然較大。
閔棟舉例,比如,醫(yī)療服務上,AI大模型可根據(jù)醫(yī)療信息生成診斷決策(這需要AI大模型針對聊天、網(wǎng)頁、開源文獻等大量自然語言處理數(shù)據(jù)訓練,并自動補償桌重點和關鍵信息,不斷進化);再如,運營管理上,AI大模型可以產(chǎn)生結(jié)構(gòu)化的醫(yī)療紋文書并實現(xiàn)內(nèi)容質(zhì)控(對ChatGPT下達指令,即可以生產(chǎn)排版的出院小結(jié)),以及可產(chǎn)生管理用表單并輔助決策;此外,患者管理上,AI大模型可以用通俗的語言為患者用藥進行答疑和導診。
除此之外,之前很長一段時期內(nèi),AI大模型也通過靶點發(fā)現(xiàn)、復雜分子結(jié)構(gòu)和序列的篩選、藥物安全性評估等來加速藥物研發(fā)進程;而在公共衛(wèi)生方明,AI大模型也被愛丁堡大學亞瑟人口健康科學學院一項分析用來對“新冠疫苗阻斷疫情人群傳播的有效性”進行模擬分析。
事實上,由于患者需求使然,AI大模型率先落地的場景仍然是“醫(yī)院”,但仍有其局限性,“AI大模型可以覆蓋患者預問診、分診、導診,以及導航推送、科普教育等功能,“不過我們?nèi)匀灰紤],是否針對AI大模型有一個評價、監(jiān)管的工具,大量的個人診療隱私如何做到合理、安全使用。”復旦大學附屬中山醫(yī)院黨委書記顧建英表示。
而AI大模型在科教研層面產(chǎn)生了諸多業(yè)內(nèi)爭議。閔棟稱,在臨床科研過程中,盡管AI大模型能在選題立項上生成綜述和參考文獻,在研究方案設計時生成新視角和新思路,并且自動生成同行評議結(jié)果,“但AI大模型對科研的風險在于,一方面可能會被認為偽造了參考文獻,另一方面,由此產(chǎn)出的科研貢獻難以甄別,也無法對生成的內(nèi)容負責。”
但其仍然面臨不少風險與挑戰(zhàn)。業(yè)內(nèi)人士告訴記者,醫(yī)療健康領域存在特殊性,對醫(yī)療數(shù)據(jù)質(zhì)量與安全,患者隱私保護要求很高,為此,AI大模型或?qū)⒚媾R技術(shù)成熟度風險,醫(yī)學數(shù)據(jù)質(zhì)量與安全風險,和醫(yī)療服務公平性風險。
詳細來說,技術(shù)成熟度的風險在于AI大模型的算法可能會局限并導致內(nèi)容失真,算力不足導致效率過低;醫(yī)學數(shù)據(jù)質(zhì)量與安全風險在于模型訓練的數(shù)據(jù)質(zhì)量不高,存在隱私風險;醫(yī)療服務公平性風險在于模型生成的內(nèi)容存在虛假、錯誤,以及算法偏見導致的不公平。
為此,閔棟建議,可以從三個方面給予解決方案。第一,推動算法平臺建設及算力設施部署,來形成適配醫(yī)療健康AI大模型的算力資源服務模式。第二,是構(gòu)建規(guī)范化、標注化的訓練用專病數(shù)據(jù)庫,來保障AI大模型的可靠、真實性及安全。第三,是推動人工智能醫(yī)療應用合規(guī),包括支持建設一批相關檢測機制、合規(guī)審核、應用規(guī)范等。
“下一步,應該要研制出符合醫(yī)療健康行業(yè)應用特色的AI大模型標準框架。我們的初步設計是:基礎設施層,包括數(shù)據(jù)準備、模型開發(fā)、開發(fā)平臺;模型層,包括語言大模型、圖像大模型、音頻大模型等;應用層,包括生成文本、生成圖像、生成音頻等。” 閔棟補充。
關于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務| 友情鏈接
咕嚕網(wǎng) m.jz3f.com 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com