本年3月,一名“95后”老手家長面對孩子反復咳嗽發熱的癥狀,在mobile_phone端用AI問診鑒定孩子為“通俗呼吸道沾染”,并參考網絡建議居家用藥,致病情延誤。最終,孩子被醫院確診為病毒沾染肺炎。醫生指出AI問診存在必定風險,應以專業醫療意見為準。
此事引發網絡熱議。AI癌癥早篩、AI肺結核診斷、AI手術機器人、AI導診機器人……近年來,AI技術已在門診導診、臨床輔助診斷、疾病治理等環節廣泛應用,尤其是本年年頭DeepSeek的問世,更是掀起了一股“生病了問AI”的熱潮。但也有不少人反應,AI醫療并沒有想象中那么靠譜,看錯病、看不出病的情況時有發生。
對于AI醫療,輿論場也涌現出更多的追問,好比:AI醫療能否會影響到醫生的位置?假如AI診斷錯誤,誰來負責?若何保護通俗人的醫療數據隱私?若何讓AI醫療發展更快、應用更廣?
AI醫療只是輔助手腕
“AI醫療可以晉陞醫療服務的效力,已經在疾病預測、安康治理、記憶識別等領域表現傑出,能夠為患者供給較為精準的醫療服務。”中國衛生法學會副會長鄭雪倩向記者介紹,在基層或缺少專家資源的邊遠貧困地區,可以通過AI進行初步篩查,并為醫生供給提醒或診斷參考,從而優化醫療資源分派、推動分級診療政策落地、晉陞基層醫療服務才能。
正因AI醫療彰顯出諸多優勢和宏大潛力,“AI會不會搶醫生飯碗?”“AI醫生看病爆火”“AI看病比三甲醫院醫生還準”……在比來關于AI醫療的網絡討論中,相關話題包養網頻繁出圈。“當DeepSeek給出了和主任醫師一樣的診斷,以后能否還有需要往醫院?”近期,這樣的疑問也出現在了醫患對話中。
記者采訪了多位一線醫務任務者,他們均不反對患者應用“AI問診”。但對“‘AI問診’的結果能否靠譜”“可否作為診療依據”等問題,受訪醫生都抱著謹慎態度。他們廣泛認為,“AI問診”存在局限,只能作為一種輔包養行情助手腕,并不克不及替換醫生。
北京市某社區衛生服務中間的全科年夜夫周醫生坦言,在基層醫療機構常日里碰到疑難雜癥的情況未幾,更多的是高血壓、糖尿病、心臟病等慢性病的老年患者,A包養I在慢性病隨訪、慢性病治理上還缺乏些“情面味兒”。
“以預問診AI為例,有老年患者反應,他有幾個早晨睡欠好覺導致頭疼、心慌,AI就有能夠把一切有頭疼癥狀的病都列給醫生,此中絕年夜多數是無效信息。”周醫生說,疾病的診斷是一個含混決策,尤其是在社區這種基層醫療機構,看病的基礎是“老熟人”,往往需求醫生綜合病史、癥狀等多種信息、根據經驗縮小范圍下診斷,AI今朝在這方面還不夠成熟。
“AI醫療是人工智能在醫療領域的應用,即通過年夜數據的剖析學習,建模,來輔助或優化醫生在看病治療以及安康治理環節的一項技術應用。”在中國衛生法學會常務理事、北京市華衛律師事務所副主任鄧利強看來,AI醫療通過機器的學習建模進行數據的剖析,讓AI反復學習的確可以幫助識別病癥,但這種建模自己有數據庫的問題,再加上無法把醫生的診療經驗揉到建模里,所以這種智能診斷不成能完整代替醫生。
“AI問診缺少人文感情交通,AI開方無人審核,還能夠出現誤診、誤治和AI醫療的法令主體不明確等問題。是以,AI醫療應當始終定位于醫生的輔助東西。”鄭雪倩說。
持謹慎態度劃定紅線
隨著AI醫療在全國慢慢落地,一場醫療領域的宏大變革正在發生。僅本年2月以來,就有不少醫院發布其最新應用結果。
好比包養,上海瑞金醫院發布瑞智病理年夜模子,AI僅需數秒就能精準識別病理切片中的病灶區域;北京協和醫院研發的“協和·太始”罕見病年夜模子已進進臨床應用階段;上海市肺科醫院參與研發的肺部智妙手術規劃系統,將實際手術規劃時間從數天縮短至2到5分鐘……
雖然有多項結果問世,但對于AI醫療,不僅是醫生,相關部門也堅持謹慎態度。記者梳理公開資料發現,今朝針對AI醫療已出臺多項限制性辦法:湖南省醫保局發布告訴,制止應用AI自動天生處方,以維護醫保基金平安和患者權益;北京禁用AI自動天生處方,并成立了互聯網診療監管平臺;國家衛健委和國家中醫藥局聯合發布的《互聯網診療監管細則(試行)》明確規定,人工智能不得替換醫師自己供給診療服務……
“這些政策和規定表白,我國在AI醫療領域已經開始劃定紅線,以確保技術應用的平安性和倫感性。”鄭雪倩說,醫療平安底線包含:處方紅線,即AI不得自動天生處方,醫生必須對診療行為負責;倫理紅線,即AI應用需遵守醫學倫理,確保患者隱私保護、數據平安和公正性;技術紅線即AI技術需經過嚴格的臨床驗證,確保其在實際醫療環境中的有用性和平安性。
受訪專家明確,即使有AI的輔助,醫生還是最后把關人,假如醫生應用AI診療出現誤診、漏診等醫療變亂,最終還是由醫生承擔責任。
鄧利強認為,由于AI醫療存在較多法令風險和合規挑戰,這才讓相關部門對AI醫療的態度這般謹慎。
“醫療數據觸及患者的個人隱私,哪些數據可以向研發AI醫療的企業開放并未有明確規定,並且直接針對醫療數據開放的法令法規尚未出臺,無法對數據依照統一技術標準進行清洗處理;對AI誤診的責任界定和相應法令糾紛的處理辦法同樣存在爭議;今朝國內醫療數據共享缺乏且缺少標準規范,制約著AI醫療產業的發展……”鄧利強說,正因有諸多問題亟待解決,所以醫療保包養平臺推舉守絕不是落后,恰好是對性命的負責。
應均衡創新加強監管
AI醫療,今后若何才幹更好地發展?
鄧利強說,應均衡AI醫療技術創新與合規監管關系。要強化全流程的資質審查機制,即針對AI醫療和AI處方各個環節的主體都必須有診療的資質,這是不克不及衝破的底線。應強化企業的自律與誠信機制的樹立,開發和應用AI醫療的企業都必須依法合規。需求明確AI醫療產品的注冊、審批、應用和加入流程,并加強對算法通明度、公正性、隱私保護等關鍵維度的評估與監管。
鄭雪倩建議,應樹立倫理審查機制,確保AI技術在醫療領域的應用合適倫理品德請求。還要鼓勵社會各界對AI醫療技術進行監督和評價,構成全社會配合參與的監管格式。加年夜處罰力度,進步違法本錢,構建更有用的法令威懾體系。加年夜正向宣傳引導,進步醫生和患者對AI技術的接收度是實現技術普及的關鍵。
2025中關村論壇年會期間,AI醫療成為與會專家熱議話題。與會專家建議,加強監管與倫理指導,制訂嚴格的數據平安和隱私保護政策,設立醫療AI倫理委員會。同時,進步模子通明度,發展可解釋AI技術,使年夜語言模子在醫療決策時能夠供給推理過程。例如在腫瘤診斷中,AI需指出記憶特征依據,而不是只給結論,還要設定公道的應用范圍。年夜語言模子適用于醫學教導、輔助決策和信息檢索,但不應直接用于關鍵診斷或治療決策,最終決策仍需由專業醫生作出。
“醫療從業人員的確應該積極擁抱發達的技術,但技術對行業自己的沖擊以及它能否能實現有溫度的醫療,也是我們行業的引領者所需求思慮的。我們等待的是,行業參與者冷靜思慮的心和職業情懷,可以讓技術成為幫手,而不是讓患者的醫療平安遭到影響。”鄧利強說。(記者 趙麗 實習生 陳穎)