醫院上線AI系統輔助問診陪診 線上平臺“AI開處方”或越界
早上8點,四川省綿陽市游仙區忠興鎮興合村村醫宋文卓來到衛生室,第一件事就是打開電腦登錄AI(人工智能)輔助診療系統,這是他近段時間養成的一個新習慣。
“宋醫生,我心跳有點快,感覺上不來氣,偶爾還會咳嗽幾聲。”衛生室剛開門,年近九旬的村平易近涂婆婆便在老伴的陪伴下前來看診。宋文卓一邊詢問癥狀,一邊將病情輸進系統,然后點擊AI輔診按鈕,系統敏捷與擁有海量多發病、常見病等病例的國家焦點知識庫對接,通過提取和剖析患者的歷史病歷信息,給出“急性上呼吸道沾染”等診斷建議。宋文卓結合本身的臨床經驗進行綜合評估,最終確定涂婆婆是急性上呼吸道沾染。
隨后,系統根據醫生的選擇,給出了推薦用藥,列出推薦依據、檢查建議等。宋文卓參考選定治療藥物,讓白叟先吃藥觀察。
在宋文卓看來,AI輔診系統的應用,不僅進步了診斷的準確性和效力,還能幫助醫生更好地應對復雜病例,下降誤診漏診風險,看病用藥也加倍平安安心。
AI輔助診療系統在綿陽市游仙區基層醫療機構的應用,是我國推進“AI+醫療”的一個生動縮影。《“十四五”醫療裝備產業發展規劃》明確提出加速智能醫療裝備發展;《關于進一個步驟完美醫療衛生服務體系的意見》提出發展“互聯網+醫療安康”,加速推進互聯網、人工智能等在醫療衛生領域中的應用……近年來,我國不斷加強頂層設計,推進“AI+醫療”的發展。
多名業內人士和專家在接收《法治日報》記者采訪時指出,醫療領域已經成為摸索AI應用的主要場所,今朝在一些醫院重要應用于分導診、預問診、病歷天生等場景,助力患者就醫加倍便捷,晉陞了醫療服務質量,未來AI輔助診療將會成為一種趨勢,但也需求警戒背后隱躲的法令風險,這些風險不僅觸及患者個人隱私保護,還關系到算法通明度和公正性等問題。
多地上線AI輔診
晉陞患者就診親身經歷
近日,記者來到北京年夜學國民醫院進行甲狀腺和瘢痕檢查,檢查項目包含B超、血液檢查等。繳費完成后,醫生提示可在系統預約檢查時間。記者打開mobile_phone,像“自助值機”一樣,在可選時間段,把檢查項目約在相對集中的時間,這樣就可以“一次跑完”,在最短的時間內完成一切檢查,防止了因現場排隊改約和檢查時間分歧而帶來的反復奔走。
這只是AI輔助醫療的一個縮影。記者梳理公開資料發現,“AI+醫療”今朝已在多個醫院落地。
在華中科技年夜學同濟醫學院附屬協和醫院,假如患者不了解掛哪個科室,AI可以來幫忙。
該院本年5月發布了“AI聰明門診”,涵蓋智能分導診、智能加號等效能。以彼時的“智能加號”效能為例:患者可點擊“掛號服務”“在線掛號”,進進需求預約的科室,假如選擇的專家號“滿診”,則可點擊下方的“申請加號”,在跳轉頁面選擇該專家的加號每日天期。確定免費預約后,AI會自動發起對話,詢問病情等相關情況,然后天生“病情卡片”,再綜合評估病情嚴重水平,判斷加號資格,最后發送給專家確定能否通過。
此外,該院還發布“智能候診室”效能。患者掛號后,由“醫生數字人”與患者先進行溝通,提早清楚患者癥狀、病程等,為醫生面診做準備。
在浙江省國民醫院,數字安康人“安診兒”可以陪同患者就診。
據清楚,“安診兒”可以為患者供給覆蓋就醫前、中、后的AI陪診服務。診前,患者可以向其描寫本身的癥狀,“安診兒”根據癥狀為患者婚配科室和醫生,幫助患者預約掛號;診中,“安診兒”可公道設定就診流程,全部旅程供給A包養R智能導航,還可以讓患者在線上直接取號,并供給叫號提示,甚至能在付出寶上完成醫保繳費,節約患者的就醫時間;診后,患者離開醫院,其還會繼續供給電子病歷、處方和報告查詢等服務。
在北京友誼醫院,AI能幫醫生寫病歷。
本年5月,云知聲門診病歷天生系統在北京友誼醫院應用。該系統能在復雜的醫院環境中識別醫患對話,精準捕獲關鍵信息,分離醫患腳色,并從中剔除與病情無關的內容,天生專業術語表達的信息摘要,以及合適病歷書寫規范請求的門診電子病歷。數據顯示,在門診病歷天生系統的幫助下,北京友誼醫院相關科室門診病例錄進效力年夜幅晉陞,醫生問診時間年夜幅縮短。
法令風險不容忽視
警戒算法歧視問題
多名受訪的業內人士指出,人工智能在醫療領域的廣泛應用,能為患者供給更便捷的服務,進步了醫療服務的效力和精準度,讓優質醫療資源更普惠,但其背后的法令風險也不容忽視。
在山西年夜學法學院講師陳川看來,傳統醫療診斷過程強調醫生對患者人格尊嚴和自立權的尊敬與保護,醫生在作出醫療決策時,需綜合考慮患者的既往病史和當前癥狀,并按照相關法令法規與倫理規范,制訂適宜的治療計劃。但是,醫療人工智能存在“自動化偏見”風險,即醫生在診斷過程中能夠會過度依賴人工智能技術,從而疏忽本身專業判斷和對患者個體需求的考慮。這種過度依賴能夠導致醫生將困難的醫療決策不恰當地交給人工智能處理。當醫生過度依賴人工智能時,患者的治療決策能夠被剝奪,轉而交由機器進行處理,導致患者掉往對本身安康治理的自立權。
此外,算法通明度缺乏和算法歧視問題也不容忽視。“雖然2023年7月國家網信辦聯合國家發展改造委等部門公布的《天生式人工智能服務治理暫行辦法》提出了算法通明性請求,但在具體實施過程中,算法的實際任務道理和決策過程往往難以被外界懂得和監督。由于算法通明度缺乏,患者包養網無法清楚醫療人工智能是若何得出診斷結論的,導致其知情權和選擇權無法獲得充足保證,能夠會侵略患者的知情批準權和自立決定權。”陳川說。
她提出,算法歧視問題還會導致分歧地區在醫療資源上的不服等現象。分歧開發者在訓練算法時能夠無意間引進偏見,包養導致天生式人工智能在面對分歧群體患者時作出歧視性決策。例如,某些醫療人工智能系統在篩查病人時,診斷結果禁絕確或存在系統性低估。再好比,算法模子的訓練數據假如重要來自某些特定群體,能夠會導致其面對特別群體時產生偏見。
陳川認為,今朝,人工智能在醫療領包養網心得域的應用仍處于摸索階段,易因誤診、數據泄露等行為引發問責和歸責問題。我國平易近法典規定醫療損害責任適用過錯責任原則,也考慮到醫療器械所致損害的責任承擔問題。但人工智能能夠獨立天生醫療診斷結果或建議,是以在現行法令框架下,對醫療人工智能應用的追責非常復雜,傳統的責任情勢難以簡單套用到醫療人工智能上。
線上購藥本末顛倒
審核環節形同虛設
除了“AI+醫療”作為一種新興形式在實際應用過程中能夠存在必定法令風險外,一些線上醫療問診、線上購藥平臺在引進AI輔助后,雖然給患者帶來便捷,但也裸露出不少問題。
記者在調查中發現,一些互聯網醫療平臺采用“先選購藥品,再因藥配方,甚至由人工智能軟件自動天生處方”這樣本末顛倒的操縱方法。
記者前不久在某購藥平臺下單處方藥骨化三醇軟膠囊后,平臺提醒“請選擇線下已確診疾病”。記者在“疾病欄”隨機勾選了幾項,“處方/病歷/檢查報告欄”空著,并確認“已確診此疾病并應用過該藥,且無過敏史、無相關忌諱證和不良反應”,很快便通過了驗證,提交清單后,系統跳至問診版塊。
緊接著,有“醫師”接診,連續發來數條信息,此中第一條強調“互聯網醫院只對復診用戶供給醫療服務”,后續幾條信息均為確認有無過敏史或處于特別時期。在記者沒有回復的情況下,對方就發來一張處方單和購買鏈接。
北京市平易近楊木(假名)也有過類似經歷,他懷疑屏幕背后接診的不是真的執業醫師:“在××平臺購買處方藥時,感覺對方跟機器人沒有差別,只需打字過往,對方就會在幾秒鐘內敏捷批準,最基礎沒有給出任何專業意見。”有一次,他居心描寫一些不是欲購藥品適應病癥的情況,結果對方依然很快開了處方。
多名業內人士認為,“隔空”診療并不適合一切患者,常見病、慢性病的復診,是較長時間以來互聯網診療的定位。不過,對于何為復診,業內一向缺乏具體標準,導致出現一些監管真空。
“假設是正規互聯網醫院,有執業資格的醫生開具的電子處方,應該有醫生的簽名、互聯網醫院電子章。不消除有些小型互聯網醫療平臺存在用人工智能、機器人等東西自動天生處方,一些年夜平臺會用AI等來輔助醫生問診,好比問病人幾歲、哪里不舒暢等,可是處方必須請求醫生來開。”北京某三甲醫院一劉姓醫生說。
他還留意到,不少平臺為謀取好處,采用“AI開處方,客戶直接取藥”的形式,處方開具、審核環節形同虛設,要么直接跳過開具處方這一流程,要么對用戶上傳的處方并不實際審核,這類行為嚴重違反了我國藥品治理軌制,也給患者用藥平安埋下風險隱患。
在線上安康平臺咨詢問診會不會泄露個人信息,也是多名受訪患者提出的疑問。
有一次,楊木的后背上起了不少紅疹子,便在某安康平臺進行問診,結果沒過幾天,他就陸續接到多個廣告電話和短信,有詢問能否需求植發的、有推銷護膚產品的,甚至還有借貸公司打來的推銷電話。
“問診時,平臺采集的個人信息和安康情況能不克不及保留好,這些信息會不會流向第三方?”楊木很是擔心。
此前,工信部曾通報過多個互聯網醫療App在個人信息搜集及應用方面存在嚴重問題,包含超范圍采集個人隱私信息、未經自己批準向別人供給個人信息、搜集與醫療服務無關的個人信息等。
“與其他類型App比擬,醫療類App泄露個人信息能夠會導致更嚴重的法令問題。假如個人安康信息被泄露,犯警分子能夠應用這些信息實施精準詐騙,好比應用‘病急亂投醫’的心思向患者不符合法令售賣或推廣藥品。”前述劉醫生說。
完美相關法令框架
切實保證患者權益
受訪專家指出,為了有用應對“AI+醫療”在實際應用中潛在的法令風險,需求從法令和政策兩個層面進行系統化完美。只要樹立健全法令框架和監管機制,明確醫療年夜模子的責任歸屬和數據應用規范,才幹在推動醫療人工智能發展的同時,切實保證患者的符合法規權益。
“起首要樹立完美醫療人工智能法令框架。今朝,《天生式人工智能服務治理暫行辦法》未觸及醫療領域人工智能規定,需求在其基礎上結合醫療領域的特點制訂相關法令法規,凸起強調醫療人工智能的輔助感化。”陳川說,為了幫助醫療任務人員、患者更好地應用人工包養網 花圃智能系統、清楚人工智能得出診斷結果的運行機制,我國可以配套制訂醫療人工智能應用指南,以增強醫療人工智能系統及其結果的可解釋性;還需完美其他法令規定,數據平安法、《觸及人的性命科學和醫學研討倫理審查辦法》等為制訂醫療人工智能治理辦法供給了基礎,應依據人工智能發展現狀出臺適用醫療人工智能的治理辦法。
陳川還提到,強化醫療人工智能算法監管刻不容緩。一方面,為確保醫療人工智能的平安性和靠得住性,應成立算法審查專門機構,對醫療人工智能進行嚴格的平安性、通明性、倫感性審查;另一方面,基于數據的動態性和人工智能技術的不斷迭代升級,應請求研發者提早研判算法應用過程中產生的平安風險并提出針對性應對辦法,在算法性命周期內按期開展算法風險監測任務,針對算法的數據應用、應用場景、影響後果等進行自我平安評估。此外,可開啟公眾監督舉報、監管部門巡視等多種辦法。
北京中醫藥年夜學法令系傳授鄧勇也認為,隨著醫療年夜模子的發展,這一產業合規運營與監管顯得越發主要,需求確定本身的產品定位并獲取對應的資質,防止無資質開展相應活動。“合規方面,重要應當確定本身的產品定位,如屬于互聯網診療產品的,需求聯系或樹立對應的實體醫療機構并申請設置相應的互聯網醫院,并在醫師資源、病歷治理、藥品配送、處方開具上滿足相應請求,如僅作安康治理,不觸及診療活動的,必須明確本身產品不具有‘醫療目標’,僅‘預期用于安康治理、目標人群為安康人群、記錄統計安康信息’用。”
他提出,還應當采取數據清洗等方法確保往除公開數據中的違法和不良信息及個人信息,保證訓練數據符合法規合規。醫療年夜模子搜集用戶數據的請求,需求遵守符合法規、正當、需要的原則,不搜集與所供給服務無關的個人信息。
“醫療年夜模子搜集用戶數據的紅線行為包含:未公開搜集應用規則;未昭示搜集應用個人信息的目標、方法和范圍;未經用戶批準搜集應用個人信息;違反需要原則,搜集與其供給的服務無關的個人信息;未經批準向別人供給個人信息;未按法令規定供給刪除或更正個人信息效能或未公布投訴、舉報方法等信息。”鄧勇說,搜集互聯網公開數據時,為確保其符合法規合規,還需求實行告訴批準法式、匿名化法式、供給拒絕渠道等操縱。此外,應當重視數據標注機制,通過標注避免天生色情暴力、歧視性信息等違法和不良內容,實現內容平安。
針對線上醫療問診裸露出的問題,陳川認為,亟須明確人工智能的法令責任,樹立科學公道的責任分派機制,強化醫務人員的主體責任,明確AI處于輔助性位置,細化各領域參與者的責任,不克不及將醫療診斷徹底交給AI,應遵守“事前預防—事中監控—事后問責”的原則。“醫務人員外行醫過程中須實行留意義務,即醫務人員須留意識別和鑒定AI診斷結果,否則應當承擔責任。”(文麗娟 實習生 張廣龍)