上一篇文章中,IHI?。蹋酰悖椋幔睢。蹋澹幔穑逖芯克偌藖?lái)自亞馬遜、谷歌、微軟等大型科技公司以及哈佛醫學(xué)院、Leapfrog?。牵颍铮酰稹『汀。耍幔椋螅澹颉。校澹颍恚幔睿澹睿簦宓膶?zhuān)家組,針對生成式AI在醫療領(lǐng)域的三大用例展開(kāi)了分析,并就生成式AI對于患者安全的影響展開(kāi)了全面評估。
*相關(guān)閱讀:生成式AI與患者安全(上):專(zhuān)家組詳解三大應用場(chǎng)景與挑戰
那么,如何最大限度地發(fā)揮生成式AI 的優(yōu)勢,消除患者安全和質(zhì)量方面的“慢性問(wèn)題”,并最大限度地降低技術(shù)對患者和患者安全的風(fēng)險,一些關(guān)鍵群體必須深入思考相應的策略。
本文將詳細分析醫療活動(dòng)中不同群體的角色、責任、他們面臨的挑戰,以及如何負責任地采用生成式AI。
01患者和患者權益倡導者
患者是醫療保健服務(wù)的直接受益者,他們對生成式AI的引入持有重要的發(fā)言權。
專(zhuān)家組建議,患者和患者權益倡導者需要確保醫療機構在應用生成式AI時(shí)保持透明。在目前的初級階段,醫療機構必須制定披露和同意的最低標準,以確?;颊吡私庠谄溽t療過(guò)程中使用生成式AI 的情況?;颊邞袡噙x擇拒絕使用生成式AI,并在拒絕時(shí)獲得適當的替代方案?;颊咝枰谥榈那闆r下同意使用其數據。
02臨床醫生
臨床醫生是生成式AI應用的直接參與者。他們必須要了解這些新技術(shù),并合理地將它們融入日常醫療實(shí)踐中。
專(zhuān)家組建議,臨床醫生應將生成式AI節省下來(lái)的時(shí)間,部分用來(lái)改善患者護理,提高醫療質(zhì)量和安全性。同時(shí),臨床醫生需要了解生成式AI的局限性和挑戰,倡導持續改進(jìn),運用專(zhuān)業(yè)知識理解和改善現有的問(wèn)題,如偏見(jiàn)、數據集代表性不足、缺乏透明度或可解釋性等。努力學(xué)習新技能,包括基本的生成式AI知識、人工智能與倫理、臨床生成式AI工具的模擬練習,以及醫療保健系統實(shí)踐和政策指導等。
此外,臨床醫生應將生成式AI工具視為輔助工具,而非替代品,在臨床決策中保持最終決策者的角色。小心謹慎,確保對AI工具的使用進(jìn)行監督,從而實(shí)現實(shí)際的安全,而不僅僅是表面安全。
03安全與質(zhì)量專(zhuān)業(yè)人員
患者安全和質(zhì)量專(zhuān)業(yè)人員負責監控流程、識別風(fēng)險和實(shí)施最佳實(shí)踐,以防止差錯和減少傷害。他們需要利用生成式AI來(lái)加強對患者安全問(wèn)題的檢測和監控,并提高報告的效率。
安全與質(zhì)量專(zhuān)業(yè)人員必須確保,通過(guò)這些AI技術(shù)所獲得的時(shí)間能夠被用來(lái)高效分配安全管理任務(wù),制定有效的戰略來(lái)減少反復出現的安全風(fēng)險和危害,而不是僅僅優(yōu)先考慮降低成本。
在使用人工智能加強事件報告流程之前,應當重新思考患者安全的關(guān)鍵模式,在實(shí)際傷害發(fā)生之前進(jìn)行識別和預防。
與其他關(guān)鍵群體進(jìn)行合作(如患者和臨床醫生、信息技術(shù)和信息學(xué)人員、數據科學(xué)家和分析師、領(lǐng)導者),以促進(jìn)安全、高質(zhì)量的醫療,避免僅僅名義上的參與。
04醫療保健系統
雖然生成式AI有望簡(jiǎn)化運營(yíng)和提高醫療水平,但醫療系統的領(lǐng)導者必須把握好相關(guān)風(fēng)險。包括以負責任、合乎道德和公平的方式開(kāi)發(fā)、實(shí)施和使用人工智能系統,確保其可信度和準確性,并降低網(wǎng)絡(luò )安全風(fēng)險。
醫療系統及其領(lǐng)導者必須確保生成式AI的使用滿(mǎn)足現有需求。制定和實(shí)施計劃時(shí),需考慮可能出現的錯誤結果和意外后果,并營(yíng)造重視患者安全、公平和負責任地使用生成式AI的氛圍,以提高醫療服務(wù)質(zhì)量。
同時(shí),專(zhuān)家組強調,應用生成式AI的同時(shí),應將時(shí)間效率重新分配,以減少臨床醫生的倦怠感。
此外,需要在教育、培訓和保障措施方面進(jìn)行投資,以培養有效使用生成式AI工具的能力,并確保臨床醫生和其他人員保持基本的醫療能力。
建立健全的人工智能管理,促進(jìn)跨學(xué)科合作。建立管理、評估和監控程序,指導基因人工智能的使用,并制定明確的隱私、安全(包括網(wǎng)絡(luò )安全)、數據所有權和管理政策,以及基于AI工具的內部開(kāi)發(fā)指南等,在快速部署的愿望與謹慎的需要之間取得平衡。內部開(kāi)發(fā)的AI工具要能夠支持和加強臨床醫生與患者之間的關(guān)系,進(jìn)行以人為本的設計。
05生成式AI 開(kāi)發(fā)人員
生成式AI的開(kāi)發(fā)者在創(chuàng )新與人類(lèi)福祉和安全之間必須取得平衡。需要優(yōu)先考慮透明、可解釋的人工智能設計,使患者和臨床醫生能夠理解并信任其輸出結果。
與醫療保健專(zhuān)業(yè)人員、安全領(lǐng)導者、患者和患者權益倡導者密切合作,收集反饋并不斷改進(jìn)人工智能工具。開(kāi)發(fā)者還必須主動(dòng)了解和降低患者安全風(fēng)險,對AI工具進(jìn)行持續監測,避免偏差。
此外,還需整合先進(jìn)的數據安全措施,保護敏感的患者數據,直面隱私和數據所有權問(wèn)題。在產(chǎn)品的整個(gè)生命周期中遵循現有的網(wǎng)絡(luò )安全準則,主動(dòng)識別數據的潛在風(fēng)險,隨時(shí)了解并遵守醫療法規和指導方針,確保人工智能工具符合管理機構制定的安全、隱私和道德標準。
06研究人員
研究人員在建立生成式AI研究基礎,以及縮短科研與實(shí)踐的鴻溝中,扮演著(zhù)關(guān)鍵角色。他們需要研究如何減輕數據集的偏差問(wèn)題,提高AI工具的可信度。
以人為本的設計需要進(jìn)行大量的研究,包括與患者偏好、警報疲勞,以及技術(shù)對醫患關(guān)系的影響等相關(guān)的人為因素問(wèn)題。
此外,另一個(gè)關(guān)鍵的研究領(lǐng)域是如何確保人類(lèi)對AI工具進(jìn)行有效監督,研究人員可以幫助制定相關(guān)策略,以克服生成式AI的潛在風(fēng)險。
07監管者和決策者
促進(jìn)負責任的生成式AI采用,監管者和政策制定者起著(zhù)至關(guān)重要的作用。他們需要制定明確的指導方針,制定全面的法規,重點(diǎn)關(guān)注患者安全、數據保護和合乎道德地使用技術(shù)。與開(kāi)發(fā)者和用戶(hù)合作,規定生成式AI 系統的透明度,以確保用戶(hù)了解人工智能是如何做出決策的,并在出現錯誤或不利結果時(shí)建立問(wèn)責機制。
監管者和決策者還有責任促進(jìn)人工智能掃盲,提高公眾意識。
此外,應當激勵那些將安全放在首位的人工智能開(kāi)發(fā)和研究,并促進(jìn)本地化決策,同時(shí)為總體人工智能安全和道德標準提供框架。