为医用人工智能注入生命力

2024-03-04 13:08:56 浏览数 (1)

今天为大家介绍的是来自Trivedi Hari团队的一篇论文。

近年来,医疗保健领域的人工智能(AI)发展迅猛,以放射学为基础的AI技术广受关注。迄今为止,在美国,已有超过390种获得食品药品监督管理局(FDA)批准的AI软件设备,而在欧洲和亚洲,这一数字更是更大。AI在帮助检测和诊断方面的能力已经在多个回顾性和一些前瞻性试验中得到展示;然而,良好的模型表现并不总是能够转化为临床实用性。在将AI模型部署到临床工作流程中时,需要仔细考虑,包括目标受众、结果的时效性及其对临床护理的影响。随着基础模型(foundation models)的最近出现,在实验室条件下开发表现良好的模型的障碍将继续降低,模型的影响将更多地取决于围绕部署、安全和监控的周密计划,而不仅仅是绝对的性能指标。在《临床重症医学》杂志的这一期中,研究人员开发了一个深度学习(DL)模型,用于检测、分割和分类胸部X光片上位置错误的气管插管(ETTs)。该模型在检测和分割ETT方面的整体表现非常好;然而,在深部气管插管方面的表现大大下降。该模型依赖于气管和主支气管的分割,在许多情况下效果并不理想,这突显了医疗AI面临的一个挑战:人类解剖结构在不同病人之间可能有很大的差异。随着医疗AI变得更加普遍,这些和其他挑战需要在将AI部署到临床实践中时进行仔细思考。

数据整理

作者们展示了为深度学习(DL)模型开发高质量数据集的复杂性。他们的策略开始于从放射学报告中进行关键词搜索,但这对于捕捉位置错误的气管插管(ETT)是不够的。因此,他们增加了其他支持设备数据,然后选择每位患者可用的第一张胸部X光片。然而,这种方法的一个局限性在于,它可能没有考虑到样本中患者的年龄差异。这种年龄差异可能会影响系统在实际应用过程中的表现。通过在分类之前对气管和ETT进行分割,作者们降低了其他因素干扰的发生率,这在其他几个胸部X光预测模型中已经被证明,模型学习的特征来自医院和扫描仪的信息而不是真正关注疾病。

临床实用性

临床实用性的评估最终取决于模型的实际用例,即解决的问题、问题的频繁程度、当前检测的困难程度或检测的延迟,以及漏诊或误诊的后果。对于医疗保健中的人工智能而言,理想的用例是那些经常发生、难以检测或检测有延迟、并且漏诊/误诊后果严重的问题。在气管插管位置错误的情况下,这些条件部分但不完全满足。位置错误的管子很常见,但它们相对容易在重症监护室(ICU)的床边被护理团队检测和纠正。通常,管子在放射科医师接收并解读检查结果之前已经被重新放置。这种工作流程被纳入了模型的设计中,因为作者们使用了一种分层注解方法,首先是护士,然后是急诊医师,最后由放射科医师裁定。此外他们观察到,仅仅基于重新标注的图像是不够的,模型还需要发现什么样的问题是更重要的来减轻警报疲劳——如支气管内插管比浅插管更紧急。

模型部署问题

在医疗保健AI模型的实际部署中,应优先考虑获取模型结果的速度和便利性,而不仅仅是关注绝对性能。AI模型可以通过各种方式提供结果,包括在设备上(如X光机)的通知、电子健康记录中的警报,以及通过专门的应用程序发送的手机提醒。根据具体用例,其中一个或多个选项可能是最佳选择。在气管插管位置错误的情况下,理想的模型应该足够高效,能够在边缘设备上运行,如X光机,从而为放射技师或重症监护团队提供即时结果。这不同于在单独的节点上运行的模型,该节点从影像存储和通信系统接收数据,然后向放射科医师发出警报,由其随后通知护理团队。从获取便携式X光片到上传供解读之间,通常会有长达一个小时的延迟。在设备上运行且能提供即时结果的性能较低的模型,将比一个小时后提供结果的高性能模型为患者带来更多的现实世界效益。

非专业人士的友好度

目前为止,放射学中的大多数AI模型都是以放射科医师为主要最终用户设计的。然而,随着AI性能的提高和与临床护理的更多融合,护理团队在床边直接使用AI具有重要意义。这既是一个机会,也是一个关于非影像专业人员AI的领域。目前AI模型与人类失败的关系研究不足;然而,自动化偏见是一个已知现象,可能会降低使用者的警惕性。AI模型在人类失败的相同情况下也可能会失败,过度依赖AI在这些情况下可能会产生灾难性的后果。医疗保健中的安全往往取决于不常发生的边缘案例,AI在更困难的案例中的依赖可能会带来不可预测的后果,特别是当最终用户之前没有受过独立评估图像的培训时。

医疗法律问题

在医疗领域使用AI的法律影响目前仍然未知。在当前的模式中,放射科医师最终对放射学报告的准确性负责。然而,与模型预测持不同意见或忽视其输出的医疗问题并不清楚。许多问题随之而来——AI的结果在法庭上能否被认可,并且能否被用作证据表明放射科医师没有达到护理标准?虽然这可能几年前只是理论上的构想,但一位匿名的放射学供应商透露,医疗事故律师要求他们的AI软件在图像上运行,作为证据表明放射科医师错过了癌症诊断。随时运行的AI模型产生了复杂的医疗法律问题。可以推测,最终的责任将落在采取或未采取AI结果行动的护理提供者身上。然而随着自主AI解决方案的开发,这些问题将变得更加困难,这些解决方案可以生成解释甚至在没有人类干预的情况下采取行动。在某种意义上,许多设备中已经部署了自主系统,尽管形式较为简单。例如,呼吸机有内置软件根据患者因素调整通气参数,这些设备在未来几年中几乎肯定会将更高级的AI算法整合到其软件中。我们应考虑对AI设定一定的法律框架对其进行约束。

成本问题

最后我们必须考虑AI模型部署的经济学问题。支付AI解决方案的几种常见模式包括:每个站点按年度固定费用、按分析的每次检查成本或按用户成本。根据具体用例,某些模式可能比其他模式更适合。例如,肺炎检测的模型可以在所有胸部X光片上运行,而气管插管位置检测的模型应该只在使用呼吸机的患者上运行。进一步考虑这些,我们可以考虑仅在插管的第一天运行模型,或者只有在护理团队对位置不确定时运行。这在按使用付费模式下可能更具成本效益,但在大多数情况下不切实际,并可能导致模型参与度有限。因此,目前大多数AI公司都在企业级别收费,并将成像量划分为固定价格层。AI模型还可以通过提高诊断准确性或发现相关的其他病症,从而为医院系统带来增加的收入,进而吸引那些本来会在非医院系统接受护理的患者。

编译 | 曾全晨

审稿 | 王建民

参考资料

Trivedi, Hari MD; Gichoya, Judy MD, MS. Breathing Life Into Artificial Intelligence*. Critical Care Medicine 52(2):p 345-348, February 2024. | DOI: 10.1097/CCM.0000000000006124

0 人点赞