引言
人工智能(AI)正在变革包括医疗健康在内的多个领域,但其在手术中的应用引发了严重担忧。特鲁迪(TruDi)导航系统等AI整合型医疗器械的激增,已导致意外并发症甚至严重患者伤害。本文探讨手术环境中AI的风险,剖析典型案例,并分析对未来医疗创新的影响。
手术室中的AI风险
医疗领域的AI技术常被宣传为突破性进展,但现实更为复杂。以专为鼻窦手术设计的特鲁迪导航系统为例,该设备初期安全记录良好,三年仅收到7起故障报告。然而2021年引入AI功能后,美国食品药品监督管理局(FDA)收到超100起故障通知及至少10起患者伤害报告。这些事件包含中风和脑脊液泄漏等危及生命的并发症,主要归因于手术过程中的AI误报。
这引发关键问题:对于已显露重大缺陷的AI系统,应给予多少信任?随着FDA批准的AI医疗设备数量增至1,357件,潜在不良后果风险同步攀升。
对AI的过度依赖问题
《美国医学会杂志·健康论坛》(JAMA Health Forum)最新研究显示,43%的AI医疗设备在获批一年内因严重问题被召回,这一比例几乎是普通设备的两倍,表明仓促上市可能损害安全标准。批评者指出,强生公司(Johnson & Johnson)等企业在特鲁迪导航系统相关诉讼中,优先推广AI功能而忽视严格测试。
对AI的过度依赖影响远超手术结果。例如用于分析胎儿影像的索尼奥检测系统(Sonio Detect),被报告存在胎儿结构误标问题,证明即使在非侵入性场景中,AI错误仍可能发生。此类不准确可能导致误诊和错误治疗方案,进一步复杂化患者护理。
监管挑战与行业反应
FDA监督医疗AI安全的能力因预算削减而严重受限,审查技术的工作人员大幅减少。这引发对新上市AI设备评估严谨性的担忧。因特格拉生命科学公司(Integra LifeSciences)等设备责任方常淡化风险,声称不良事件报告不构成因果关系,使患者和医疗专业人员陷入危险境地。
结论
AI整合至手术流程既带来机遇也蕴含重大风险。尽管存在提升效率和效果的潜力,但当前环境因系统缺陷和监管不足而充满危险。随着医疗持续拥抱技术,各利益相关方必须将患者安全置于快速创新之上。
为确保AI进步不损害手术安全,可采取哪些措施?就AI在医疗中的伦理影响展开公开讨论,或是实现技术负责任整合的关键一步。
【全文结束】

