人工智能在医疗领域正在到来。实际上,它已经无处不在,比大多数人意识到的还要广泛。
作为一家AI医疗公司的首席执行官,我坚信这是一场胜利。AI工具正在简化浪费临床医生时间的行政工作,提升护理质量,降低成本,并让更多人获得医疗服务。
医疗行业需要变革,而AI正在推动这场变革。
但即便如此,我认为我们的步伐过快——非常快。
尽管潜在收益巨大,我们不能让对AI能力的兴奋蒙蔽双眼,忽视其在医疗领域的风险。
问题不在于AI是否应该进入医疗领域,而在于我们选择哪条路径。
我们会选择基于严格保障、测试和独立监督的“安全气囊路径”吗?
还是会走上“石棉路径”,仅仅因为AI有效、廉价且看似无害(至少目前如此)而将其无处不在地部署?
一条路径让我们在保持对风险高度警惕并优先保障患者安全的同时,充分享受AI在医疗中的所有优势;另一条路径则优先考虑速度、节省和错失恐惧症,可能导致我们事后才意识到自己制造了难以消除的系统性风险。
石棉路径的隐患
在20世纪的大部分时间里,石棉被视为一种工业“神奇材料”。
它无可替代:防火、耐化学腐蚀、不导电。它既坚固到能加固水泥,又柔韧到可编织成织物。储量充足且最关键的是:价格低廉。
因此它无处不在——屋瓦、瓷砖、隔热材料、刹车片甚至烤箱手套。甚至人造圣诞雪中也有它的身影。
当我们意识到其危险性时,石棉已无孔不入。清除它极其困难,而在此期间它仍在持续造成伤害。
AI似乎正沿着相似路径发展。
自ChatGPT横空出世以来,AI功能正迅速渗透更多领域,吸引越来越多用户,承担越来越多责任。AI工具能写作、编程、绘画、与客户聊天、优化股票交易、辅导孩子功课。它能全天候不间断工作,成本仅为人工的一小部分。
如今它正在变革医疗领域,在从文档记录、计费到排班、诊断和临床决策支持的各个环节发挥作用。AI听写员聆听医患对话并生成病历;聊天机器人对患者诉求进行分诊;AI系统处理预先授权和保险拒付,协助医生制定诊断和治疗方案,甚至在虚拟就诊中直接与患者互动。
这些工具确实有用,但问题恰恰在此——它们太有用,让人难以抗拒在每个环节都添加AI。
如同石棉,AI具有多功能性;如同石棉,AI成本效益显著;如同石棉曾经的情况,其风险并不总是立即显现。
这在医疗领域制造了完美的安全隐患风暴:
我们无法衡量未追踪的内容。 很少有机构能系统性地大规模识别和追踪负面结果、错误或偏见。由于仅有小部分医疗文档和互动接受审计,AI听写员的幻觉和AI系统的医疗错误很容易被忽视,风险可能在数千名患者中悄然累积。
低错误率掩盖风险规模。 在近期一项研究中,AI转录的幻觉率估计为1.4%,但其中近40%的幻觉具有潜在危害。这听起来很小,但在大型医疗系统中,可能意味着每天有数千次患者互动将有害的错误信息带入临床记录并影响诊疗决策。
一旦嵌入便难以剥离。 AI在医疗中的主要优势是扩大可及性和提升效率:节省时间,让更多患者获得护理。但互动越多,风险越大。医疗机构素来抗拒破坏工作流程,这意味着一旦AI融入系统,即使后续出现问题,移除它也会异常困难。
迄今为止,机构不得不依赖AI供应商自我监管,由其自行证明准确性和安全性。即使AI公司竭尽全力,利益冲突也显而易见。我们实质上是要求制造商在将产品更深嵌入临床工作流程时自行监督。
显然,AI与石棉并不相同:石棉的危害是固有的,其益处有限。不存在安全使用石棉的方式,更便宜的隔热材料不值得人们因此患病。
而AI不仅持续进步,还为患者和医护人员带来无与伦比的潜在益处。
正因如此,答案不是“停止使用AI”,而是审慎实施、持续评估以及对持续改进的承诺。
安全气囊路径的前景
AI终将引领医疗领域前进,这是大势所趋。提供更高质量、更低成本的护理潜力巨大,市场激励过强,这列火车已无法停止。
但我们必须牢记:医疗并非AI部署的普通领域。这里的赌注最高——错误不仅造成经济损失,更会危及生命。
正因如此,医疗AI必须满足最高安全标准,即使这意味着更慢的采用速度或更高的部署维护成本。
如今难以置信的是,安全气囊和安全带并非汽车标配。它们并非因制造商自愿认为是好主意而添加。事实是,监管机构认识到某些技术在高风险情境下需要强制安全标准:独立测试、部署前的严格认证、上市后监控。
同样的逻辑应适用于医疗AI。
独立质量评估必不可少。 在临床环境中大规模部署AI工具前,应接受严格独立的评估,而非仅依赖供应商的自我声明。这并非要求完美——安全气囊并非完美,但其设计已包含已知故障模式和安全余量。
持续监控应成标准。 部署后,AI工具需要系统监督:追踪结果、标记异常性能变化、监测偏见或故障模式。同样,这种监控必须独立。
临床医生和机构需要透明度。 每位使用AI的医疗提供者都应了解系统的工作原理、局限性及常见故障点。用户还必须能够放心提出疑虑,在不被贴上“反AI”标签或因商业原因被忽视的情况下标记问题。
AI本身可创新扩展监督。 AI系统可被训练用于检测其他AI系统的异常。换言之,AI能“质控”AI。它们能以人力审计无法企及的规模,审核AI输出和代理在护理质量、监管要求、执业范围等方面的表现。但关键仍是独立性。
安全气囊路径并非拒绝医疗AI,而是带着保障措施说“是”——通过独立验证和持续警惕。它承认最强大的技术需要最严格的治理。
如同汽车中的安全气囊,终有一天我们会将这些保障视为理所当然,并疑惑:当初没有它们,我们怎能将AI部署在医疗环境中?
核心结论:AI安全并非反AI
AI已深度融入医疗领域。总体而言,我坚信这对患者、医护人员和医疗机构而言是三赢局面。
但AI并非完美,而医疗是风险最高的领域。尽管无处不在的AI潜力巨大,我们不能让兴奋驱使我们匆忙部署而不考虑长期风险。
医疗领域绝对不适合“快速行动打破常规”——因为有些错误无法轻易修复。
这项技术无疑能让更多人获得更有效的医疗服务,这无疑是崇高的目标。但我们不能让错失恐惧症损害安全,尤其在医疗领域。务必确保医疗中的“AI无处不在”引领我们走向安全气囊路径,即使这需要付出更多努力。
【全文结束】

