作为一名研究人工智能(AI)伦理和法律问题的学者,我承认自己对AI的应用感到担忧,认为它可能会对社会经济稳定和社会造成负面影响。AI的商业化威胁到劳动力的权力,进一步集中财富和权力,并通过使人们难以区分真假来破坏民主。
但并非全是坏消息。多伦多Unity Health的研究人员开发的CHARTWatch AI工具最近因其新研究而登上头条,该研究显示,该工具与圣迈克尔医院普通内科住院患者26%的意外死亡风险降低有关。这个基于机器学习的早期预警系统分析了患者电子病历中超过100个方面的医疗历史和当前健康状况的互动,并提醒工作人员注意突然恶化的风险。
CHARTWatch展示了AI如何用于拯救生命而不是毁灭生命。但这些发现也揭示了医院处于持续的缓慢崩溃状态。一些被避免的死亡几乎肯定可以通过适当的人员配置和改进的患者监督来预防,而这些监督本可以由未完全精疲力竭的工作人员提供。这表明,由于自2020年以来我们目睹的各种压力的迅速加剧,医疗错误和疏忽已成为加拿大医疗保健中的一个大问题,而且可能正在增长。
然而,暗示精力充沛的人类有时间彻底审查患者的病历就能发现同样的问题或发出警报,这也是误导性的。AI系统以其统计方法著称,能够检测到人类忽略的模式(公平地说,它们也可能更容易犯某些类型的错误)。人类难以理解AI系统的内部方法论被称为“黑箱”问题。这种不透明性也为监管带来了问题,许多研究人员正在通过开发可解释的AI和增强对底层模型的报告来解决这一问题。
CHARTWatch展示了AI的一个关键有益应用。与其取代整个职业并扩大失业人数,智能设计的AI可以替代或填补我们缺乏但迫切需要的关键人员的工作缺口,同时通过利用非人类能力来提高工作质量。
值得注意的是,26%的意外死亡减少率是与同一医院早期时间段的患者相比得出的。对照组中的一些患者当时不在临终关怀中,如果当时存在并实施了CHARTWatch,他们本可以活下来。鉴于我们讨论的不是一种有严重副作用的药物,这是一个重要的进展。
人类健康研究伦理监管的一个关键概念是确保临床平衡,定义为对试验某一条件下的哪一臂最有效存在真正的不确定性。尽管仍有一定的怀疑和潜在的混杂变量,但可以认为CHARTWatch已不再具有临床平衡。换句话说,在医院内部医学科患者中进行试验,其中一些患者使用CHARTWatch而另一些不使用,将是不道德的。
这意味着在这一背景下,其使用应有条件地成为标准护理。虽然使用CHARTWatch可能存在一些有害的副作用,但鉴于它仅警告工作人员而不直接指导随后的医疗护理,这些副作用可能相对有限。有强烈的伦理理由支持在普通内科病房广泛实施CHARTWatch,同时继续对其效果进行深入研究。对其有效性的持续研究应继续与历史意外死亡率或未实施该技术的其他司法管辖区的死亡率进行比较。
当然,即使CHARTWatch式的AI系统最终成为医生和监管机构接受的标准护理,这并不一定意味着它们会被资助和实施。在加拿大,没有法律上的医疗保健权利,部分原因是这将意味着需要资助所有干预措施,无论其成本有多高,疗效有多弱。
如果我们不继续开发、测试和实施本土解决方案,美国的大数据公司最终将成为这些产品的唯一来源,加拿大医疗保健结果可能在某种程度上依赖于不对等的软件合同,其中一些合同还可能对加拿大人的健康记录中的个人信息构成严重的隐私风险。
希望我们能找到时间和资源,为可能拯救许多生命的计算机程序提供支持。
(全文结束)

