作为研究人工智能(AI)伦理和法律问题的学者,我承认自己对AI的应用感到担忧,认为它可能会对社会经济稳定和社会造成不利影响。AI的商业化威胁到劳动力的权力,进一步集中财富和权力,并通过使人们难以区分真假来动摇民主。
但这并非全是坏消息。多伦多Unity Health研究所的研究人员开发的CHARTWatch AI工具最近因其新研究而登上头条,该研究显示,该工具与圣迈克尔医院普通内科住院患者的意外死亡风险降低了26%有关。这个机器学习的早期预警系统分析了患者电子病历中超过100个方面的医疗历史和当前健康状况,并提醒工作人员注意患者突然恶化的风险。
CHARTWatch展示了AI可以用来拯救生命而不是毁灭生命。但这些发现也说明了医院正处于长期缓慢崩溃的状态。一些本可以避免的死亡几乎肯定可以通过适当的人员配备和未完全疲惫的工作人员对患者的更好监督来预防。这表明,由多种压力驱动的医疗错误和疏忽,自2020年以来迅速加剧,已成为加拿大医疗保健中的一个大问题,并且可能在增长。
然而,暗示休息良好的人类有时间彻底审查患者的病历会发现同样的问题或像CHARTWatch那样发出警报,这也是误导性的。AI系统以其统计方法著称,能够检测到人类忽略的模式(当然,它们也可能更容易犯某些类型的错误)。人类难以理解AI系统的内部机制,这就是所谓的“黑箱”问题。这种不透明性也给其监管带来了问题,许多研究人员正在通过开发可解释的AI和增强对底层模型的报告来解决这一问题。
CHARTWatch是AI有益应用的关键示例之一。与其取代整个职业并扩大失业人数,智能设计的AI可以填补关键人员的空缺,我们虽然急需这些人员,但却无法拥有,同时还能通过利用超人的能力提高工作质量。
值得注意的是,26%的意外死亡减少率是与同一医院较早时期接受治疗的患者相比得出的。对照组中的一些患者当时不在姑息护理中,如果当时存在并实施了CHARTWatch,他们很可能还活着。鉴于我们讨论的并不是一种有严重副作用的药物,这一点非常重要。
在人类健康研究的伦理监督中,一个关键概念是确保临床平衡,即对于某一特定条件,试验各组之间存在真正的不确定性,哪一组最有效。尽管仍有一定的怀疑和可能存在混淆变量,但可以说CHARTWatch已经不再具有临床平衡。换句话说,让医院内一些内科患者使用CHARTWatch而另一些不使用的试验将是不道德的。
这意味着在这一背景下,有条件地将其纳入标准护理是有必要的。尽管CHARTWatch可能有一些有害的负面影响,但由于它只是警告工作人员,而不直接决定后续的医疗措施,因此这些负面影响相对于其好处可能是有限的。有强烈的伦理理由支持广泛实施CHARTWatch,同时继续对其进行深入研究。对其有效性的持续研究应继续与历史意外死亡率进行比较,或与其他未实施该技术的地区的死亡率进行比较。
当然,即使CHARTWatch这样的AI系统最终成为医生和监管机构认可的标准护理,这并不一定意味着它们会被资助和实施。加拿大没有法定的医疗保健权利,部分原因是这将意味着资助所有干预措施,无论其费用有多高,效果有多弱。
如果我们不继续开发、测试和实施本土解决方案,美国的大数据公司最终将成为这些产品的唯一来源,加拿大医疗保健的结果可能会依赖于不平衡的软件合同,其中一些合同也可能对加拿大人健康记录中的个人隐私构成严重风险。
希望我们能找到时间和资源来开发这些计算机程序,它们或许能拯救很多生命。
(全文结束)

