医疗机构正寻求利用人工智能(AI)工具改善患者护理,但由于评估医疗保健中的AI仍具挑战性,这些工具在临床环境中的应用一直不一致。在一篇新文章中,研究人员提出了一个使用AI的框架,该框架包含应用价值观的实用指南,并不仅考量工具本身的特性,还纳入其使用所处的系统环境。
本文由卡内基梅隆大学(Carnegie Mellon University)、多伦多病童医院(The Hospital for Sick Children)、达拉·拉纳公共卫生学院(Dalla Lana School of Public Health)、哥伦比亚大学(Columbia University)和多伦多大学(University of Toronto)的研究人员撰写,发表在《Patterns》期刊。
卡内基梅隆大学伦理与计算技术K&L Gates教授、文章合著者亚历克斯·约翰·伦敦(Alex John London)解释道:"监管指南和机构方法过于聚焦AI工具的性能表现,忽视了将模型整合到更大医疗实践社会系统所需的知识、实践和程序。工具并非中立——它们反映我们的价值观——因此其运作方式体现了它们被部署其中的人员、流程和环境。"
伦敦同时担任卡内基梅隆大学伦理与政策中心(Center for Ethics and Policy)主任、技术与社会Block中心(Block Center for Technology and Society)首席伦理学家,以及该校哲学系教师。
伦敦及其合著者主张概念转变:将AI工具视为更大"干预集合"的组成部分,即向患者提供护理所必需的知识体系、实践规范和操作程序。此前与其他同事合作时,伦敦已将此概念应用于制药和自动驾驶汽车领域。该方法将AI工具定位为"社会技术系统",作者提出的框架旨在促进AI系统负责任地融入医疗保健体系。
该领域先前研究多为描述性,解释AI系统如何与人类系统互动。而伦敦团队提出的框架具有前瞻性,为设计者、资助方和使用者提供实操指导,确保AI系统能整合到工作流程中以最大化患者获益。该方法同样适用于监管规范制定、机构决策,以及负责任且合乎伦理地评估和使用AI工具。为验证框架有效性,作者将其应用于中度及以上糖尿病视网膜病变诊断系统的开发。
文章合著者、多伦多病童医院生物伦理学家兼达拉·拉纳公共卫生学院临床与公共卫生助理教授梅丽莎·麦克拉登(Melissa McCradden)表示:"仅少数通过临床试验评估的模型显示出净效益。我们期望新框架能提升评估精确度,并引导监管机构明确支持AI系统监管所需的证据类型。"
参考文献:
- Melissa D. McCradden, Shalmali Joshi, James A. Anderson, Alex John London. 《医疗保健中作为社会技术系统的人工智能的规范框架》. 《Patterns》, 2023; 4 (11): 100864
【全文结束】

