新指南已发布,旨在创建医疗保健中的可信人工智能(AI)系统。这是首个此类指南,FUTURE-AI指南提供了涵盖从设计、开发和验证到监管、部署和监控的整个医疗AI生命周期的建议。
近年来,人工智能在医疗保健领域取得了显著进展,帮助完成疾病诊断和预测治疗结果等任务。然而,尽管这些进步,许多医疗保健专业人员和患者仍然对完全接受AI技术持犹豫态度。这种犹豫主要源于对信任、安全和伦理的担忧。
特别是,现有研究表明,医疗保健领域的AI工具可能容易出错并导致患者伤害、偏见和增加的健康不平等、缺乏透明度和问责制,以及数据隐私和安全漏洞。
为了克服这些挑战,FUTURE-AI联盟制定了一套全面的指南,并在《BMJ》上发表。该指南由来自50个国家的117位专家共同制定,称为FUTURE-AI,为创建可信和负责任的医疗保健AI工具提供了一个路线图。
FUTURE-AI指南围绕六个指导原则构建:
- 公平性:AI应公平对待所有患者,无偏见。
- 普遍性:AI解决方案应适用于不同的医疗保健环境和人群。
- 可追溯性:应能够追踪AI系统如何做出决策。
- 可用性:AI工具必须对医疗保健专业人员和患者都易于使用。
- 稳健性:AI系统应在各种条件下可靠运行。
- 可解释性:患者和临床医生需要清楚地了解AI是如何得出结论的。
牛津大学纳菲尔德骨科、风湿病学和肌肉骨骼科学系(NDORMS)医学统计学教授Gary Collins表示:“这些指南填补了医疗保健AI领域的一个重要空白,使临床医生、患者和卫生当局有信心采用AI工具,知道它们在技术上是可靠的、临床上是安全的,并且符合伦理。FUTURE-AI框架设计为随着时间而演变,适应新技术、新挑战和利益相关者的反馈。这种动态方法确保指南在医疗保健AI领域迅速发展的过程中保持相关性和实用性。”
(全文结束)

