一个由来自50个国家的117名研究人员组成的国际团队就六个应指导全球医疗保健中人工智能(AI)使用的准则达成了共识。这些原则包括公平性、普遍性、可追溯性、可用性、鲁棒性和可解释性。该团队将其命名为FUTURE-AI联盟,取自这六个词的首字母缩写。本月发表在《英国医学杂志》(The BMJ)上的一篇论文中,联盟的一个重要子团队将这六项原则分解为30条详细的建议,用于构建值得信赖且易于部署的AI系统。论文主要作者、巴塞罗那大学的Karim Lekadir博士及其合著者表示,这一框架是“动态”的,意味着它将随着时间的推移而演变,以适应技术进步和利益相关者的反馈。以下是这六项原则的简要介绍:
1. 公平性
研究人员解释说,医疗保健中的AI工具应在个体和群体之间保持相同的性能。“所有公民都应平等地获得基于AI的医疗服务”,他们写道。尽管在实践中实现完美的公平可能无法达到,但:
“AI工具应开发得能够识别、报告并尽可能最小化潜在的AI偏见,以实现理想情况下相同——至少高度相似——的子群体性能。”
2. 普遍性
医疗保健AI工具应在构建它的受控环境之外具有通用性。具体而言,AI工具“应能推广到新患者、新用户,以及适用时的新临床场所”。此外:
“医疗保健AI工具应尽可能具有互操作性和可转移性,以便大规模惠及患者和临床医生。”
3. 可追溯性
医学AI工具“应与记录和监控AI工具完整轨迹的机制一起开发”,从开发和验证到部署和使用,作者表示。
“这将通过在整个生命周期内提供关于AI工具的详细和连续信息来提高透明度和问责制,使临床医生、医疗机构、公民和患者、AI开发者及有关当局都能了解。”
4. 可用性
最终用户“应在现实环境中高效且安全地使用AI工具来实现临床目标”,Lekadir及其同事写道。“一方面,这意味着最终用户应能够轻松使用AI工具的功能和界面,并尽量减少错误。”另一方面:
“AI工具应具有临床实用性且安全,提高临床医生的工作效率和/或改善患者的健康结果,并避免造成伤害。”
5. 鲁棒性
研究表明,即使输入数据中存在微小且难以察觉的变化,也可能导致AI模型做出错误决策,作者指出。生物医学和健康数据“在现实世界中可能会发生重大变化——无论是预期的还是意外的——这会影响AI工具的性能”。
“重要的是,医疗保健AI工具的设计和开发应具备抵御现实世界变化的能力,并应相应地进行评估和优化。”
6. 可解释性
医学是一门高风险学科,要求透明度、可靠性和问责制。然而,机器学习技术“通常会产生复杂的‘黑箱’模型”,作者写道。
“可解释性使最终用户能够解释AI模型和输出,了解AI工具的能力和局限性,并在必要时进行干预,例如决定是否使用它。”
关于这一点,Lekadir等人承认可解释性是一项复杂的任务。其挑战“在AI开发和评估过程中需要仔细解决”,以确保AI解释“对最终用户具有临床意义和益处”。该论文可在网站上免费获取全文。
(全文结束)

