专家表示,医疗领域的人工智能(AI)需要以患者为中心的监管,以避免歧视。
一篇发表在《皇家医学会杂志》的新评论警告称,目前针对医疗领域人工智能(AI)的风险监管方法未能充分保护患者,可能导致过度治疗、治疗不足以及对某些患者群体的歧视。
研究作者发现,尽管人工智能和机器学习系统可以提高临床准确性,但对其固有的不准确性、不透明性以及潜在偏见的担忧仍未得到现有监管措施的妥善解决,例如欧盟出台的《人工智能法案》中的规定。
2025年通过的《人工智能法案》将医疗AI归类为“高风险”,并对提供者和使用者实施了严格控制。然而,作者认为,这种基于风险的框架忽略了三个关键问题:个体患者的偏好、AI实施的系统性和长期影响,以及患者在监管过程中的权利削弱。
“患者在准确性、偏见或AI在其护理中所扮演角色方面有不同的价值观,”丹麦奥尔堡大学数据与AI伦理学教授、主要作者Thomas Ploug表示,“监管必须超越系统层面的安全性,考虑个体权利和参与。”
作者呼吁引入与AI生成诊断或治疗计划相关的患者权利,包括以下权利:
- 请求解释;
- 给予或撤回同意;
- 寻求第二意见;
- 拒绝未经同意基于公开数据进行的诊断或筛查。
他们警告称,若无医疗相关利益方(包括临床医生、监管机构和患者团体)的紧急参与,这些权利可能在医疗领域AI快速演变的过程中被忽视。
“人工智能正在改变医疗行业,但绝不能以牺牲患者自主权和信任为代价,”Ploug教授表示,“现在是定义能够保护和赋权患者的AI驱动医疗系统权利的时候了。”
更多信息:《AI驱动医疗中患者权利的必要性——仅靠风险监管远远不够》,《皇家医学会杂志》(2025年)。DOI: 10.1177/01410768251344707
(全文结束)

