国内健康环球医讯家医百科药品库医药资讯

确定患者态度:医疗决策中人工智能的伦理问题

Dialing in Patient Attitudes: The Ethics of AI in Medical ... | Stanford HAI

美国英语医疗人工智能伦理
新闻源:unknown
2025-08-06 19:00:46阅读时长3分钟1369字
医疗决策人工智能伦理问题患者态度风险权衡误诊个性化阈值专业判断患者价值观患者权益

内容摘要

斯坦福以人为本人工智能研究院的伦理学家克雷尔及其跨学科团队指出,当前医疗AI诊断系统存在忽视患者价值观的重大伦理问题,提出应建立医生主导、患者风险偏好参与的动态决策模型。研究表明,通过术前风险偏好调查和算法阈值调整机制,可以在癌症筛查、创伤诊断等医疗场景中实现更人性化的AI决策。研究强调医疗AI不应脱离医生专业判断,需构建三方协同的伦理框架,这一突破性研究发表于《自然医学》期刊,为医疗AI发展指明新方向。

确定患者态度:医疗决策中人工智能的伦理问题

当X光片或CT扫描上的某个阴影需要担忧吗?这虽然是大多数人未曾面临的难题,但对需要面对的人来说,诊断结果可能改变人生。

当前,医生越来越多地借助人工智能诊断从癌症到败血症等各类疾病。虽然AI能够发现人类可能遗漏的异常,但其诊断建议并非完美。人工智能诊断系统有时会推荐不必要的侵入性检查,或遗漏本应标记的重要病灶。

这两种误诊类型带来截然不同的后果。决定是否需要进一步检查意味着在风险之间抉择:执行不必要的医疗程序的风险,或遗漏严重病情的风险。不同患者对这些风险的权衡方式存在显著差异。然而目前,患者的个人价值观和偏好往往未能纳入人工智能决策系统的考量。

斯坦福以人为本人工智能研究院研究员凯瑟琳·克雷尔指出,这种伦理困境给医生和AI程序员带来深刻挑战。克雷尔与放射学、哲学和人工智能领域的跨学科团队在《自然医学》发表的评论文章中明确指出:人工智能在医疗决策中应始终将患者价值观置于首位。

"在临床环境中,诊断决策没有放之四海而皆准的方法。人工智能领域需要通过算法设计体现患者对风险的个性化认知,"克雷尔表示。

在临界病例中,医生应该告知患者潜在风险并承担可能的过度诊疗?(假阳性结果)还是基于患者避免不必要检查的明确偏好,忽视可能存在严重问题的病灶?(假阴性结果)

风险规避型患者往往倾向于尽可能避免假阴性结果。另一些患者则强烈反对接受可避免的手术,"他们最关注的是'让我远离医院',"克雷尔指出,"人工智能设计师必须构建兼顾两类患者需求的敏感性和灵活性机制。"

风险概率的权衡

医疗设备中的AI通常会计算某种病灶的概率——比如扫描图像中阴影是癌症的可能性——然后向医生提出是否需要进一步检查的建议。

目前有三种主要的人工智能应用模式。第一种是现状模式:算法计算异常概率,若超过特定阈值(例如80%的癌症可能性)就自动建议随访。这种方式完全依赖AI决策,医生只知道推荐结果,不了解具体的概率数值和由程序员设定的阈值。

第二种模式是AI直接整合患者的风险态度信息,据此设置个性化阈值。这种方式虽然纳入了患者价值观,但排除了医生的专业判断。

第三种模式中,AI不仅提供推荐,还向医生披露具体疾病概率。最终决策权掌握在医生手中,结合其专业判断和患者意愿决定是否建议随访。

克雷尔及其团队对前两种模式提出批评,特别推荐第三种模式。他们指出,现状模式完全忽视患者价值观,前两种模式都将医生排除在决策之外,这与斯坦福和华盛顿大学开展的患者焦点小组调查结果相悖。患者更倾向于第三种模式——医生在综合患者价值观和AI概率的基础上,为每位患者设定个性化阈值。

患者关切的精准调校

克雷尔团队主张,将概率转化为医疗决策的阈值应基于患者具体价值观。建议患者在检查前填写简短问卷,通过假设性问题了解其对过度诊断与漏诊的态度、对假阳性/假阴性结果的担忧、对过度治疗的接受度等。

例如,问卷可能包含这样的问题:"我宁愿承担良性肿瘤手术并发症的风险,也不愿遗漏癌性肿瘤"。

这种设计就像调节收音机——通过调整阈值参数来匹配患者的风险容忍度。对于治疗规避型患者,算法阈值可能设置为90%以上才会建议干预。而对于极度恐惧漏诊的患者,阈值可能调低至60%,以提高异常检出频率。

"患者的价值观应当在算法中得到体现,"克雷尔强调,"在医疗AI发展中注入患者权益视角,将是积极的进步方向。"

斯坦福HAI的使命是通过推进人工智能研究、教育、政策与实践来改善人类福祉。

【全文结束】

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜