国内健康环球医讯家医百科药品库医药资讯

医疗领导者如何应对自动化偏见

How Are Healthcare Leaders Tackling Automation Bias? - MedCity News

美国英语人工智能与医疗健康
新闻源:MedCity News
2025-10-08 18:23:28阅读时长3分钟1084字
数字健康自动化偏见人工智能模型供应商责任合规监管临床医生参与技能退化AI监管法规治理框架安全采用AI

内容摘要

在MedCity News举办的INVEST数字健康会议上,医疗专家深入探讨了缓解自动化偏见的综合策略,强调供应商需主动监测用户行为、医疗机构应建立用例特定的治理框架,并通过教育提升临床医生参与度。鲁本·阿马拉辛厄姆指出过度依赖AI会导致医疗技能退化,阿莉娅·苏莱曼呼吁针对心理健康聊天机器人等不同应用场景制定差异化监管规则,而特蕾莎·麦克多内尔着重强调透明沟通与耐心教育对安全部署AI的关键作用,这些实践凸显了在医疗AI应用中平衡技术创新与人类判断的必要性。

在MedCity News举办的INVEST数字健康会议上,医疗专家探讨了缓解自动化偏见的策略——重点强调供应商责任、特定用例的治理框架以及临床医生参与的重要性。

行业领导者仍在努力解决如何确保人工智能模型安全负责任使用的难题。在上月于达拉斯举行的MedCity News INVEST数字健康会议小组讨论中,医疗领导者分享了他们应对偏见和意外伤害的治理框架思路,认为核心在于供应商责任、强化合规监管以及临床医生参与。

Pieces Technologies首席执行官鲁本·阿马拉辛厄姆指出,尽管"人在回路"系统有助于减少AI偏见,但最隐蔽的风险是自动化偏见——即人们过度信任机器生成建议的倾向。他举例说明:"在商业消费领域,GPS地图系统引入后,人们在不熟悉城市中的空间认知和记忆能力明显下降,仅因过度依赖GPS。医疗领域AI也开始出现类似现象。"阿马拉辛厄姆补充说,自动化偏见可能导致"技能退化",即临床医生专业能力逐渐弱化。他引用波兰八月发表的研究指出,使用AI工具的胃肠病学家在识别息肉方面的技能显著下降。

阿马拉辛厄姆认为供应商有责任通过分析用户行为监测自动化偏见。他表示:"我们正与客户合作分析建议接受率,观察是否存在盲目接受AI建议的模式。即使我们希望达到100%接受率,这反而可能表明缺乏审慎思考。"

健康数据平台Datavant首席合规与隐私官阿莉娅·苏莱曼认同该观点,指出医护人员可能盲目信任AI建议或使用实质上自动运行的系统,这已促使各州出台包含通知、同意和严格风险评估要求的AI监管法规。她建议医疗机构明确定义AI工具的成功标准、潜在失败模式及可能受害方——这看似简单实则困难,因各利益相关方视角不同。"随着联邦和州监管环境演变,我们将看到向用例特定规则制定的转变,因为'一刀切'方法行不通。"她解释道,心理健康聊天机器人、利用率管理工具和临床决策支持模型应各自适用独特的政府监管原则。

苏莱曼强调,即便是行政类AI工具出错也可能造成危害:若AI系统错误路由病历,可能导致敏感信息泄露;若错误处理保险数据,则可能引发治疗延误或计费错误。她提醒,尽管临床AI应用最受关注,医疗机构仍需为在监管真空快速发展的行政AI工具建立治理框架。

杜克大学医疗系统首席护理官特蕾莎·麦克多内尔补充道,除监管与供应商责任外,教育、信任建立和协作治理等人为因素对安全部署AI至关重要。"我们通过教育和透明沟通引导患者和员工参与。当人们产生疑问或担忧时,必须留出时间耐心解答——确保信息充分传递。在快速推进的当下,这虽给系统带来额外压力,但投入的时间极其值得。"

所有与会专家一致认为,监督机制、透明度和深度参与是安全采用AI的关键要素。

【全文结束】

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜