在MedCity News举办的INVEST数字健康会议上,医疗专家探讨了缓解自动化偏见的策略——强调供应商责任、特定用例治理和临床医生参与的重要性。
作者:Katie Adams | 2025年10月7日 17:35
从右至左:主持人Hubert Zajicek(Health Wildcatters首席执行官);Ruben Amarasingham(Pieces Technologies首席执行官);Theresa McDonnell(杜克大学医疗系统首席护理官);Alya Sulaiman(Datavant医疗健康首席合规与隐私官)
医疗机构正以前所未有的规模应用人工智能,但确保模型安全负责地使用仍面临诸多疑问。行业领导者仍在探索如何有效解决算法偏见问题,以及当AI建议出错时的责任归属。
上月在达拉斯举行的MedCity News INVEST数字健康会议小组讨论中,医疗领导者分享了通过治理框架减轻偏见与意外伤害的实践经验。他们认为核心要素在于供应商责任、强化合规监管及临床医生深度参与。
Pieces Technologies(上周被Smarter Technologies收购的医疗AI初创公司)首席执行官Ruben Amarasingham(鲁本·阿马拉辛厄姆)指出,虽然"人在回路"系统有助于遏制AI偏见,但最隐蔽的风险是自动化偏见——即人们过度信任机器生成建议的倾向。他举例说明:"商业消费领域最典型的案例是GPS导航。研究表明,当人们依赖GPS系统后,对陌生城市的方位认知和空间记忆能力会显著下降。医疗领域的AI应用正出现类似现象。"
Amarasingham补充称,自动化偏见可能导致"技能退化",即临床医生的专业能力逐渐弱化。他引用波兰8月发布的一项研究指出,使用AI工具的胃肠病学家识别息肉的能力有所下降。他认为供应商有责任通过分析用户行为监控自动化偏见:"我们正与客户合作分析建议接受率。是否存在模式表明医生未经过思考就接受AI建议?即使我们希望看到100%的接受率,这反而可能意味着缺乏审慎评估。"
医疗数据平台Datavant首席合规与隐私官Alya Sulaiman(艾拉·苏莱曼)认同Amarasingham的观点,指出医护人员可能盲目信任AI建议或使用实质处于"自动驾驶"状态的系统,这种担忧已促使多州出台法律,对AI实施监管要求,包括通知义务、知情同意及严格风险评估程序。
Sulaiman建议医疗机构明确界定AI工具的成功标准、潜在故障模式及可能受害方——由于利益相关者视角各异,这项任务往往比想象中困难。"随着联邦与州级监管环境演变,我们将看到监管重点转向用例特定规则制定,因为各方已普遍认识到'一刀切'方法行不通,"她表示,"例如心理健康聊天机器人、医疗资源管理工具和临床决策支持模型应各自遵循独特的政府指导原则。"
她同时强调,即使行政类AI工具出错也可能造成危害:若AI系统错误转接医疗记录,可能导致患者敏感信息泄露;若AI模型错误处理保险数据,将引发治疗延误或计费错误。Sulaiman特别指出,尽管临床AI应用最受关注,但医疗机构也应为快速发展的行政AI工具建立治理框架——这些领域正面临监管真空。
杜克大学医疗系统首席护理官Theresa McDonnell(特蕾莎·麦克多诺)补充道,除监管与供应商责任外,教育普及、信任构建及协作式治理等人为因素对负责任地部署AI至关重要。"我们通过教育与信息透明引导患者和员工参与。当人们有疑问或顾虑时,必须留出时间充分沟通——在高速推进的时代,这虽给系统增添压力,但值得投入。"
所有与会专家一致认为,监督机制、透明度及多方参与是确保AI安全落地的关键要素。
(配图:MedCity News)
【全文结束】