自动化自满:应对医疗保健中人工智能的伦理挑战
2024年11月13日,哥伦比亚大学专业研究学院生物伦理学硕士项目举办紧急小组讨论会《自动化自满:人工智能诱导的医疗决策放弃》,深入探讨人工智能在医疗场景实施过程中面临的法律与伦理挑战。
本次研讨会由哥伦比亚大学生物伦理学助理教授大卫·N·霍夫曼(David N. Hoffman, J.D.)主持,汇集了包括哥伦比亚大学教员艾米丽·比尔(Emily Beer, J.D.)、纽约市律师协会生物伦理问题委员会主席及生物伦理学项目校友;比勒陀利亚大学健康科学伦理与哲学中心博士后研究员卡米尔·卡斯特林(Camille Castelyn, Ph.D.)及项目校友;图尔库大学儿科与青少年医学博士研究员乔尔·亚恩哈嫩(Joel Janhonen);佛蒙特大学研究教授、乔治梅森大学科技伦理政策总监拉里·梅德斯克(Larry Medsker, Ph.D.);以及创新生物伦理论坛研究员迈克尔·I·萨迪(Michael I. Saadeh)等国际专家。
霍夫曼以真实案例开场警示:保险公司使用的AI算法在安排急性后期护理时,竟建议将依赖轮椅的患者直接送回住所,却未察觉该患者居住在五楼无电梯公寓。此案例揭示算法虽能生成看似合理的建议,却遗漏了医疗记录未涵盖的关键情境信息,核心问题在于当前AI算法"不知其不知",因而无法复制人类的谦逊能力。
讨论聚焦于小组五位成员近期在《人工智能与伦理》期刊发表的论文(该期刊由第六位成员拉里·梅德斯克担任编辑)。迈克尔·萨迪作为论文首席作者阐释了两大关键现象:自动化偏见(对决策支持工具的心理依赖倾向)与自动化自满(因过度依赖AI系统而忽视必要人工监督的临床陷阱)。萨迪强调:"若偏见是心理漏洞,自满便是由此引发的临床陷阱。" 小组明确区分了"决策支持"(医生借助AI部署专业能力)与"决策替代"(医生将判断权完全让渡给算法而无视其局限性)的本质差异。
艾米丽·比尔从法律视角分析了多起医疗AI不当部署案例:2024年德州总检察长对Pieces Technologies公司的调查,该公司被指控对其AI平台生成临床摘要的准确性作出误导性声明;针对大型保险公司的集体诉讼则指控其AI模型被设定为自动拒付必要医疗护理的索赔。一例心脏手术患者因技能护理反复遭拒而被迫承担6.7万美元账单的案例尤为触目惊心。比尔还剖析了2020年Practice Fusion公司刑事案——其收受回扣设计增加阿片类药物处方的临床决策支持警报。她贯穿始终的核心观点是:"个性化与整体化护理必须由真正关怀患者的主体实现",AI或许能精准诊断,却缺失患者偏好、有效沟通与临床共情等关键维度。
卡米尔·卡斯特林探究了AI实施的社会文化维度,质疑技术能否将普世价值融入跨文化决策工具。她以南非"乌班图"(Ubuntu)哲学、西非口述传统及日本高语境沟通为例,阐明这些文化特质既为AI提供机遇,也对其传递文化敏感护理构成挑战。
乔尔·亚恩哈嫩提出AI"审慎整合"框架,将任务按自动化准备度分级:从当前可自动化的任务,到需人类凭借个人与情境细微判断的任务。他设计了对抗自满的具体方案:增强算法可解释性、设置需实质人工确认(而非简单勾选)的关键决策点,以及配置置信阈值——当AI不确定性升高时自动触发人工监督。
拉里·梅德斯克基于其主编的50章AI伦理手册,追溯了70年人工智能研究史,指出自动化系统风险早被数十年前预见。他着重强调数据质量与治理的核心地位,倡导"以人为本"的AI设计:"人类判断应补充而非取代自动化",梅德斯克指出,"人类判断与考量应当补充自动化,而非取代人类"。
小组最终深入讨论了紧迫议题:环境录音系统的患者隐私、AI出错时的责任分配机制,以及医院亟需制定AI实施的伦理标准。全程共识明确——个性化与整体化护理的本质必须由"关怀者"实现,关键决策点保持有效人工监督对保障患者安全与福祉至关重要。
【全文结束】

