AI在医疗伦理决策中表现不佳,研究发现AI fails at ethical reasoning in medical scenarios, study finds

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-08-11 11:31:50 - 阅读时长2分钟 - 902字
西奈山医学院最新研究表明,大型语言模型(如ChatGPT)在医疗伦理推理中存在系统性缺陷。研究人员通过改造经典伦理难题发现,AI会因过度依赖模式匹配产生逻辑谬误,即使掌握全部事实仍会作出违背常识的判断。这种缺陷在医疗决策中可能引发严重后果,建议将AI定位为临床辅助工具而非替代方案。研究团队计划建立"AI保障实验室"测试医疗场景应用,并强调医疗AI发展需人类持续监督。
AI医疗伦理决策大型语言模型基础推理错误逻辑与伦理思维失误患者护理人类监督诊断速度治疗个性化
AI在医疗伦理决策中表现不佳,研究发现

高级人工智能工具,如大型语言模型(LLMs),正在改变我们处理信息的方式。它们可以撰写文本、总结研究,甚至回答医学问题。但研究人员开始发现可能引发严重问题的缺陷——尤其是在医疗领域。

西奈山医学院近期发表在《npj数字医学》的研究揭示,像ChatGPT这样的LLMs仍会犯基础推理错误。这些错误不是程序漏洞或数据输入问题,而是模型在掌握全部正确事实的情况下仍会出现的逻辑与伦理思维失误。

研究团队通过分析AI模型应对改编版经典伦理难题的反应得出结论。受诺贝尔奖得主丹尼尔·卡尼曼《思考,快与慢》启发,研究发现AI在快速直觉答案与缓慢理性分析间的转换存在隐患。例如在经典"外科医生困境"中,受伤男孩的父亲正是外科医生,但AI仍坚持认为手术医生必须是男孩母亲,暴露出其对刻板印象的顽固依赖。

"AI可能默认最熟悉或最直觉的答案,即便这种反应会忽略关键细节,"西奈山医学院生成式AI首席专家埃亚尔·克兰格博士指出。在医疗领域,这种思维模式可能对患者造成实际后果。

另一测试案例中,研究者将宗教父母拒绝儿童输血的情节改为父母已同意治疗,但多数AI模型仍坚持反对假想的拒绝。这表明模型受原始故事结构影响超过更新事实。

医疗伦理困境无处不在,从是否撤除生命支持系统,到平衡患者隐私与公共安全。研究共同作者、西奈山哈索·普拉特纳数字健康研究所主任吉里什·纳德卡尼博士强调:"这些工具不应被视为临床决策的替代品。"

LLMs的训练数据包含大量互联网文本,这使其可能继承人类偏见。例如将特定角色与群体关联,这种潜在关联在伦理决策中可能产生危险后果。

研究主要作者、拉宾医学中心的雪莉·索弗博士指出:"简单调整经典案例就能暴露临床实践中无法承受的盲点,这凸显在患者护理中必须保持人类监督的重要性。"

研究团队计划建立"AI保障实验室",测试不同LLMs应对临床实践中混乱且不可预测情境的能力。尽管存在挑战,研究者仍对未来保持希望——AI若能克服简单模式匹配,配合人类持续监督,有望提升诊断速度和治疗个性化水平。

【全文结束】

大健康

猜你喜欢

  • 数字孪生与大人工智能:真正个性化医疗的未来数字孪生与大人工智能:真正个性化医疗的未来
  • 人工智能与新兴技术如何革新医疗健康营销人工智能与新兴技术如何革新医疗健康营销
  • 人工智能与心理健康护理——伦理关切与监管回应人工智能与心理健康护理——伦理关切与监管回应
  • AI在医疗行业的变革之路AI在医疗行业的变革之路
  • 人工智能在医学中的应用人工智能在医学中的应用
  • 医疗AI:其能力与未来方向医疗AI:其能力与未来方向
  • 医疗AI:9项改善患者流程的初步成果医疗AI:9项改善患者流程的初步成果
  • AI医疗科技公司与瑞典SoftRobot合作开发黑色素瘤AI分类模型AI医疗科技公司与瑞典SoftRobot合作开发黑色素瘤AI分类模型
  • 医疗AI:令人惊叹的医疗领域人工智能应用案例医疗AI:令人惊叹的医疗领域人工智能应用案例
  • AI在医疗保健领域:医疗保健的未来AI在医疗保健领域:医疗保健的未来
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康