麻省理工学院研究:人们更信任人工智能而非医生提供的医疗建议People trust AI over doctors for medical advice, MIT study

环球医讯 / AI与医疗健康来源:www.newsbytesapp.com美国 - 英语2026-01-27 03:02:53 - 阅读时长2分钟 - 681字
麻省理工学院发表于《新英格兰医学杂志》的研究显示,300名参与者在评估医疗建议时,普遍认为人工智能生成的回答比人类医生更准确、可靠且完整,且无法有效区分两者来源;研究特别警示参与者会高度采纳AI提供的低准确性建议,导致寻求不必要的医疗干预,已发生多起因AI错误指导引发的医疗事故,如用橡皮筋处理痔疮或误服溴化钠等事件,脊柱外科专家指出约四分之一的AI医疗建议缺乏科学文献支持,存在严重误导风险,可能对患者健康造成不可逆损害。
健康人工智能医疗建议信任AI医生医疗建议风险误传信息有害AI建议AI准确性MIT研究专家警示
麻省理工学院研究:人们更信任人工智能而非医生提供的医疗建议

研究背景

麻省理工学院(MIT)研究人员近期开展的一项研究发现,人们更倾向于信任人工智能(AI)提供的医疗建议而非人类医生。该研究发表在《新英格兰医学杂志》上,共有300名参与者被要求评估由医生或ChatGPT等AI模型生成的医疗回复。

研究发现

AI回复被评为更准确可靠

医疗领域的专家和非专家参与者均认为,AI生成的回复在准确性、有效性、可信度和完整性方面评分更高。两组参与者均无法可靠区分AI生成回复与人类医生提供的回复。这表明参与者可能更偏好AI生成的回复,尽管这些系统提供的信息可能存在不准确性。

误传信息风险

参与者高度倾向遵循AI的低准确性建议

研究还发现,参与者将低准确性的AI生成回复评定为有效、可信且令人满意。他们表现出高度倾向遵循这种潜在有害的医疗建议,进而寻求不必要的医疗干预。这凸显了医学领域AI系统传播误传信息的风险,可能对患者的健康和福祉造成严重后果。

现实案例

有害AI医疗建议事件

已有多起AI提供有害医疗建议的记录案例。其中一例涉及一名35岁摩洛哥男子,因聊天机器人建议他用橡皮筋缠绕痔疮而不得不前往急诊室。另一起事件中,一名60岁男子在ChatGPT建议服用溴化钠可减少盐摄入后,导致自身中毒。这些案例凸显了依赖AI获取医疗建议的潜在危险。

专家警示

AI建议常缺乏科学依据

纽约特殊外科医院脊柱外科研究主管达伦·勒布朗博士此前已对AI生成的医疗建议表示担忧。他指出,这些程序提出的许多建议并非基于实际出版物的真正科学建议,“约四分之一的建议是编造的”,这凸显了信任AI获取医疗指导可能带来的不准确性和风险。

【全文结束】

猜你喜欢
  • 新型生成式AI方法有望加速药物研发新型生成式AI方法有望加速药物研发
  • 比尔·盖茨与OpenAI联手推动非洲国家人工智能健康项目比尔·盖茨与OpenAI联手推动非洲国家人工智能健康项目
  • 别再担心,让人工智能拯救你的生命别再担心,让人工智能拯救你的生命
  • 十大科技巨头与医疗系统的合作十大科技巨头与医疗系统的合作
  • 加拿大卫生官员称无证据表明新不伦瑞克省存在神秘脑部疾病加拿大卫生官员称无证据表明新不伦瑞克省存在神秘脑部疾病
  • 亚马逊最新AI不仅能聊天——它还知道你的健康历史亚马逊最新AI不仅能聊天——它还知道你的健康历史
  • 心脏病死亡人数下降,以下是降低您风险的方法心脏病死亡人数下降,以下是降低您风险的方法
  • 研究显示整体医疗方法有助于身体和大脑健康研究显示整体医疗方法有助于身体和大脑健康
  • 2026年人工智能如何重塑医疗保健:奇迹疗法还是潜在危机?2026年人工智能如何重塑医疗保健:奇迹疗法还是潜在危机?
  • AI能否在下次疫情爆发前将其扼杀AI能否在下次疫情爆发前将其扼杀
热点资讯
全站热点
全站热文