AI聊天机器人自信诊断虚构疾病AI chatbots confidently diagnosed a disease that doesn't exist

环球医讯 / AI与医疗健康来源:www.msn.com瑞典 - 英语2026-04-21 12:45:14 - 阅读时长2分钟 - 707字
瑞典哥德堡大学研究员阿尔米拉·奥斯莫诺维奇·通斯特伦于2024年设计实验,虚构"比克索曼尼亚"这一由蓝光暴露引发的罕见眼疾,通过植入包含《星际迷航》星际舰队学院等明显破绽的伪造研究,成功诱使微软Copilot、谷歌Gemini、Perplexity AI及ChatGPT等主流平台接受该虚假病症,甚至出现AI主动诊断案例;该恶作剧被真实医学研究引用后才遭撤回,暴露出健康类AI系统在88%的针对性测试中产生虚假信息的重大缺陷,揭示AI训练数据易受人为污染导致医疗建议失真的系统性风险,尽管2026年3月部分平台已修正认知,但技术漏洞仍使公众面临通过智能手机获取错误医疗信息的现实威胁。
健康AI虚假疾病诊断比克索曼尼亚AI医疗信息漏洞错误医疗建议AI健康咨询
AI聊天机器人自信诊断虚构疾病

试想这样一个场景:长时间使用电子屏幕后,你发现眼睑周围出现异常色斑,于是向ChatGPT询问病因。这款人工智能竟自信诊断出"比克索曼尼亚"——一种由蓝光暴露引发、影响九万分之一人群的罕见疾病。听起来真实可信,实则"比克索曼尼亚"纯属虚构。瑞典哥德堡大学研究员阿尔米拉·奥斯莫诺维奇·通斯特伦在2024年设下AI陷阱:她精心编造了关于该病的虚假研究,包括伪造症状数据和统计数字。尽管研究中存在引用《星际迷航》星际舰队学院等明显破绽,并明确声明研究系人为编造,但微软Copilot仍将其标注为罕见疾病,谷歌Gemini详细解释其成因,Perplexity AI引用虚假数据,ChatGPT甚至直接作出诊断。这场恶作剧传播之广,导致真实医学研究曾引用该虚假结论,后续才被迫撤回。

该事件影响波及所有使用AI进行健康咨询的智能手机用户。最新研究显示,当专门针对健康类AI系统进行测试时,88%的情况下会产生虚假信息。这些并非极端个例,而是揭示了AI处理医疗信息的根本性漏洞。截至2026年,部分平台虽有改进:ChatGPT在3月11日已标注"比克索曼尼亚"系虚构疾病(尽管仍偶尔称其为"待定亚型"),Copilot表示该病"未获广泛认可"。但这种认知不一致性恰恰凸显核心问题:人类事实核查员可能遗漏的虚假信息,正持续污染AI训练数据。伦敦大学学院的亚历克斯·鲁哈尼评价通斯特伦的实验是"揭露AI风险的典范",真正令人担忧的是,不法分子可能利用广受信赖的系统,轻而易举地散布错误医疗建议。

【全文结束】

猜你喜欢
  • AI与精准技术推动加纳科学发展——CSIR-INSTI研究所展示创新成果AI与精准技术推动加纳科学发展——CSIR-INSTI研究所展示创新成果
  • 为何人工智能让独立执业医生失望及亟需创新的领域为何人工智能让独立执业医生失望及亟需创新的领域
  • 精准医学详解:个性化治疗如何变革医疗健康精准医学详解:个性化治疗如何变革医疗健康
  • 可信交换框架和通用协议详解可信交换框架和通用协议详解
  • AI正导致医疗成本激增AI正导致医疗成本激增
  • 欢迎来到巴登谷欢迎来到巴登谷
  • 近期发作的心房颤动:埃玛·斯文内伯格博士详解新证据、风险及早期节律控制机遇近期发作的心房颤动:埃玛·斯文内伯格博士详解新证据、风险及早期节律控制机遇
  • Newmark网络研讨会探讨AI如何变革非洲医疗保健Newmark网络研讨会探讨AI如何变革非洲医疗保健
  • 新白皮书指导人工智能医疗设备开发者应对全球监管新白皮书指导人工智能医疗设备开发者应对全球监管
  • 格兰曼岛空中救护车患者未获妥善衣物仅凭出租车券返家 妹妹痛斥医疗疏失格兰曼岛空中救护车患者未获妥善衣物仅凭出租车券返家 妹妹痛斥医疗疏失
热点资讯
全站热点
全站热文