研究显示使用人工智能获取医疗建议存在"危险"Using AI for medical advice 'dangerous', study finds - Yahoo Lifestyle Australia

环球医讯 / AI与医疗健康来源:au.lifestyle.yahoo.com英国 - 英语2026-02-11 02:41:50 - 阅读时长2分钟 - 712字
牛津大学互联网研究所和牛津大学初级保健健康科学系联合开展的一项研究揭示,利用人工智能聊天机器人寻求医疗建议可能带来严重风险,因AI系统"倾向于提供不准确且不一致的医疗信息"。研究对近1300名参与者进行测试发现,尽管AI在标准化医学知识测试中表现良好,但在实际医疗场景中会混杂正确与错误信息,导致用户难以辨别,可能造成误诊或延误紧急救治。该研究强调在健康等高风险领域部署AI面临的重大挑战,提醒公众不应过度依赖AI替代专业医生诊断,特别是在处理个人健康症状时需格外谨慎。
健康人工智能医疗建议危险AI聊天机器人不准确信息医疗决策风险全科医生大型语言模型
研究显示使用人工智能获取医疗建议存在"危险"

一项新研究发现,使用人工智能(AI)聊天机器人来寻求医疗建议可能"危险"。

该研究发现,由于AI"倾向于提供不准确和不一致的信息",使用AI进行医疗决策会给患者带来风险。

这项研究由牛津大学互联网研究所和牛津大学初级保健健康科学系的研究人员领导。

该研究的合著者丽贝卡·佩恩博士表示,研究发现"尽管炒作很多,但AI还远未准备好承担医生的角色"。

佩恩博士也是一名全科医生,她补充说:"患者需要意识到,向大型语言模型询问自己的症状可能很危险,因为它会给出错误诊断,并且无法识别何时需要紧急帮助。"

在这项研究中,研究人员让近1300名参与者在不同情景下识别潜在健康问题并推荐行动方案。

一些参与者使用大型语言模型(LLM)AI软件来获取可能的诊断和后续步骤,而另一些人则使用更传统的方法,例如看全科医生。

研究人员随后评估了结果,发现AI经常提供"好坏信息的混合",用户难以区分。

他们发现,尽管AI聊天机器人现在"在标准化医学知识测试中表现出色",但作为医疗工具使用时,会对"寻求自身医疗症状帮助的真实用户构成风险"。

佩恩博士说:"这些发现凸显了构建能够真正支持人们在健康等敏感、高风险领域中的AI系统的困难。"

该研究的主要作者、来自牛津互联网研究所的安德鲁·比恩表示,研究表明"与人类互动对即使是表现最好的大型语言模型也构成挑战"。

他补充说:"我们希望这项工作将有助于开发更安全、更有用的AI系统。"

【全文结束】

猜你喜欢
  • 神经科大查房:脑内出血创新疗法研讨会神经科大查房:脑内出血创新疗法研讨会
  • 菲律宾老年人展露笑容菲律宾老年人展露笑容
  • 人工智能在医疗建议中的局限性:一项研究的见解人工智能在医疗建议中的局限性:一项研究的见解
  • 人工智能手术工具频繁致患者受伤 多起诉讼指控人工智能手术工具频繁致患者受伤 多起诉讼指控
  • 阿尔茨海默病意识在门诊时间缩短时代至关重要阿尔茨海默病意识在门诊时间缩短时代至关重要
  • 医疗教育中的AI记录员:守护临床推理能力医疗教育中的AI记录员:守护临床推理能力
  • 深入探究GLP-1与心脏健康的关系深入探究GLP-1与心脏健康的关系
  • 并非真正医生:人工智能在治疗人类患者方面面临困境并非真正医生:人工智能在治疗人类患者方面面临困境
  • AI辅助听诊器在临床检测心脏瓣膜病效率提升一倍 研究揭示AI辅助听诊器在临床检测心脏瓣膜病效率提升一倍 研究揭示
  • 心力衰竭认知提升:患者支持小组助力主动健康管理心力衰竭认知提升:患者支持小组助力主动健康管理
热点资讯
全站热点
全站热文