牛津研究发现使用人工智能获取医疗建议存在危险Using AI for medical advice 'dangerous', Oxford study finds

环球医讯 / AI与医疗健康来源:www.bbc.com英国 - 英语2026-02-11 09:13:54 - 阅读时长2分钟 - 726字
牛津大学互联网研究所与纳菲尔德初级保健健康科学系在《自然医学》期刊发表的研究表明,当前人工智能聊天机器人在医疗决策中存在显著风险,其倾向于提供不准确且不一致的信息。研究通过1300名参与者模拟病例测试发现,尽管AI在标准化医学知识测试中表现优异,但在真实症状咨询场景中常混合输出有效与有害信息,用户难以辨别真伪,尤其无法识别紧急医疗需求。该研究警示公众依赖大型语言模型进行症状诊断可能造成误诊,强调AI技术尚未达到替代医师的专业水平,需谨慎应用于高风险医疗领域。
健康AI医疗建议危险牛津研究人工智能聊天机器人医疗决策不准确信息患者风险大型语言模型自然医学
牛津研究发现使用人工智能获取医疗建议存在危险

牛津大学一项最新研究发现,使用人工智能(AI)聊天机器人寻求医疗建议可能"极其危险"。研究指出,利用AI进行医疗决策会给患者带来风险,因其"倾向于提供不准确且不一致的信息"。

该研究由牛津互联网研究所和牛津大学纳菲尔德初级保健健康科学系的研究人员主导,成果已发表在《自然医学》科学期刊上。研究报告合著者丽贝卡·佩恩博士表示,研究发现"尽管存在各种炒作,AI目前尚未准备好承担医师角色"。身为全科医生的佩恩博士补充道:"患者必须意识到,向大型语言模型咨询症状可能非常危险,它可能给出错误诊断,并且无法识别何时需要紧急医疗救助。"

在研究中,研究人员让近1300名参与者通过不同场景识别潜在健康问题并推荐处理方案。部分参与者使用大型语言模型(LLM)AI软件获取潜在诊断和后续步骤,而其他人则采用更传统的方法——例如面诊全科医生。研究人员评估结果后发现,AI经常提供"良莠不齐的信息混合体",用户难以有效区分。

研究显示,尽管当前AI聊天机器人"在标准化医学知识测试中表现出色",但将其作为医疗工具使用"将对真实患者造成风险,尤其当人们用它处理自身症状时"。佩恩博士指出:"这些发现凸显了在医疗等敏感且高风险领域开发真正能支持人类的AI系统所面临的困难。"

该研究首席作者、牛津互联网研究所的安德鲁·比恩表示,研究表明"即使是顶尖的大型语言模型,与人类互动仍面临重大挑战"。他补充道:"我们希望这项工作能推动开发更安全、更有用的AI系统。"

【全文结束】

猜你喜欢
  • 菲律宾老年人展露笑容菲律宾老年人展露笑容
  • 新书出版生成式人工智能在医疗系统中的应用新书出版生成式人工智能在医疗系统中的应用
  • AI在美国芝加哥大学医学中心和西北大学医学中心广泛应用于医患双方AI在美国芝加哥大学医学中心和西北大学医学中心广泛应用于医患双方
  • 心力衰竭认知提升:患者支持小组助力主动健康管理心力衰竭认知提升:患者支持小组助力主动健康管理
  • 依赖AI聊天机器人处理医疗问题可能危险 因其提供错误建议和误诊依赖AI聊天机器人处理医疗问题可能危险 因其提供错误建议和误诊
  • 并非真正医生:人工智能在治疗人类患者方面面临困境并非真正医生:人工智能在治疗人类患者方面面临困境
  • 5种最可能与药物危险相互作用的罐头食品5种最可能与药物危险相互作用的罐头食品
  • 专家发出警报:手术失误和身体部位误识别报告激增 称"不一致、不准确且不可靠"专家发出警报:手术失误和身体部位误识别报告激增 称"不一致、不准确且不可靠"
  • AI听诊器可提前数年发现危及生命的心脏病 研究称AI听诊器可提前数年发现危及生命的心脏病 研究称
  • 当创新变危险:手术中人工智能的风险当创新变危险:手术中人工智能的风险
热点资讯
全站热点
全站热文