研究显示:AI正在提供不安全的医疗建议Ask Dr Chatbot? AI Is Giving Unsafe Health Advice, Study Shows

环球医讯 / AI与医疗健康来源:www.bernama.com德国 - 英语2024-10-15 16:00:00 - 阅读时长2分钟 - 627字
研究表明,三分之一的AI生成的医疗建议可能导致患者受到伤害
AI医疗建议不安全伤害比利时德国研究人员聊天机器人药物建议BMJQuality&Safety
研究显示:AI正在提供不安全的医疗建议

研究人员相信,三分之一的AI生成的医疗建议可能会导致伤害。-- 摄影:Mohssen Assanimoghaddam/dpa

柏林,10月15日(Bernama-dpa)-- 比利时和德国的研究人员团队表示,人工智能聊天机器人无法提供准确、安全或甚至清晰的药物建议。

“聊天机器人的回答大多难以阅读,且反复缺乏信息或存在不准确之处,可能威胁到患者和药物的安全。”研究结果发表在英国医学杂志《BMJ Quality & Safety》上的作者们警告说。该团队警告称,大约三分之一的回答如果患者采纳了这些药物建议,可能会导致患者受到伤害。

尽管聊天机器人是通过从互联网上获取的数据进行“训练”的,但它们仍然容易生成“错误信息、无意义或有害内容”,研究人员警告说,这显然是指所谓的AI“幻觉”——行业术语,用于描述聊天机器人输出胡言乱语的情况。

来自埃尔兰根-纽伦堡大学和制药巨头葛兰素史克的研究团队向微软的Copilot聊天机器人提出了关于美国最常处方的50种药物的10个问题,评估了聊天机器人的回答的可读性、完整性和准确性。研究团队发现,要理解聊天机器人的回答需要具备大学毕业生水平的教育。此前的研究显示,OpenAI的ChatGPT,主要的AI聊天机器人服务和微软Copilot的最大竞争对手,也显示出类似的不正确和有害回答。

“医疗专业人士在推荐AI驱动的搜索引擎时应保持谨慎,直到有更精确和可靠的替代方案可用。”研究人员表示。


(全文结束)

猜你喜欢
  • 瓢虫资源集团在AI驱动的NutraBuddy平台Alpha测试期间取得重要里程碑瓢虫资源集团在AI驱动的NutraBuddy平台Alpha测试期间取得重要里程碑
  • SattvaLife AI 推出独特的人工智能整体健康聊天机器人SattvaLife AI 推出独特的人工智能整体健康聊天机器人
  • Abridge 与 Wolters Kluwer Health 达成合作,将 UpToDate 与人工智能整合Abridge 与 Wolters Kluwer Health 达成合作,将 UpToDate 与人工智能整合
  • 研究人员警告不要依赖AI聊天机器人获取药物安全信息研究人员警告不要依赖AI聊天机器人获取药物安全信息
  • 不要依赖Dr AI:新搜索引擎提供的医疗建议可能导致五分之一的病例死亡不要依赖Dr AI:新搜索引擎提供的医疗建议可能导致五分之一的病例死亡
  • 研究显示:AI正在提供不安全的医疗建议研究显示:AI正在提供不安全的医疗建议
  • AI 聊天机器人在提供患者药物信息方面不可靠AI 聊天机器人在提供患者药物信息方面不可靠
  • 数据现代化和AI对精准医疗的影响数据现代化和AI对精准医疗的影响
  • 生命科学领域的五件事:2024年10月7日当周生命科学领域的五件事:2024年10月7日当周
  • 研究发现:AI 聊天机器人可能无法提供安全准确的药物信息研究发现:AI 聊天机器人可能无法提供安全准确的药物信息
热点资讯
全站热点
全站热文