一项令人担忧的研究显示,依赖AI聊天机器人处理医疗问题可能“危险”,因为它们会给出不良建议和错误诊断。
研究人员发现,尽管人工智能如今能够轻松通过大多数医生执照考试,但在提供比传统方法更好的健康建议方面却无法超越人类。
研究合著者、牛津大学(Oxford University)的丽贝卡·佩恩(Rebecca Payne)表示:“尽管炒作不断,AI尚未准备好承担医生的角色。患者需要意识到,向大型语言模型咨询症状可能危险,会导致误诊并无法识别何时需要紧急帮助。”
研究团队希望了解人类在使用聊天机器人识别健康问题及判断是否需要就医或住院时的成功率。
该团队向近1300名英国参与者提供了10种不同场景,例如饮酒后头痛、新妈妈感到疲惫或胆结石的感觉。
随后,研究人员随机为参与者分配了三种聊天机器人之一:OpenAI的GPT-4o、Meta的Llama 3或Command R+。
另有一组对照组使用互联网搜索引擎。
根据发表在《自然医学》杂志上的研究,使用AI聊天机器人的人员仅约三分之一时间能识别其健康问题,仅约45%能确定正确的行动方案。
这一表现并不优于对照组。
研究人员指出,这些令人失望的结果与AI聊天机器人在医学基准测试和考试中得分极高的情况存在差距,并将此归咎于沟通障碍。
与常用于测试AI的模拟患者互动不同,真实人类往往未向聊天机器人提供所有相关信息。
有时,人类难以理解聊天机器人提供的选项,或误解甚至完全忽略其建议。
研究人员表示,每六名美国成年人中就有一人每月至少一次向AI聊天机器人咨询健康信息,随着更多人采用新技术,这一数字预计会增加。
未参与该研究的荷兰马斯特里赫特大学(Maastricht University)生物伦理学家大卫·肖(David Shaw)表示:“这是一项非常重要的研究,因为它凸显了聊天机器人对公众构成的真实医疗风险。”
他建议人们仅应信任来自可靠来源的医疗信息,例如英国国家医疗服务体系(NHS)。
【全文结束】

