一项新研究发现,使用人工智能(AI)聊天机器人来寻求医疗建议可能"危险"。
该研究发现,由于AI"倾向于提供不准确和不一致的信息",使用AI进行医疗决策会给患者带来风险。
这项研究由牛津大学互联网研究所和牛津大学初级保健健康科学系的研究人员领导。
该研究的合著者丽贝卡·佩恩博士表示,研究发现"尽管炒作很多,但AI还远未准备好承担医生的角色"。
佩恩博士也是一名全科医生,她补充说:"患者需要意识到,向大型语言模型询问自己的症状可能很危险,因为它会给出错误诊断,并且无法识别何时需要紧急帮助。"
在这项研究中,研究人员让近1300名参与者在不同情景下识别潜在健康问题并推荐行动方案。
一些参与者使用大型语言模型(LLM)AI软件来获取可能的诊断和后续步骤,而另一些人则使用更传统的方法,例如看全科医生。
研究人员随后评估了结果,发现AI经常提供"好坏信息的混合",用户难以区分。
他们发现,尽管AI聊天机器人现在"在标准化医学知识测试中表现出色",但作为医疗工具使用时,会对"寻求自身医疗症状帮助的真实用户构成风险"。
佩恩博士说:"这些发现凸显了构建能够真正支持人们在健康等敏感、高风险领域中的AI系统的困难。"
该研究的主要作者、来自牛津互联网研究所的安德鲁·比恩表示,研究表明"与人类互动对即使是表现最好的大型语言模型也构成挑战"。
他补充说:"我们希望这项工作将有助于开发更安全、更有用的AI系统。"
【全文结束】

