牛津大学一项最新研究发现,使用人工智能(AI)聊天机器人寻求医疗建议可能"极其危险"。研究指出,利用AI进行医疗决策会给患者带来风险,因其"倾向于提供不准确且不一致的信息"。
该研究由牛津互联网研究所和牛津大学纳菲尔德初级保健健康科学系的研究人员主导,成果已发表在《自然医学》科学期刊上。研究报告合著者丽贝卡·佩恩博士表示,研究发现"尽管存在各种炒作,AI目前尚未准备好承担医师角色"。身为全科医生的佩恩博士补充道:"患者必须意识到,向大型语言模型咨询症状可能非常危险,它可能给出错误诊断,并且无法识别何时需要紧急医疗救助。"
在研究中,研究人员让近1300名参与者通过不同场景识别潜在健康问题并推荐处理方案。部分参与者使用大型语言模型(LLM)AI软件获取潜在诊断和后续步骤,而其他人则采用更传统的方法——例如面诊全科医生。研究人员评估结果后发现,AI经常提供"良莠不齐的信息混合体",用户难以有效区分。
研究显示,尽管当前AI聊天机器人"在标准化医学知识测试中表现出色",但将其作为医疗工具使用"将对真实患者造成风险,尤其当人们用它处理自身症状时"。佩恩博士指出:"这些发现凸显了在医疗等敏感且高风险领域开发真正能支持人类的AI系统所面临的困难。"
该研究首席作者、牛津互联网研究所的安德鲁·比恩表示,研究表明"即使是顶尖的大型语言模型,与人类互动仍面临重大挑战"。他补充道:"我们希望这项工作能推动开发更安全、更有用的AI系统。"
【全文结束】

