人工智能聊天机器人向用户提供医疗相关回复时,约半数存在严重问题,这引发人们对这类工具日益增长影响的担忧——越来越多的人开始向AI咨询个人健康问题。
美国、加拿大和英国的研究人员评估了五个广泛使用的平台:ChatGPT、Gemini、Meta AI、Grok和DeepSeek。研究团队向每个平台提出十个涵盖五大健康领域的问题。发表在《英国医学杂志·开放版》(BMJ Open)的研究结果显示,所有回复中约50%被认为存在问题,其中近20%属于高度问题类别。
据MyBroadband报道,聊天机器人在回答疫苗和癌症等直白的封闭式问题时表现相对较好。然而在面对开放式问题以及干细胞疗法和营养等主题时,其表现明显下降。
AI医疗回复的特别令人担忧之处在于:这些回复往往以自信肯定的语气呈现,但没有任何一个聊天机器人能为所提问题提供完全准确且完整的参考文献列表。在所有测试平台中仅记录到两次拒绝回答的情况,且均来自Meta AI。
该研究揭示了人们使用生成式AI工具的更广泛问题——这些工具未获准提供医疗建议,也不具备做出诊断所需的临床判断力。据报道,全球每周有超过2亿人向ChatGPT提出健康和 wellness 问题。
研究作者提出的重大关切是:在缺乏充分公众教育或监管的情况下部署聊天机器人,可能放大错误信息传播。这些系统能够生成听起来权威但事实有误的回复,这种组合对公众健康构成真实风险。
【全文结束】

