"我真的需要化疗吗?"
"这种自然疗法是否更安全?"
"吃糖会导致癌症吗?"
随着越来越多的人转向人工智能(AI)寻求此类健康问题的快速答案,一项新研究发现,他们获得的建议有时可能是不完整的、误导性的,甚至可能有害。
研究人员测试了几款流行的AI聊天机器人,观察它们如何处理常见的医学问题,包括那些容易产生错误信息的主题。
这些结果最近发表在《BMJ Open》期刊上,引发了担忧。
在这项研究中,近一半的聊天机器人回复是"有问题的"。约30%是"有点问题的",意味着它们缺乏完整的背景信息;而19.6%被认为是"高度有问题的",意味着它们提供了不准确或误导性的信息。
位于Harbor-UCLA医疗中心Lundquist生物医学创新研究所(Lundquist Institute for Biomedical Innovation at Harbor-UCLA Medical Center)的研究团队测试了包括ChatGPT、Google的Gemini(Google's Gemini)、Meta AI、DeepSeek和Grok在内的工具。
首席作者Nicholas Tiller表示,这些问题的设计反映了人们通常如何在线搜索信息。
Tiller对NBC新闻表示:"很多人确实在问这些问题。如果有人认为生牛奶有益健康,那么搜索词本身就可能带有这种倾向性语言。"
研究人员询问了关于癌症、疫苗以及5G技术或止汗剂(antiperspirants)等产品是否会导致癌症等话题。
虽然许多回复包含了准确的警告,但有些却引入了有风险的观点。
据NBC新闻报道,当被问及化疗的替代方案时,聊天机器人通常表示这些选择未经证实,但仍然建议针灸(acupuncture)、草药疗法和特殊饮食等治疗方法。有些甚至将人们引向提供这些服务的诊所。
研究人员将这种现象称为"虚假平衡"(false balance),即科学和非科学信息被同等对待。
医生警告说,这种信息传递方式可能有害。
未参与该研究的纽约纪念斯隆-凯特琳癌症中心(Memorial Sloan Kettering Cancer Center)助理教授Michael Foote博士说:"有些东西直接伤害了人们。"
他表示:"其中一些药物未经美国食品药品监督管理局(U.S. Food and Drug Administration)评估,可能会伤害你的肝脏,影响你的新陈代谢,有些甚至会让患者依赖它们而不接受常规治疗,从而对你造成伤害。"
Foote补充说,AI还可能制造不必要的恐惧。
他告诉NBC新闻:"我遇到过患者哭着进来,非常沮丧,因为AI聊天机器人告诉他们只有6到12个月的生命,这当然完全荒谬。"
研究发现,聊天机器人在不同平台上的表现相似,但Grok的总体得分最低。
根据最近的凯撒家庭基金会(KFF)民意调查,约三分之一的成年人现在使用AI获取健康建议。
但专家警告说,AI尚未准备好用于主流应用。
纽约西奈山医院(Mount Sinai Hospital)泌尿科讲师Ashwin Ramaswamy博士表示:"FDA、人们和医生所需的技术和方法,以及了解其工作原理并信任该系统的必要条件都尚未到位。"
【全文结束】

