ChatGPT 和类似的人工智能工具有时能够准确回答患者的问题,但加拿大医学研究人员警告称,在依据所见信息采取行动之前,必须仔细核实这些信息。
本周,安大略省医学会(Ontario Medical Association,简称OMA)举行了一次媒体简报会,讨论了从搜索引擎到社交媒体再到聊天机器人等“自助”信息来源及其影响,以及患者应采取的替代做法。
“现在就提醒人们非常重要,”北湾的精神病学家瓦莱丽·普里莫(Valerie Primeau)博士说,她负责心理健康和成瘾的住院和社区项目,“因为患者越来越依赖人工智能工具。这些聊天机器人给出令人信服且富有同理心的结果,但这些信息可能是虚假的。”
普里莫表示:“我现在有患者会向ChatGPT寻求建议并进行对话。因此,我预见我们将持续遇到这个问题,如果我们现在不加以解决并帮助人们应对这种情况,他们将会陷入困境。”
安大略省伦敦市的放射肿瘤学家大卫·德索萨(David D'Souza)博士负责癌症影像治疗的临床研究。他表示,患者对AI提供信息的解读方式可能会影响他们是否接受传统治疗。
他说:“有一位患者问我,他是否应该推迟几年再治疗已经确诊的癌症,因为他相信AI将为患者定制癌症治疗方案。我不得不说服他为何应立即接受治疗。”
鉴于消费者会使用这些工具,安大略省医学会主席扎伊纳布·阿卜杜勒拉赫曼(Zainab Abdurrahman)博士建议,如果一则帖子声称“医生一直向你隐瞒此事”,她建议查阅相关专科组织的网站,例如省级癌症护理协会的网站,以确认其真实性。
她还警告称,虚假广告,包括AI生成的图片,也可能误导患者。阿卜杜勒拉赫曼同时也是临床免疫学家和过敏症专家。
人工智能结果因缺乏细节而难以依赖
尽管技术在进步,但目前的聊天机器人通常会以看似权威的方式回答健康问题,但实际上提供的是错误信息。
在一项研究中,西安大略大学(Western University)病理与实验室医学系助理教授本杰明·陈-伊(Benjamin Chin-Yee)及其合著者将近5000份医学和科学文献摘要输入包括ChatGPT在内的AI大型语言模型,并要求它们进行总结。
他们发现,四分之三的AI版本遗漏了关键陈述中的重要部分。
陈-伊表示:“例如,期刊文章可能会说明某种药物仅对特定患者群体有效,而AI的摘要却省略了这一关键细节。令人担忧的是,当这种细节和微妙之处被遗漏时,可能误导那些试图利用这些知识来影响临床实践的从业者。”
陈-伊指出,AI是一个快速发展的活跃研究领域,更新的模型更像人类且更易于使用,但仅依赖这些工具也存在弊端。
同样,多伦多大学的医学生大卫·陈(David Chen)将聊天机器人对Reddit论坛中200个癌症相关问题的回答与肿瘤科医生的回答进行了比较。
“我们惊讶地发现,根据我们的医生团队对质量、同理心和可读性的评估,这些聊天机器人在接近人类专家水平的表现上令人印象深刻,”陈表示。
但这些实验结果可能无法反映现实世界的情况。
他说:“在没有医学监督的情况下,很难百分之百信任这些生成技术的某些输出。”他补充说,关于隐私、安全性和患者信任的问题仍未完全得到解决。
不要仅依赖一个聊天机器人
像聊天机器人这样的生成式AI技术基于模式匹配技术,根据其训练数据为特定问题提供最可能的输出。然而,在医学领域,一些不太可能但仍然重要的诊断也不应被排除。
此外,聊天机器人可能会“幻觉”——即生成听起来令人信服但错误、虚构、无意义或无关的结果。
陈表示:“已有研究指出,这些聊天机器人的‘幻觉’率可能高达20%以上,这可能导致其输出在临床上出现错误。”
心脏病专家、加州圣地亚哥斯克里普斯研究所(Scripps Research)教授兼执行副院长埃里克·托波尔(Eric Topol)博士在今年春天出版了一本名为《超级长寿者:长寿的循证方法》(Superagers: An Evidence-Based Approach to Longevity)的书籍,探讨了AI对寿命和生活质量的影响。
托波尔表示:“关于患者使用聊天机器人的案例,既有好的,也有坏的。但它尚未以一种有意义的方式系统评估,供公众使用。”
他建议人们应咨询多个聊天机器人,并验证所获得的信息是否可靠。他还建议要求引用医学文献中的参考文献,并指出有时这些引用可能是虚假的,需要验证。
托波尔表示,理想情况下,应有现实世界的测试,由数万人跟踪记录他们做了哪些检查、被诊断为何种疾病,以及使用AI和未使用AI的人的结果如何。但他指出,科技公司不太可能参与,因为每家公司都无法从中获益。
他说:“现在是一个不同的世界,你无法回到过去。关键在于如何明智地使用这些工具。”
【全文结束】

