越来越多的患者开始依赖人工智能工具来获取医疗建议,这些工具能够提供看似有说服力且富有同理心的回答,但其中的信息可能是错误的。本周,安大略省的医生召开了一场媒体简报会,讨论他们所观察到的现象,以及患者需要了解的事项。
来自北湾的精神病学家Valerie Primeau博士表示,现在已有患者使用ChatGPT来寻求建议并进行对话。她指出,如果不及时帮助人们正确应对这些工具,他们可能会面临更大的问题。
安大略省伦敦市的放射肿瘤学家David D'Souza博士表示,患者可能会根据AI提供的信息推迟传统的治疗方式。他提到,有患者曾向他询问是否应等待几年后再接受癌症治疗,因为他相信AI将在未来为患者量身定制治疗方案。D'Souza博士不得不说服他立即接受治疗的必要性。
安大略医学协会(OMA)主席Zainab Abdurrahman博士建议,如果社交媒体上出现诸如“医生一直在隐瞒这个信息”之类的帖子,患者应查阅相关专业医疗组织的官方网站,例如省级癌症护理协会的网站,以核实信息的真实性。她同时指出,虚假广告,包括由AI生成的图片,也可能误导患者。
尽管AI技术正在进步,但目前的聊天机器人常常会提供看似权威但实际上错误的医疗信息。Western University病理学与实验室医学系助理教授Benjamin Chin-Yee博士及其同事进行的一项研究中,他们将近5000份医学和科学文献摘要输入包括ChatGPT在内的AI语言模型,并要求其生成摘要。结果发现,四分之三的AI生成版本遗漏了关键细节。
例如,一篇医学期刊文章可能指出某种药物仅对特定患者群体有效,而AI的摘要可能忽略了这一关键信息。Chin-Yee博士指出,这种细节的缺失可能会误导医疗从业者,影响他们的临床实践。
多伦多大学的医学学生David Chen对聊天机器人的回答与肿瘤科医生的回答进行了比较,他惊讶地发现,根据医生团队对质量、同理心和可读性的评估,这些聊天机器人几乎达到了接近人类专家的水平。
但他也指出,这些实验结果可能无法完全反映现实世界的情况。没有医学监督的情况下,很难百分之百信任这些生成式技术的输出。此外,隐私、安全性和患者信任的问题也尚未完全解决。
生成式AI技术如聊天机器人基于模式匹配技术,根据训练数据给出最可能的回答。然而,在医学领域,一些不太常见的诊断同样重要,不应被排除。此外,聊天机器人还可能出现“幻觉”——即生成听起来合理但错误、编造、无意义或无关的内容。Chin-Yee博士指出,已有研究显示,聊天机器人的“幻觉率”可能高达20%,这可能导致临床错误。
加州圣地亚哥Scripps Research的教授兼执行副院长、心脏病学家Eric Topol博士指出,目前还没有系统性地评估这些聊天机器人在公众使用中的效果。他在今年春季出版的《Superagers:An Evidence-Based Approach to Longevity》一书中探讨了AI对寿命和生活质量的影响。
Topol博士建议,人们应咨询多个聊天机器人,并验证信息的可靠性。他还建议要求它们提供医学文献的引用来源,但需注意这些引用有时并非真实存在,需要进一步核实。
他表示,理想情况下,应进行一项大规模的现实测试,跟踪成千上万人使用聊天机器人后的诊断结果和治疗效果,并与未使用AI的人群进行比较。但由于科技公司各自利益不同,这种合作的可能性较低。
Topol总结道:“我们已经进入了不同的时代,无法回到过去。关键在于如何明智地使用这些工具。”
【全文结束】

