每一位临床医生都熟悉这样的流程:询问患者的物质使用情况、睡眠、饮食、锻炼和住房状况。社会史是患者问诊中超越病历记录的部分,它考察患者的生活方式、人际关系和环境,以及这些因素如何影响其健康状况。
然而,在过去几个月关于人工智能驱动的聊天机器人的大量媒体报道中,我们发现医疗领域存在一个空白:医生对患者使用技术——特别是聊天机器人——的了解非常有限。如果患者表示自己爱上了虚构的AI聊天机器人,医生该如何应对?如果患者表示没有先咨询Gemini就什么都做不了,医生该怎么办?如果ChatGPT说服患者停止服用处方药物,医生又该如何处理?
AI聊天机器人的基本价值在于它们能够接收用户提示并以清晰、有条理的方式作出回应。目前市场上的一些聊天机器人专注于通用提示响应,如ChatGPT和Claude。另一些,如Character.AI和Replika,则可以模仿历史和虚构人物,为用户提供陪伴。一些公司甚至将他们的聊天机器人宣传为解决孤独感和心理健康服务提供者短缺的独特方案。证据表明它们可能有效:斯坦福教育学院的同事进行的一项研究调查了使用Replika的大学生,发现1000名参与者中有30人自愿报告他们的Replika机器人阻止了他们自杀的企图。
但当人们用聊天机器人完全取代真实的人际互动时,问题就出现了。如果没有适当的控制,这很快就会演变成不健康的过度依赖。金赛研究所最近进行的一项研究发现,16%的美国单身人士曾将AI作为恋爱伴侣。年轻人尤其脆弱;同一项研究发现,33%的美国Z世代曾与AI进行浪漫互动。如果不加以控制,这种AI使用的后果可能很严重。以14岁的Sewell Setzer III为例,他在自杀身亡前经常使用Character.AI平台来缓解孤独感,但该平台未能检测和适当处理他的自杀意念。
很明显,尽管这项技术具有变革性,但聊天机器人无法始终如一地检测或管理心理健康危机,小错误可能导致灾难性后果。这就是为什么像我们这样的临床医生需要开始了解患者与AI平台的关系。在斯坦福心理健康创新实验室(Brainstorm: The Stanford Lab for Mental Health Innovation),我们一直在努力创建首个关于如何与患者讨论AI使用的临床医生指南。我们认为应该谨慎对待AI。我们必须承认它为临床医生和患者带来的益处,同时对其局限性保持警惕。重要的是,我们必须准备好将其潜在的成瘾和引发焦虑行为的角色作为全面患者护理的一部分来处理。
正因如此,她不得不彻底改变她的治疗方法——在某些极端情况下,甚至建议完全限制手机使用。她承认这是未知领域,并继续探索如何在患者症状受聊天机器人影响时信任他们自我报告的症状。她的经历并非个例;这预示着所有医生都必须开始主动与患者进行的更广泛转变。
关于AI使用的问题可以很容易地融入我们与患者已经进行的对话中。最自然的切入点包括:
- 所有专科的初次患者接诊或健康检查,从急诊医学到肿瘤学到外科,因为患者越来越多地向AI寻求答案
- 心理健康筛查(如PHQ-9或GAD-7),特别是当患者报告焦虑、失眠或社交退缩时
- 讨论应对策略、睡眠卫生或情感支持系统,AI使用可能在这些讨论中自然浮现
如果患者提到依赖数字工具和聊天机器人或"向互联网询问"建议,特别值得询问AI使用情况。Brandon Hage是一位双重认证的成人、儿童和青少年精神病学家及医学教育家,他分享了自己实践中的一例:"我有一位患有ADHD的患者在课堂上难以跟上进度。他们利用ChatGPT总结课程计划,这帮助他们高效地组织材料,并在课堂上取得更大成功。"
这听起来很有希望,但他指出,对某些人来说,使用AI实际上可能对他们的功能产生负面影响。例如,有明显焦虑或强迫症倾向的学生可能感到需要不断核实AI的输出,导致信息冲突和效率降低。在ADHD患者的情况下,他没有劝阻使用,因为他们的成绩似乎从学习习惯中受益,尽管他承认自己没有进一步询问他们与AI工具的互动情况。
这就是临床医生自己的工具包可以塑造未来接触的地方,提供实时提示,加深对话,甚至可能影响治疗进程。
一旦医生确定了合适的时机——理想情况下是在社会史采集过程中——询问AI使用情况并不需要复杂。目标是了解患者如何、何时以及为何转向AI,以及它如何影响他们的健康、关系和信念。以下是一个简化的框架,附有示例问题,供您开始:
一般使用:
- 您目前以哪些方式使用聊天机器人?
- 您在以下哪些生活领域使用AI:寻求医疗信息/将其作为治疗替代品/陪伴/其他?
医疗信息:
- 您与AI讨论哪些医疗话题,它给您提供什么信息?
- 您因AI而对健康或日常习惯做出了哪些改变?
使用和依赖:
- 如果AI不再可用,您会有什么感受——例如,您是否会发现自己推迟任务或感到压力?
- 您每天花多少时间使用AI?
聊天机器人作为伴侣:
- 与AI交谈如何影响您的心理、情感和身体感受?
与其他支持的比较:
- 您认为AI提供了什么药物、治疗或其他形式的支持可能无法提供的东西?
在与患者讨论这些问题后,退一步考虑他们与AI关系的更广阔图景很有价值。该工具似乎提升了他们的情绪并提供了有益的支持,还是导致了自我怀疑、焦虑或社交孤立的感觉?是否有过度依赖的早期迹象或类似于行为成瘾的模式出现?通过有意为这些反思腾出空间,我们可以开始将AI使用视为患者心理健康史的相关组成部分,确定它是否应影响诊断或指导治疗调整。
益处和危害的平衡仍在演变,但有一点是确定的:生成式AI已经在深刻地塑造健康。作为临床医生,我们不能盲目行事。我们必须面对这一新现实,并创建诊断和预防工具,以便更好地照顾我们的患者。
最重要的是,这不是一次性的对话。患者应该知道,如果他们对自己或家庭成员的AI使用感到担忧,他们可以回到我们这些临床医生身边,依靠他们最信任的人。
Saneha Borisuth是伊利诺伊大学芝加哥分校的全球医学学者和医学生,也是斯坦福心理健康创新实验室(Brainstorm: The Stanford Lab for Mental Health Innovation)的研究员。Nina Vasan医学博士、工商管理硕士是斯坦福大学医学院的精神病学临床助理教授,她是斯坦福心理健康创新实验室的创始人和主任。她还是硅谷高管精神病学(Silicon Valley Executive Psychiatry)的首席医疗官,这是一家为精英专业人士及其家庭提供礼宾私人服务的机构。
【全文结束】

