尽管我对ChatGPT和Anthropic的Claude等AI聊天机器人的使用存在担忧——例如环境压力、潜在危险幻觉以及不可靠数据源问题——但我绝非AI反对者。随着我在医疗保健领域的报道深入,我愈发确信AI是解决家庭护理等劳动力短缺行业困境的唯一出路。
在我的个人生活中,我尽量限制使用这些聊天机器人,但当家人健康状况令人担忧时,我会破例使用。通过谷歌搜索药物名称和症状,我只能获得关于健康某个方面的有限信息,而ChatGPT会提出相关问题,提供更全面、个性化的健康解读,例如诊断结果的含义。值得庆幸的是,它通常会告诉我只是过度焦虑了。
我并非唯一使用ChatGPT评估健康信息的人。凯撒家庭基金会(KFF)的一项民意调查显示,约六分之一的成年人每月至少使用一次AI聊天机器人获取健康信息和建议,而在30岁以下人群中,这一比例升至四分之一。同时,约五分之一的成年人认为AI对寻求准确健康信息的人弊大于利。
随着ChatGPT和Claude近期宣布专门投资医疗保健领域,这种分歧将进一步加剧。在本周的HHCN+更新中,我将分享关于AI医疗接管的分析和关键启示,包括:这些工具如何变革医疗保健、在家庭护理中的潜在益处,以及家庭护理行业可能面临的风险。
医疗保健AI的新领域
1月7日,OpenAI宣布推出ChatGPT Health,称这款专为医疗保健设计的工具旨在辅助而非取代医疗服务,帮助用户获得更全面的健康视图。目前该工具尚需排队等候使用。
公司声明表示:“健康已是人们使用ChatGPT的最常见方式之一,每周有数亿人提出健康与保健问题。ChatGPT Health在ChatGPT强大的隐私、安全和数据控制基础上,增加了专为医疗设计的分层保护措施,包括定制加密和隔离技术,确保健康对话得到保护和分隔。用户可安全连接医疗记录和保健应用程序,使对话基于个人健康信息,从而获得更相关、更有用的回复。”
Anthropic随后也推出了医疗保健专属服务,其创新更侧重于临床企业端,涵盖预先授权审核功能、保险政策、编码系统和临床指南。该公司网站称:“Claude帮助医疗组织在不牺牲准确性、安全或合规性的前提下加速运转,减少行政工作,增加服务患者的时间。”
这两款工具对家庭护理的影响略有不同:ChatGPT更侧重用户端,而Claude则直接影响服务提供者的工作流程,要求重新审视合规政策和培训协议。下文将分析这一AI医疗新时代的益处与潜在陷阱。
AI乐观主义的理由
在家庭护理行业,我从各方听到的关键趋势是:医疗保健正向家庭转移。老年人不愿离开住所,支付方也不愿在养老院等高成本选项上增加支出。
从宏观角度看,这些聚焦健康的AI工具推动了这一趋势。人们无需离家即可获取健康快照,甚至无需打开笔记本电脑摄像头与临床医生视频通话。这些工具支持医疗保健向家庭迁移,并可能促使人们更渴望居家健康服务,从而推高对家庭护理的需求。
此外,如前所述的KFF民调显示,人们已开始使用聊天机器人寻求健康建议。AI在生活中的崛起势头不减,因此ChatGPT投资开发更安全、更准确的工具是积极进展。
ChatGPT的健康服务还允许用户将电子病历(EMRs)和Apple Health数据等多种健康数据源连接至平台。这是该工具的关键要素,因为它将使人们日益熟悉整合式健康数据的使用,以及实质上的远程患者监测工具。随着家庭护理提供商转向效率提升工具,患者需适应信息融入更大技术生态系统的现实——若他们已通过ChatGPT Health体验此过程,在家庭护理提供商采取类似措施时将不易感到意外。添加Apple Watch数据还将提升人们对可穿戴技术的接受度,这类技术正通过远程患者监测变革家庭护理行业,增加提供商对患者的了解并降低跌倒等不良健康事件。
电子病历整合也让我联想到美国医疗保险和医疗补助服务中心(CMS)的“告别纸质 clipboard”倡议。作为该倡议的一部分,CVS Health和UnitedHealth Group等主要医疗保健机构承诺优先提供便捷的电子健康信息访问,减少填写纸质表格的惯例。ChatGPT的电子病历整合与“告别纸质 clipboard”倡议,都是技术赋能医疗保健浪潮中的组成部分。
由于技术常被视为家庭健康和家庭护理行业的最大机遇,公众对这些技术要素的日益熟悉,将减少行业向技术优先未来转型过程中的阻力。
家庭护理的陷阱
我不提具体姓名,但确实与家人讨论过,提醒他们不要完全信任AI提供的健康信息。这让我回想起告诫家人不要轻信Facebook内容的场景。“这是信息,”我说,“但在做重大改变或决定前,务必咨询医生。”有时他们忽略我的建议,但更多时候会带着ChatGPT的建议去看医生并征询专业意见。
患者带着ChatGPT的输入咨询医疗专业人员的趋势将成为新常态。这将是WebMD陷阱的“升级版”——你搜索症状,WebMD告诉你鼻窦炎实则是癌症。我曾因WebMD的误导,不必要地担忧某种危及生命的疾病而去看医生。
家庭护理提供商必须培训员工应对这些高度具体的AI生成建议,以及坚信ChatGPT比持证家庭护理人员更正确的患者。这将需要新的培训协议,并可能消耗本就人手不足的护理工作者精力。
家庭护理提供商还需考虑聊天机器人的另一面:员工对这些工具的使用。一些机构已着手制定AI合规政策,包括避免使用ChatGPT等大型语言模型(LLMs)。
首选家庭健康与临终关怀(First Choice Home Health & Hospice)首席运营官博·索伦森(Beau Sorensen)向HHCN透露,公司避免在处理敏感患者信息时使用LLMs,并对任何涉及患者的AI工具进行严格审查。
他表示:“工具必须经过测试流程,对比现有解决方案,判断AI质量是否足够高、结果是否优异,以及最终能否比现有方案更好地服务患者群体和临床医生。”
无论指导员工何时使用AI,还是培训他们应对受AI影响的客户和患者,新一代AI工具都要求提供商谨慎思考——但这也标志着医疗保健向更智能、技术优先时代演进的重要一步。
ChatGPT Health和Claude for Healthcare的崛起无疑已引发多米诺骨牌效应,其他医疗科技公司必须迅速响应这些新服务。正如媒体和新闻机构在AI颠覆各自领域时,时而对抗时而合作,医疗保健提供商及其技术伙伴如今也面临日益复杂的问题,包括如何保护患者隐私、如何安全利用AI辅助临床决策,以及健康数据的所有权和控制权归属。居家护理提供商可能尚未感受到AI驱动变革的冲击,但这一局面即将改变;2026年初很可能成为AI扎根医疗保健并加速深刻转型的里程碑时刻。
【全文结束】

