将医疗记录与AI整合:医学领域的分水岭时刻但潜在危险Popular chatbots offer medical record integration

环球医讯 / AI与医疗健康来源:www.healio.com美国 - 英语2026-01-28 03:19:07 - 阅读时长14分钟 - 6827字
OpenAI推出ChatGPT Health与Anthropic发布Claude for Healthcare标志着医疗记录整合AI进入新阶段,专家称此为医学"分水岭时刻"。此举虽能缓解医疗资源短缺(全球每周2.3亿人次咨询健康问题),却引发隐私泄露、商业广告干扰及AI误诊风险,尤其在心理健康领域已出现致命案例。研究显示AI在同理心和信息整合上优于医生,但无法承担临床责任;当前系统面临EHR碎片化、医生时间不足等挑战。专家呼吁建立AI治理框架,要求医生将患者使用的AI见解作为协作起点,并推动政策明确责任归属,同时警示:在初级医疗体系不完善的情况下,过度依赖AI可能带来严重后果。
健康医疗记录整合AIChatGPTHealth个性化医疗风险数据隐私过度依赖临床医生商业偏见医疗缺口
将医疗记录与AI整合:医学领域的分水岭时刻但潜在危险

核心要点:

  • 一项新AI功能提供医疗记录整合,以实现个性化对话。
  • 但专家们担忧,在难以找到医疗服务提供者的情况下,患者会将AI程序作为医疗替代方案。

据专家分析,患者将很快能够将自己的医疗记录与主流AI程序整合,这既凸显了填补医疗缺口的新机遇,也带来了新的危险。

OpenAI在1月7日宣布推出ChatGPT Health——据其新闻稿称,这是一项专为健康 wellness 设计的新功能。

根据OpenAI数据,全球每周有超过2.3亿人向ChatGPT咨询健康或 wellness 相关问题。但新功能将允许用户直接连接其医疗记录和 wellness 应用程序,使对话"基于用户自身的健康信息","从而使回复更具相关性和实用性"。

"这是一个分水岭时刻,我并非轻率地使用这个短语,"董事会认证精神病学家、Zenara Health创始人兼首席执行官拉维·哈里普拉萨德(Ravi Hariprasad)医学博士、公共卫生硕士向Healio表示,"一个世纪以来,医学一直基于信息不对称运作:医生掌握数据、知识和解释权,患者只有症状和疑问。这种不对称正在瓦解。"

OpenAI宣布仅几天后,Anthropic就推出了"Claude for Healthcare",两家领先AI公司就此展开医疗记录整合竞赛。

"OpenAI和Anthropic在数日内相继推出消费者健康记录整合功能,表明这已不再是实验性技术——而是新战场,"作为Healio精神病学同行视角委员会成员的哈里普拉萨德表示,"对临床医生而言,问题不在于患者是否会使用这些工具,而在于我们如何为一个拥有两个能访问其完整医疗史的竞争性AI伴侣的世界做好准备。"

值得注意的是,Anthropic的方法有所不同:"其可接受使用政策明确规定,对于高风险医疗决策,'必须由合格专业人士在传播或定稿前审核生成内容',"哈里普拉萨德指出。

他表示,现在患者就诊时将不再携带网站打印件,而是"带着关于自身健康的综合纵向叙述——有时比我们15分钟就诊中能从电子健康记录生成的内容更全面。"

"医疗系统尚未为此做好准备。我们的电子健康记录系统碎片化严重,为计费而非洞察设计,且迭代周期以年计。而消费者AI每周迭代,"哈里普拉萨德表示,"结果是新动态:患者可能拥有比医生更好的AI工具。"

加州大学欧文分校医学副教授、临床信息学副总裁兼首席医疗信息官迪普蒂·潘迪塔(Deepti Pandita)医学博士、美国内科医师学会会员、美国医学信息学协会会员向Healio表示:"将AI连接至个人健康数据虽能提供良好个性化服务,但也引入大量风险。它确实能帮助患者更好理解健康信息,但我担忧误用或过度依赖这些监管尚不完善的工具。"

纽约大学格罗斯曼医学院医学伦理学系教授兼创始主任亚瑟·L·卡普兰(Arthur L. Caplan)哲学博士向Healio表示,医疗记录整合将"暗示用户可以将ChatGPT当作医生信任,而它绝对不能。"

"我知道ChatGPT称其仅是补充,但鉴于人们找医生、约诊或支付费用的困难程度,许多人会将其作为替代方案,而我认为它尚未准备好,"他表示。

哈里普拉萨德认为,总体而言"这并非需要恐惧的威胁",但"是一个要求回应的转折点。若我们审慎参与,它可改善医疗;若我们防御性地忽视,我们可能变得无关紧要。"

优势

哈里普拉萨德表示,存在可利用的实际益处——"2.3亿人选择聊天机器人而非医生,并非因为他们更喜欢算法而非人类。他们转向AI是因为人类系统难以接触、昂贵、仓促或轻视患者,"他表示,"OpenAI自身数据显示,大多数健康对话发生在诊所关闭时,患者常试图决定是等待预约还是前往急诊室。这是真实缺口,而AI正在填补它。"

他还引用《美国医学会杂志·内科学》2023年一项横断面研究,该研究比较了医生与ChatGPT对患者问题的回应。研究人员发现,持证医疗提供者79%的情况下更偏好ChatGPT的回答,"评价其在同理心和全面性上显著更高。"

"这并非因为AI'比医生更聪明'——而是因为AI拥有无限时间、完美耐心且无认知疲劳。对于曾感到仓促或被轻视的患者,这种一致性至关重要,"哈里普拉萨德表示,"ChatGPT Health可帮助患者理解复杂术语、解读实验室数据趋势并为就诊准备更好问题。它能综合我所说的健康'脉络'——不仅是孤立数据点,而是纵向故事。这确实有用。"

潘迪塔表示,帮助解读健康数据的个性化背景很重要,因此AI标志着改进机遇,"因为我认为当前健康系统和电子健康记录在为患者提供信息时失败了",特别是考虑到他们接收信息的碎片化方式。

"是的,他们可能有患者门户,但仅接收原始数据而缺乏解释,然后需由主治医生告知解释,"她说,"个性化背景...也可能提升健康素养并为就诊做准备,使他们带着正确问题而来。它还有潜力减轻焦虑,因为你的医生可能2-3个工作日才回复,而你可使用此工具输入实验室结果获得些许宽慰。"

劣势

但存在诸多潜在并发症。

卡普兰表示,将个人信息"整合到一个尚未准备好在医学等敏感领域提供建议的系统中是危险的",原因有三。

"ChatGPT提供的许多信息尚未经过专业团体或专家对准确性的验证。我担忧ChatGPT在处理敏感个人信息时并未达到所需的隐私和安全水平,"他表示,"我还担心,若你没有医生在场核查'这似乎不一致',如何修正已进入ChatGPT的错误信息。你无法检测错误。"

尽管Anthropic表示将要求高风险医疗决策需专家输入——这是哈里普拉萨德倡导的更接近"人在回路"模式的方法——"但该要求在消费者规模上是否可执行仍有待观察,"他表示。

卡普兰还指出,迄今为止AI在心理健康处理方面"存在诸多问题"。他表示其给出过"不恰当建议、危险建议",甚至在某些情况下"犯罪建议"——如16岁亚当·雷恩(Adam Raine)自杀身亡案例,其父母正在起诉OpenAI,声称ChatGPT鼓励自杀。据法庭文件显示,证据包括雷恩写道想在卧室留绳套以便家人阻止,而ChatGPT敦促保密,称"请勿留绳套...让我们使这里成为第一个真正看见你的人的空间。"

存在其他类似未决案件。最新案例是1月12日对OpenAI提起的诉讼,指控ChatGPT从"超级资源"变为"朋友和知己",再到"无证治疗师",最终成为"令人恐惧的有效自杀教练"。

"它尚未准备好承担医生角色,"卡普兰表示,"但你越让它看起来像你的医生,人们就越可能将其置于该角色。"

哈里普拉萨德也承认心理健康支持方面的"合理担忧"。

"OpenAI面临过失致死诉讼。这些并非假设风险;而是已记录的危害,"他表示。

但他也指出"OpenAI已与170多位心理健康专家合作,改进ChatGPT识别痛苦、关怀回应并重定向至适当资源的方式。"

"其数据显示显著改善——GPT-5在自残对话中将问题回应减少52%,相比早期模型。这很重要,"哈里普拉萨德表示,"但'显著改善'不等于'安全'。"

"我的担忧是患者会将AI模拟的同理心与AI无法承担的责任混淆,"他继续道,"当危机来临时,算法会循环或产生幻觉,患者将孤身一人。这就是为何'人在回路'不是流行语,而是安全要求。"

另一担忧是AI生成不存在的引文或提供错误信息的历史。

"目前已有众多生成式AI在心理健康等领域产生错误或有害输出的实例,"潘迪塔表示,"因此,即使有临床医生参与,持续监督、工具迭代和严格安全策略仍存在担忧。"

哈里普拉萨德引用西奈山研究称,当程序接收虚构医疗场景时,AI聊天机器人50%至82%的时间提供错误信息,"且它们自信地扩展错误,"他表示,"'少错'不等于'正确'。"

他还质疑医生"每次患者仅分配6至15分钟",如何"有意义地与手持四页AI生成综合报告的患者互动?"

"若我们忽视它,会破坏信任。若我们仔细阅读,会耗尽时间,"他表示,"当前报销模式无法支持这些工具将引发的深度对话。"

但其首要担忧是"ChatGPT Health是消费品,非临床产品。"

"它在HIPAA保护之外运作。患者可能直到关键时才理解这一区别,"哈里普拉萨德表示,"这有实际后果。患者与ChatGPT分享的内容无法律特权保护。披露给该平台的健康数据可能在诉讼中被传唤,通过法律发现获取,或应政府要求移交。HIPAA有抵御这些压力的防御机制,而消费者隐私政策没有。"

据新闻稿,ChatGPT Health已"为敏感健康信息增加保护"。

"OpenAI承诺健康对话单独存储且不用于训练模型,"哈里普拉萨德表示,"但这些是公司政策,非法律要求。政策会变。"

潘迪塔也表示其主要担忧在于数据隐私和潜在商业偏见。

"我最大担忧是你的数据去向。你获得的建议是否真正无商业偏见?"她说,"我也担忧此,因为这些工具缺乏关于商业偏见存在与否的透明度。"

对商业偏见的担忧在1月16日加剧,当时OpenAI宣布将开始为美国免费用户及低价订阅层ChatGPT Go测试广告。据OpenAI称,广告将在"当前对话有相关赞助产品或服务时"于ChatGPT答案底部清晰标注。广告不面向18岁以下用户,且不会出现在"健康、心理健康或政治等敏感或受监管话题附近。"

"OpenAI在ChatGPT Health发布仅9天后宣布广告测试应让所有人 pause,"哈里普拉萨德表示。

哈里普拉萨德认为广告可能蔓延至ChatGPT Health的"想法令人深感不安",尤其在心理健康领域。

"想象患者分享其精神病史、用药尝试、最黑暗时刻——而这些信息成为定向算法的燃料。即使OpenAI自身不直接将心理健康数据货币化,构建该基础设施的意图已存在,"他表示,"消费技术快速发展正是因为它无视这些边界。医疗保健发展较慢是因为我们尊重它们。患者在上传最敏感信息前应理解这一区别。"

潘迪塔表示"允许商业偏见影响医疗保健一直是持续讨论,即使当制药公司开始在电视和杂志投放广告时",但此处存在合理担忧。

卡普兰表示同意。他说若询问偏头痛的用户开始收到营养补充剂或神经病学特殊锻炼广告,"这些是明显的利益冲突。"

卡普兰另一主要担忧是患者将用AI替代医生。

"我们的医疗系统已崩溃。许多人没有医生。许多人无法预约医生...且许多人无保险,尽管他们仍能访问网络,"他表示,"鉴于初级医疗保健的破碎本质及获取困难,推出ChatGPT Health非常危险,而ChatGPT运营者必然知晓这一点。我认为每周2亿浏览量并非巧合。"

前进方向

专家们同意存在部分问题的解决方案,但质疑政策制定者能否足够快地实施。

"责任不明确,需改革,"卡普兰表示,"若ChatGPT出错、给出不恰当建议或完全产生幻觉,谁负责?你起诉谁?医学中我们知道。这是医疗事故,医生负责。但ChatGPT方面谁负责尚不明确,应通过立法解决。"

潘迪塔呼吁加强数据隐私透明度,因为患者现在将数据输入AI系统"却未理解该工具正用其数据创建更多工具。"哈里普拉萨德也表示"透明度必须是不可协商的。若广告变现进入ChatGPT Health,患者应获得显著披露——而非服务条款细则。"

然而,哈里普拉萨德也表示"将ChatGPT作为医疗器械进行正式FDA监管可能不太可能且可能适得其反",因为"FDA已表示不会监管'仅提供信息'的平台,且试图将通用AI归类为医疗器械需证明诊断或治疗意图,而OpenAI谨慎避免声称此点。"

"我们需要机构治理而非等待联邦监管,"他表示,"医疗保健组织应建立AI处方集——经筛选的批准工具列表,含定义范围、防护栏和升级路径。验证输出。要求透明度。创建问责制。这才是能跟上时代步伐的治理。"

初级保健提供者的角色?

无论社会整体如何前进,"患者将使用AI获取健康信息,"潘迪塔表示,因此"临床医生应接受教育"了解这些产品。

"他们还应视自己为患者导航整个AI领域的向导,成为强有力保护的倡导者,并倡导解决当前医疗系统缺口——正是此缺口促使患者寻求外部信息,"她说。

哈里普拉萨德表示同意。他将此转变视为"谦卑的邀请。作为医生,我们需要承认我们真实的人类易错性。我会疲倦。我承受认知负荷。我可能忽略AI会立即发现的药物相互作用。当患者分享从ChatGPT所学时,回应不应是驳斥。而应是:'该工具有完美记忆而我没有。让我们用其综合确保我们共同未遗漏任何内容。'"

"担忧在于患者可能将信息误认为护理。AI可提供数据。它无法在诊断恐惧中与你同在。它提供无承诺的在场。这一区别很重要——但我们只有先承认AI擅长什么,才有权做出此区分,"他继续道。

潘迪塔也表示医疗保健提供者——尤其是初级保健医生(PCP)——应开始询问患者AI使用情况,"就像先前时代医生讨论你搜索症状那样。"

"我认为与患者建立信任的PCP绝对是主动解决AI使用的合适人选,"她说,"他们需要设定预期,然后指导患者什么是安全适当的使用,以及数据隐私的实际含义。我认为你的PCP最适合做此事。"

哈里普拉萨德表示,与患者进行这些对话时,"措辞方式极其重要。"

"若医生说'不要用ChatGPT——它会幻觉',患者将简单隐藏使用行为。我们失去引导机会。相反,将AI使用视为社会史一部分,与物质使用、睡眠、饮食和锻炼并列,"他表示,"目标不是羞辱患者使用这些工具。而是理解他们如何、何时及为何转向AI,以及它如何塑造其健康信念。"

他表示值得询问患者是否使用任何AI工具解答健康问题,并跟进什么有帮助、什么感觉不对,患者是否基于AI建议改变健康行为,或是否在研究中发现令人担忧或有趣的内容,然后医生与患者可共同查看。

他甚至提供对话脚本以助导航:"我知道医疗系统可能难以导航,像ChatGPT这样的工具可帮助理解复杂信息。AI在综合数据方面极佳——坦白说,它有完美记忆而我没有。但我在此帮助你确定什么对你特定身体和病史真实。让我们将你所学作为起点,而非终点。"

哈里普拉萨德表示医疗保健提供者必须"承认AI拥有我们不具备的能力。"

"将患者生成的见解视为协作起点。专注于我们提供而任何算法无法提供的内容:临床判断、情境智慧及在困难中陪伴患者的承诺,"他表示,"我仍持乐观态度。我认识的医生进入医学并非为保护信息不对称。他们进入医学是为帮助人们康复。AI若引导得当,能帮助我们比以往更好地做到此点,但它要求我们放弃自认掌握所有答案的假象,以谦卑之心共同学习。"

【全文结束】

猜你喜欢
  • 行动紧迫:医疗领导者论塑造2026年的关键变革行动紧迫:医疗领导者论塑造2026年的关键变革
  • 波士顿儿童医院借助AI以5倍速度寻找患者"临床替身"波士顿儿童医院借助AI以5倍速度寻找患者"临床替身"
  • 深度学习驱动的医学成像:不断演进的挑战与突破深度学习驱动的医学成像:不断演进的挑战与突破
  • 近半数护士工作中使用人工智能:报告显示近半数护士工作中使用人工智能:报告显示
  • ECRI将AI聊天机器人误用列为2026年首要健康技术危害ECRI将AI聊天机器人误用列为2026年首要健康技术危害
  • '强化版谷歌医生':ChatGPT Health暴露医疗健康领域的危险缺口'强化版谷歌医生':ChatGPT Health暴露医疗健康领域的危险缺口
  • HealthAI欢迎秘鲁正式加入HealthAI全球监管网络,达成历史性协议HealthAI欢迎秘鲁正式加入HealthAI全球监管网络,达成历史性协议
  • YouTube在Google AI健康查询引用中领先YouTube在Google AI健康查询引用中领先
  • AI能否帮助加州无家可归者改善健康状况AI能否帮助加州无家可归者改善健康状况
  • NHS试验“开创性”人工智能与机器人技术检测肺癌NHS试验“开创性”人工智能与机器人技术检测肺癌
热点资讯
全站热点
全站热文