健康AI代理热潮:三个月内五款产品面世 隐私问题却被抛在身后The health AI agent rush: Five products in three months, and the privacy questions that got left behind | IAPP

环球医讯 / AI与医疗健康来源:iapp.org美国 - 英语2026-05-17 09:20:11 - 阅读时长10分钟 - 4571字
本文深入分析了2026年1月至3月间OpenAI、Anthropic、Amazon、Microsoft和Perplexity五家科技巨头推出的健康AI产品。研究表明,这些产品虽承诺不使用健康数据训练基础模型并将健康对话与普通聊天隔离,但在加密保护强度、人工访问限制透明度和治理框架独立性方面仍存在明显不足。文章特别指出,由于将隐私保护与数据整合功能捆绑销售,欧洲用户被完全排除在外,这反映了深层次的结构性问题而非单纯市场策略。作者呼吁隐私专业人士关注HIPAA法规缺口、"不训练"承诺的实际范围、网络安全集中风险等关键问题,并建议通过监管沙盒机制建立适当的治理框架,在保障创新的同时维护用户隐私权益。
健康AI代理隐私问题ChatGPTHealthClaudeforHealthcareHealthAICopilotHealthPerplexityHealth密封模式HIPAA缺口GDPR网络安全风险
健康AI代理热潮:三个月内五款产品面世 隐私问题却被抛在身后

据OpenAI称,每周有2.3亿人向ChatGPT咨询健康问题,其中超过4000万人每天都会这样做。他们描述症状、分享检测结果、询问药物相互作用,甚至倾诉对尚未确诊疾病的担忧。这些对话发生在全球各大洲,使用各种语言,却采用与起草生日贺卡相同的默认隐私设置。

这已经令人印象深刻。但更重大的变化正在发生。在不到三个月的时间里,五家主要科技公司已超越简单的聊天机器人对话,开始构建由人工智能驱动的个人健康数据枢纽。

无人预料的融合

2026年1月至3月间,五家公司相继推出了健康专用AI产品:1月7日,OpenAI推出ChatGPT Health;1月11日,Anthropic推出Claude for Healthcare;1月22日,Amazon的Health AI向One Medical会员开放,并于3月扩大范围;3月12日,Microsoft推出Copilot Health;3月19日,Perplexity推出Perplexity Health。消费级健康AI被恰当地描述为本年度发展最快的品类。

每款产品都遵循惊人相似的模式:均通过第三方中介(如b.well、HealthEx或州级健康信息交换平台)连接电子健康记录;均与可穿戴设备和健康应用(如Apple Health、Fitbit、Oura等)整合;均承诺不使用健康数据进行训练;均将健康对话与普通聊天分开存储;且目前仅在美国提供。

在最近的一项研究中,我通过涵盖16个维度的详细比较表对所有五款产品进行了评估,这些评估基于我2026年3月关于聊天机器人隐私的研究中提出的"密封模式"框架的六个组成部分——"您将一切托付给聊天机器人,这合理吗?"及其配套的IAPP文章。

这些产品存在的原因

在讨论治理缺口之前,有必要了解这些产品存在的原因以及数据整合在临床上的必要性。最近一篇关于个人健康代理架构的研究论文认为,整合用户的医疗史不仅是便利功能,更是临床安全要求:忽略药物、过敏史或现有疾病的通用健康建议可能不仅无用,甚至可能有害。

美国医学会2026年医师调查显示,81%的美国医生在执业中使用AI,大多数医生对患者使用AI咨询药物问题(68%)和一般健康问题(64%)持接受态度。但近半数医生反对患者使用AI解读病理报告(49%)或放射学结果(46%)。

换言之,医生群体欢迎这一类别,但在内部划定了界限。这些系统摄入的数据越多,其输出结果的影响就越大,相应的治理框架也就越需要匹配。

密封模式的关联

我之前的研究记录了五家主要聊天机器人提供商如何处理消费者对话,涵盖训练、人工审核、广告和数据共享等方面。该研究提出了"密封模式":一种为敏感对话明确标记的消费者路径,其默认架构实质上限制了数据的再利用和内部人员访问,结合了"不训练"、"无广告"、"隔离个性化"、"严格保留"、"最小化人工审核"和"加密强化"等要素。

2026年初出现的健康AI产品与密封模式的多个组成部分有显著重叠。但这种重叠是部分的,方向也根本不同。密封模式从对话出发:用户输入"我担心这可能很严重"的那一刻。而健康AI产品从数据整合出发:连接医疗记录、可穿戴设备和健康应用,以提供个性化的健康智能。隐私保护是实现整合目标的手段,而非目标本身。

这种区别很重要,因为它解释了产品的潜力和问题所在。

三个关键发现

首先,市场验证了密封模式背后的核心直觉。五家公司独立得出结论,健康对话不能与普通聊天采用相同的默认设置。这种一致且迅速的认识意义重大。但每款产品都趋向于一种特定的差异化形式:健康数据整合中心。没有一款产品解决了密封模式旨在回答的问题:对于每天已经发生的数亿健康对话——没有连接医疗记录、没有下载应用——应适用何种保护措施?

其次,五款产品均未达到完整的密封模式标准。五家都提供了"不训练"承诺和数据隔离,这些是有意义的步骤。但比较分析揭示了一些差距。例如,虽然它们都提供加密保护,但没有一家提供加密强化,这种强化可以限制提供商访问明文健康对话的能力——如果健康数据通过民事发现或政府要求被索取,这种保护将变得至关重要。这是我在即将发布的研究第二部分中探讨的问题,也是最近法院命令OpenAI在合并版权诉讼中提供数百万ChatGPT对话日志所凸显的实际问题。

在五款产品中,有四款对人工访问限制的描述含糊不清或根本没有文档记录。治理框架仍由各提供商单方面控制,缺乏独立验证。

第三,欧洲市场的排除反映了结构性问题,而不仅仅是市场时机的选择。每款产品都将两件不同的事情捆绑成单一产品:隐私保护——不训练、隔离存储、健康空间无广告——和数据整合功能——通过专用应用程序接口连接医疗记录、可穿戴设备和健康应用。触发欧洲监管障碍的是数据整合维度,而非隐私保护:根据《通用数据保护条例》第9条对系统性健康数据处理的特殊类别要求、如果软件被认为具有医疗目的的《医疗器械法规》,以及此类AI系统可能被《人工智能法案》归类为高风险。

相比之下,隐私保护维度不会产生新的监管障碍。为这些平台上每天已经发生的健康对话添加更强的隐私默认设置,实际上会使服务更接近GDPR合规,而非更远。

提供商本可以分两步走。首先,在全球范围内提供受保护的健康对话环境,适用于已经发生的对话,无需数据整合。这一步将在包括欧洲在内的所有地区可用,因为它只是为现有功能添加保护。其次,在监管合规允许的司法管辖区,叠加医疗记录和应用连接功能。

相反,通过将两者捆绑成单一产品,他们将欧洲人排除在隐私保护和数据整合之外。悖论在于:最受数据保护法保护的用户,却无法获得当前最注重隐私保护的聊天机器人功能。

隐私行业需要面对的治理问题

健康代理热潮引发了一系列远超密封模式的问题。无论是在构建这些产品的公司内部工作的隐私专业人员、为监管机构提供建议的人,还是制定政策的人,都需要面对这些问题。

《健康保险可携性和责任法案》(HIPAA)缺口。 五款消费产品均不作为HIPAA覆盖实体运营。当用户自愿将医疗记录连接到ChatGPT Health或Copilot Health时,这些数据就落入了HIPAA保护框架之外。

这些是消费产品,而非医疗服务提供者、健康计划或医疗保健清算所。在美国,可能成为历史上最大规模健康数据聚合的治理,依赖于各公司的隐私政策和适用的州消费者保护法。

这与欧盟框架存在根本性的结构差异,在欧盟,GDPR适用于任何处理个人数据的控制者,无论该控制者是否在医疗保健系统内运营。隐私行业不应假设"健康AI"意味着"受HIPAA覆盖"。

"不训练"承诺值得更仔细的审视。 每家提供商都表示健康数据"不用于训练我们的基础模型"。但这一承诺比表面看起来要窄。它不一定排除产品分析、质量改进、汇总统计研究,或亚马逊明确描述的对"不直接识别信息的抽象模式"进行训练。"不训练基础模型"与"不将此数据用于任何形式的学习或改进"之间的差距是显著的,且大部分未公开披露。而且隐私政策可以随时修改。

私人健康中心与欧洲健康数据空间。 欧盟多年来一直致力于建设欧洲健康数据空间,这是一个用于健康数据二次使用的公共基础设施,具有机构把关:通过指定的健康数据访问机构、特定目的许可和结构化监督进行访问。一个在基于同意处理下聚合消费者健康数据的私人AI平台,可以推导出可比的流行病学和药物学见解,而无需通过该机构治理。

即使在GDPR下,这种结构不对称也将持续存在。它可能形成一个双轨系统,最严格治理要求适用于公共机构和学术研究人员,而最大的健康数据聚合却掌握在私人手中,处于结构较少、基于同意的框架之下。欧洲政策制定者应在这些产品寻求进入欧洲市场之前,主动解决这种不对称性。

网络安全集中风险。 五家公司同时将与个人身份、医疗记录和可穿戴设备多年行为模式相关的健康数据集中化。这些提供商中的任何一家发生单次泄露,都可能以前所未有的规模暴露健康数据。与地理上有限的医院泄露不同,全球消费级健康AI平台的泄露可能同时影响数十个国家的用户。

公开材料中描述的安全保护措施含糊不清。五家都提到了静态和传输中的加密。但没有一家发布详细的安全架构或接受独立验证。每款产品还依赖于第三方数据中介,如b.well、HealthEx或Terra API,每个中介都在数据供应链中增加了一个漏洞点。

与GDPR原则的结构性紧张。 即使撇开《通用数据保护条例》第9条下的特定健康数据问题,这些产品背后的架构选择也与数据保护法的几个基本原则存在紧张关系。

数据最小化:这些产品旨在从尽可能多的来源聚合尽可能多的健康数据。

存储限制:除Perplexity部分例外外,没有产品公开指定上传的健康数据和用户交互的保留期限。

目的限制:主要用途与次要用途之间的界限定义不清。

控制者和处理者复杂性:所涉及的中介创建了用户无法有意义评估的分层安排。

数据可移植性:当前产品架构中没有任何支持在提供商之间移动健康数据的内容。一旦用户将多年的医疗记录和可穿戴设备数据连接到单一平台,转换成本将变得难以承受。

儿童数据:大多数产品要求用户年满18岁,但公开材料并未证明这些产品在年龄验证模型上存在统一的硬性标准,这在健康背景下很重要,因为此类系统可能会收集或推断有关未成年人的敏感数据。

没有免费的午餐。 几款产品是免费的或捆绑在现有订阅中。但战略逻辑很明确。亚马逊将用户引导至One Medical咨询和Amazon Pharmacy处方。OpenAI则在一个同时通过广告获利的平台上加深用户参与度,默认启用个性化。Perplexity和Anthropic将健康功能限制在付费层级。

对于为这些公司提供建议的隐私专业人员以及监管这些公司的监管机构而言,问题是:在产品发布建立信任阶段做出的隐私承诺,能否在随后的货币化阶段得以维持?

前进之路:治理而非排除

这些问题都不是阻碍健康AI产品的理由,因为这些产品确实有帮助人们更好地理解和管理健康潜力。它们是确保治理正确的理由。

一个值得探索的途径是利用《人工智能法案》中已有的监管沙盒,允许健康AI产品在欧洲在监督条件下运营,并有强大、可验证的隐私保障。目前的结果是,由于在欧洲部署健康数据整合产品的监管复杂性,导致欧洲人被完全排除在外,这既不利于创新也不利于保护。一条监督路径,将市场准入条件设定为证明符合强大的隐私标准(包括密封模式所设想的架构保障),将优于现状。

真正的问题不再是敏感聊天机器人对话是否可以实现差异化隐私。五家公司已在不到三个月的时间内给出了答案。问题在于,隐私保护核心能否从当前捆绑的整合产品中提取出来,作为独立标准提供给每个用户,无论身处何地。

第一个这样做的提供商将设定其他提供商必须遵循的标准。隐私行业应该帮助塑造这一标准的模样。

【全文结束】

猜你喜欢
  • 加州大学伯克利分校与旧金山分校运用人工智能变革医学影像技术加州大学伯克利分校与旧金山分校运用人工智能变革医学影像技术
  • 快速解答与额外研究推动美国AI医疗应用快速解答与额外研究推动美国AI医疗应用
  • AI时代的健康信息导航:深度解析谷歌AI概览AI时代的健康信息导航:深度解析谷歌AI概览
  • Apple Intelligence:根据代码发现,iOS 27可能新增的功能Apple Intelligence:根据代码发现,iOS 27可能新增的功能
  • 考虑使用聊天机器人获取医疗建议?请先阅读此文考虑使用聊天机器人获取医疗建议?请先阅读此文
  • ChatGPT和Copilot正成为美国人医疗咨询的首选——但信任度仍然不足ChatGPT和Copilot正成为美国人医疗咨询的首选——但信任度仍然不足
  • 推进医疗保健中的声音生物标志物和语音AI:负责任和有效开发与使用的多学科聚焦推进医疗保健中的声音生物标志物和语音AI:负责任和有效开发与使用的多学科聚焦
  • Bernhard Seiser访谈:AOP Health数字化、数据与IT副总裁Bernhard Seiser访谈:AOP Health数字化、数据与IT副总裁
  • 人工智能驱动的医疗创新在爱迪生奖颁奖典礼上大放异彩人工智能驱动的医疗创新在爱迪生奖颁奖典礼上大放异彩
  • 多项民调显示许多美国人转向人工智能获取健康建议多项民调显示许多美国人转向人工智能获取健康建议
热点资讯
全站热点
全站热文