向ChatGPT Health提供医疗记录是否明智Is Giving ChatGPT Health Your Medical Records a Good Idea? | TIME

环球医讯 / AI与医疗健康来源:time.com美国 - 英语2026-01-14 09:45:16 - 阅读时长8分钟 - 3703字
本文深入探讨了OpenAI推出的ChatGPT Health功能,该服务允许用户上传医疗记录并与Apple Health等健康应用连接。多位医学专家分析了将敏感健康数据交给AI工具的利弊,指出虽然这能满足民众对便捷医疗信息的迫切需求,但存在隐私泄露风险和医疗信息不准确隐患。文章强调ChatGPT Health定位为医疗服务的辅助工具而非替代品,建议用户谨慎分享可能造成危害的敏感信息,同时提醒医疗记录碎片化问题会增加AI"幻觉"风险。专家推荐将AI用于预约前问题梳理等低风险场景,而非自主医疗决策,体现了2026年医疗AI应用的现实图景与监管挑战。
ChatGPTHealth医疗记录健康数据健康栏目医疗保健健康信息数据隐私AI医疗错误信息医生建议
向ChatGPT Health提供医疗记录是否明智

您的AI医生诊所在不断扩展。1月7日,OpenAI宣布将在未来几周推出ChatGPT Health,这是一个专门的健康栏目,允许用户上传医疗记录并连接Apple Health、个性化健康检测平台Function以及MyFitnessPal等应用程序。

据该公司称,每天有超过4000万人向ChatGPT提出与医疗保健相关的问题,占平台全球消息总量的5%以上——因此从商业角度看,进军健康领域合情合理。但从患者角度呢?

"听到这个消息我并不惊讶,"马萨诸塞州总医院布里格姆数字部门数据科学与AI临床主管、放射肿瘤学家Danielle Bitterman博士表示,"我认为这反映了人们对医疗保健方面未被满足的需求。预约看医生很困难,如今获取医疗信息也不容易,而且人们对医疗系统确实存在一些不信任。"

我们咨询了专家,了解将健康数据交给AI工具是否明智。

ChatGPT Health是什么?

这项新功能将成为用户上传医疗记录的中心,包括实验室结果、就诊摘要和临床病史。这样一来,当您向聊天机器人提问时,它的回答将"基于您已连接的信息",该公司在公告中表示。OpenAI建议提问如:"我的胆固醇趋势如何?""能否在我就诊前总结我最近的血液检测结果?""给我一个整体健康状况的概述。"或者:"我明天要做年度体检,该和医生讨论什么?"

用户还可以将ChatGPT连接到Apple Health,使AI工具能够获取每日步数、睡眠时长和运动消耗卡路里等数据。另一项新增功能是与Function的数据同步能力,该公司可检测血液中160多种指标,使ChatGPT能够访问实验室结果以及临床医生的健康建议。用户还可以连接MyFitnessPal获取营养建议和食谱,以及连接Weight Watchers获取针对使用GLP-1药物人群的餐食创意和食谱。

OpenAI与TIME档案库有授权和技术协议,该公司强调Health功能旨在支持而非替代医疗服务,不应用于诊断或治疗。公司表示,他们花了两年时间与来自数十个专业的260多名医生合作,确定该工具的功能范围及其对用户的响应方式。这包括如何紧急地鼓励人们跟进医生、在不简化过度的情况下清晰沟通,以及在人们处于心理 distress 时优先考虑安全性。

上传医疗数据安全吗?

OpenAI与数据连接基础设施公司b.well合作,使用户能够安全地将医疗记录连接到该工具。据公告,Health栏目将具有"增强隐私保护",包括与其他栏目的独立聊天记录和记忆功能。OpenAI还表示,"Health中的对话不用于训练我们的基础模型",健康信息不会流入非Health聊天。此外,用户可以"随时查看或删除Health记忆"。

尽管如此,一些专家仍敦促谨慎行事。"最保守的做法是假设您上传到这些工具的任何信息,或通过其他方式链接到工具的应用程序中的任何信息,将不再私密,"Bitterman说。

目前没有联邦监管机构管理提供给AI聊天机器人的健康信息,而ChatGPT提供的技术服务不在HIPAA(健康保险流通与责任法案)范围内。"这完全是个人与OpenAI之间的合同协议,"范德比尔特大学医学中心生物医学信息学教授Bradley Malin表示,"如果您直接向不提供任何医疗服务的技术公司提供数据,那就得自己当心了。"他补充说,如果发生数据泄露,ChatGPT用户将不享有HIPAA下的特定权利,尽管联邦贸易委员会可能会代表您介入,或者您可以直接起诉该公司。随着医疗信息与AI开始交汇,目前的法律影响仍不明朗。

"当您前往医疗机构并与他们互动时,他们有专业协议会以保密方式维护这些信息,但这里情况不同,"Malin说,"您不知道他们究竟会如何处理您的数据。他们说会保护它,但这究竟意味着什么?"

1月8日被要求置评时,OpenAI引导TIME查看首席信息安全官Dane Stuckey在X平台发布的帖子。"ChatGPT中的对话和文件在静态和传输过程中默认加密,这是我们核心安全架构的一部分,"他写道,"对于Health功能,我们在这一基础上增加了额外的分层保护。这包括另一层加密……增强隔离和数据分割。"他补充说,公司所做的这些改变"让您最大限度地控制数据的使用和访问方式"。

"每个用户都必须思考的问题是'您是否相信OpenAI会信守承诺',"加州大学旧金山分校医学系主任、《巨大飞跃:AI如何改变医疗保健及其对未来的影响》一书作者Robert Wachter博士表示。

他相信吗?"我有点相信,部分原因在于他们有非常强烈的公司利益不会把这件事搞砸,"他说,"如果他们想涉足健康等敏感领域,他们的品牌将取决于您对此感到舒适的程度,而一旦发生数据泄露,人们就会说'把我的数据移除——我不会再与你分享了'。"

Wachter表示,如果他的记录中有泄露后可能造成危害的信息——比如过去有药物滥用史——他将不愿将其上传到ChatGPT。"我会有点谨慎,"他说,"每个人对此都会不同,随着时间推移,当人们越来越放心,如果您认为从中获得的价值有用,我认为人们会非常愿意分享信息。"

错误信息的风险

除隐私问题外,使用基于大语言模型的聊天机器人获取健康信息还存在已知风险。Bitterman最近共同撰写的一项研究发现,这些模型被设计为优先考虑帮助性而非医学准确性——并且总是提供答案,特别是用户可能回应的答案。例如,在一项实验中,即使模型经过训练知道对乙酰氨基酚和泰诺是同一种药物,当被问及为什么一种比另一种更安全时,仍会产生不准确的信息。

"Bitterman说:"在帮助性与准确性之间取得平衡的门槛更倾向于帮助性。但在医学领域,我们需要更倾向于准确性,即使这会牺牲帮助性。"

此外,多项研究表明,如果您的医疗记录中缺少信息,模型更可能产生"幻觉",即生成不正确或误导性的结果。根据美国国家标准与技术研究所关于支持医疗保健中AI的报告,用户提供给聊天机器人的健康数据的质量和全面性直接决定了聊天机器人生成结果的质量;不良或不完整的数据会导致不准确、不可靠的结果。该报告指出,提高数据质量有几个共同特征:正确、基于事实的信息,全面、完整且一致,不含任何过时或误导性见解。

Bitterman说,在美国,"我们的医疗保健来自各个不同的机构,而且随时间碎片化,所以我们的大部分医疗记录都不完整。"她说,这增加了您在存在空白的领域看到错误的可能性,因为AI会猜测那里发生了什么。

使用ChatGPT Health的最佳方式

总体而言,Wachter认为ChatGPT Health比当前版本更进一步。人们已经在使用聊天机器人进行健康查询,通过医疗记录提供更多背景信息——如糖尿病或血栓病史——他相信他们将获得更有用的回应。

"我认为,如果您所有的背景信息都在那里,那么您今天将获得的比之前更好,"他说,"了解这些背景信息很有用。但我认为这些工具本身将不得不随着时间的推移变得更好,并且比现在更具互动性。"

当Beth Israel Deaconess医疗中心的内科医生Adam Rodman观看ChatGPT Health介绍视频时,他对所见内容感到满意。"我认为相当不错,"Rodman说,他在该院领导将AI整合到医学院课程的任务组,同时是哈佛医学院的助理教授,"它真正聚焦于帮助您更好地了解自己的健康——不是用它作为替代品,而是作为一种增强方式。"由于人们已经在使用ChatGPT分析实验室结果等事项,这项新功能将使这样做变得更轻松便捷,他说。"我认为这更多反映了2026年的医疗保健现状,而非任何特别新颖的功能,"他说,"这是医疗保健正在变化的现实。"

当Rodman向患者提供如何最佳使用AI工具的建议时,他告诉他们避免健康管理问题,比如要求聊天机器人选择最佳治疗方案。"不要让它做出自主医疗决策,"他说。但询问您的医生是否可能遗漏了什么,或者探讨饮食和运动计划等"低风险"事项,如解读睡眠数据,是合适的。

Bitterman最喜欢的用途之一是请ChatGPT帮助在医生预约前提前构思问题。她表示,像这样增强现有护理是个好主意,有一个明显的好处:"您不一定需要上传医疗记录。"

【全文结束】

猜你喜欢
    热点资讯
    全站热点
    全站热文