尽管存在隐私风险和准确性问题,人们仍在向ChatGPT等AI聊天机器人输入血液检测结果、医生笔记和手术报告。—— 里卡多·桑托斯/《纽约时报》
26岁的伦敦居民莫莉·克尔(Mollie Kerr)今年夏天看到血液检测显示激素失衡后感到不安。在患者门户网站查看结果后,她因恐惧而无法等待就医,于是带着不安将完整报告粘贴到ChatGPT中。聊天机器人告诉她,检测结果可能指向多种健康问题,但“最可能”是垂体瘤或与垂体瘤相关的罕见病症。
聊天机器人的猜测并非毫无根据——克尔的医生同意安排核磁共振检查——但最终结果错误,未检测到肿瘤。
另一位患者、63岁的埃利奥特·罗伊斯(Elliot Royce)在将五年医疗记录(包括复杂心脏病史和既往心脏病发作记录)上传至ChatGPT后,经历了不同体验。他开始在运动时感到更不适,一项检测显示动脉部分堵塞。他的医生认为目前只需密切监测,但基于ChatGPT建议,罗伊斯坚持进行更具侵入性的诊断程序,结果发现85%的动脉堵塞——这一严重问题通过支架手术得以解决。
全球范围内,数百万人正使用聊天机器人试图更好地了解自身健康状况。部分人如克尔和罗伊斯,甚至超越简单提问,将检测结果、医疗影像、医生笔记等交给聊天机器人。十余位接受《纽约时报》采访的患者均证实了这一趋势。
信息不准确是主要隐患;研究显示,未经医学培训者从聊天机器人获得正确诊断的几率不足一半。上传敏感数据虽换来看似个性化的回应,却带来隐私风险。
哈佛医学院助理教授、马萨诸塞州总医院布里格姆医疗中心数据科学与人工智能临床负责人丹妮尔·比特曼(Danielle Bitterman)博士警告,假设聊天机器人能个性化分析检测结果并不安全。她的研究发现,即便提供特定患者背景,聊天机器人仍倾向于给出通用回应。
“仅仅向语言模型提供所有信息,”她强调,“并不意味着它们会像医生那样有效利用这些信息。”
一旦上传数据,用户对其使用方式的控制极为有限。联邦健康隐私法HIPAA不适用于聊天机器人公司。范德比尔特大学医学中心生物医学信息学教授布拉德利·马林(Bradley Malin)指出,法律上“你几乎放弃了所有医疗隐私权”,仅剩企业自愿提供的保护。
ChatGPT开发者OpenAI声称设有广泛保障措施保护用户隐私。一位代表表示,用户可选择退出数据训练用途,系统经受模拟攻击测试,且仅与第三方共享极少数据。(《纽约时报》已起诉OpenAI涉嫌新闻内容版权侵权,OpenAI否认指控。)
即便如此,数据隐私专家认为上传医疗信息至任何聊天机器人都存在风险:政策差异大且漏洞难以根除。南佛罗里达大学贝里尼人工智能、网络安全与计算学院助理教授卡尼·查加尔-费弗科恩(Karni Chagal-Feferkorn)指出,若用户未选择退出数据训练,当他人查询特定个体时,聊天机器人“可能意外泄露高度敏感信息”。
OpenAI称致力于“最小化”此风险,并表示ChatGPT被训练为不学习或泄露此类信息。但专家仍视其为现实可能。“措施虽降低风险,却无法万无一失,”查加尔-费弗科恩补充道,“勿惧技术,但需高度警惕风险。”
部分患者上传前会删除姓名和元数据,但这或不足够。威尔康奈尔医学和纽约长老会医院人口健康科学系主任拉伊努·考沙尔(Rainu Kaushal)博士解释,详尽信息即使匿名也可能追溯至个人。
健康信息泄露后果严重。例如,尽管雇主歧视残障者属非法,但此类事件仍不罕见。
然而,多数受访患者表示无担忧。88岁的罗伯特·格布哈特(Robert Gebhardt)坦言:“手机随时追踪我。想了解我任何信息的人,包括医疗数据,都能获取。这是生活现实,我已坦然接受。”他基于15年上传记录,请ChatGPT评估症状紧急程度及用药合理性。
53岁的斯蒂芬妮·兰达(Stephanie Landa)自去年确诊转移性阑尾癌后,持续向ChatGPT输入检测结果。她看重其即时结果概述,尤其在癌症扩散至全腹等噩耗时——提前消化坏消息可让就诊更高效。起初她费力删除识别信息,但鉴于侵袭性癌症预后,她最终不再介怀。
至于克尔,在排除肿瘤后,内分泌科医生束手无策,初级保健医生也未能解开谜团。她重返ChatGPT寻求新诊断建议和饮食指导,部分建议已被证实有效。“我知道这是敏感信息,”她坦言,“但我感觉别处得不到答案。”—— ©2025《纽约时报》公司
本文最初发表于《纽约时报》。
【全文结束】

