人工智能的发展和融入日常生活,常常让人感觉如同科幻电影中的场景。关于生成式模型(如OpenAI的ChatGPT)最常见的疑问之一,便是它们在医疗领域的应用方式。
据最近的Axios报道,全球每天约有4000万人向ChatGPT提出健康问题。这些咨询涵盖解读医疗账单、自我诊断和护理管理等,全部在开放平台上进行。
为加强隐私保护,OpenAI推出了ChatGPT健康平台(ChatGPT Health),这是一个与医生合作开发的专用平台,用于回答健康相关问题。
“现实是,这只是一个工具,与我们见过的其他工具有许多不同,但终究是工具,可以明智地使用,”耶鲁纽黑文健康系统(Yale New Haven Health)高级副总裁兼首席数字健康官李·施瓦姆博士(Dr. Lee Schwamm)表示,“它可以安全规范地使用,也可能成为不受约束的创新。我们将加速发展,但过程中难免会有损失。”
以下是康涅狄格州本地专家关于使用ChatGPT及其健康平台的关键建议。
什么是ChatGPT健康平台?
ChatGPT健康平台于2026年1月初推出,旨在通过独立于标准ChatGPT的安全聊天机器人平台,回答日常健康问题。
OpenAI在新闻稿中表示,该软件在过去两年与260名医生合作开发。用户可上传医疗记录和健康应用信息,使聊天机器人能更精准地个性化回应个人健康问题。
OpenAI称,新平台增加了额外保护层和加密技术以保障健康对话隐私,且ChatGPT健康平台上的交流内容不会用于训练基础模型。
如何正确使用该平台?
施瓦姆博士指出,ChatGPT健康平台等生成式模型可帮助回答基础医疗问题,例如列出潜在症状或预测就诊时可能发生的情况。它还能将诊断或检测结果转化为通俗语言,或识别潜在异常以辅助理解。
然而,理解这些模型如何生成答案至关重要。施瓦姆解释,ChatGPT等AI模型本质上是基于互联网海量信息训练的概率系统。当模型回答错误时,它是在做出不良预测,但因其权威语气,用户难以分辨准确与错误信息。
因此,完全依赖该平台而非寻求专业医疗建议可能带来严重风险,尤其当模型提供错误信息时。
“问题在于上下文,”施瓦姆说,“有时你必须了解患者才能正确回答问题,因为你需要明白患者提问的初衷。”
与谷歌相比有何不同?
施瓦姆表示,谷歌的崛起是医疗领域的“巨大民主化力量”,因为它让患者获取了以往无法接触的信息。在他神经科诊所中,谷歌增强了患者在就诊时的参与度。
“积极参与的患者更了解自身状况,表现也更好,因为他们真正关心健康,”他说,“他们监测症状、遵医嘱用药,并在问题出现时主动联系医生。因此,我全力支持并鼓励赋予患者权力。”
然而,与谷歌返回相关链接列表不同,ChatGPT健康平台生成定制化预测和回应,常显得权威且准确。
ChatGPT健康平台提供的多数建议有效,但问题在于预测错误时。施瓦姆指出,该模型设计上会通过验证用户感受来强化使用,这可能导致现实后果。
OpenAI目前面临多起诉讼,原告称亲友在与ChatGPT互动后自残或自杀。其中一起由康涅狄格州格林尼治(Greenwich)一名被其子杀害的女子家属提起,指控聊天机器人互动助长了其子的妄想思维和行为。
施瓦姆表示,考虑到每天“数亿次查询”,此类极端案例相对罕见。但他不确定随着联邦政府放宽AI监管,系统防护措施将如何变化。
“这里潜力太大,不能简单将其封存,”他谈到AI时说,“潘多拉魔盒已打开。患者已在使用,我们必须帮助他们负责任地使用。”
哈特福德医疗保健公司(Hartford HealthCare)首席临床创新官巴里·斯坦博士(Dr. Barry Stein)表示,患者健康信息与教育“极其重要且赋予权力”。
“患者确实希望全天候获取信息,”斯坦在CT Insider的电子邮件采访中说,“ChatGPT等应用便捷、随时可用,提供符合你理解水平的反馈,并满足客户在时间、地点和认知上的需求。”
斯坦也发出警告,指出这些平台上的错误信息可能显得可信。
“务必保持谨慎并咨询你的医疗服务提供者,”他说。
ChatGPT健康平台会改变医患关系吗?
随着ChatGPT健康平台推出,施瓦姆预计更多患者将携带与聊天机器人的对话记录及结论就诊。他表示,部分医生可能欢迎这些见解,而另一些人可能视其为挑战。
“医疗系统无法在你需要时随时响应……即使获得时间,也难以充足。所以我们确实需要帮助,”他说,“必须解决这个问题:明确这些[AI]系统能在哪些无需人工干预的低级问题上提供帮助,同时确保患者在必要时升级至人工干预。”
哈特福德医疗保健公司表示,他们观察到携带ChatGPT信息就诊的患者数量正“指数级”增长。
斯坦称,他们鼓励患者尽可能提前了解信息(包括通过AI),这能促成“更丰富、高效的互动”。
“人们对这类信息有无尽渴求,”斯坦说,“我们鼓励使用但提醒谨慎,需向临床医生验证信息,并小心分享健康数据。临床医生正主动讨论此事,预见并引导患者。”
人工智能在医疗中如何应用?
康涅狄格州多家医疗系统已用AI自动化行政任务,甚至作为“第二双眼睛”检测乳腺X光片中的异常。
例如,施瓦姆提到,耶鲁大学实施了AI系统,实时转录医疗就诊中的对话。他表示,这使医生无需在提问和记录笔记间分心,能专注与患者交谈,为医生“重新带回了执业乐趣”。
然而,施瓦姆解释,多数临床应用并非完全自主运行,而是采用“人在回路中”(human-in-the-loop)模式,由人工监控流程。
他补充,只要理解其局限性,无监督的自主生成式AI模型仍有潜力简化护理流程。但当模型因错误预测导致患者伤害或死亡时,医疗AI的责任归属问题仍未解决。
“我认为AI不会取代医生,但可能承担当前分配给医生的许多任务——这些任务他们未必能做好或及时完成,”他说。
最后建议
“谨慎前行,但务必前行,”施瓦姆说。
关键在于审慎分享信息,尤其在数字世界中隐私定义模糊且不断变化。
“他们只需记住,”他说,“这并非一次医生问诊。”
斯坦补充,可使用ChatGPT健康平台保持知情,但若发现任何模糊或与既有信息冲突之处,应联系医疗服务提供者。
“在采取任何健康建议前务必确认——你的临床医生应指导后续步骤,”他说。
健康公平记者
克里斯·维拉隆加-维沃尼(Cris Villalonga-Vivoni)自2024年起担任CT Insider健康公平领域记者。他来自波多黎各,在波士顿学院获英语学士学位,于西北大学获新闻学硕士学位。此前,他在芝加哥LGBTQ+报纸《风城时报》(Windy City Times)担任田野基础研究员。自2022年起,他通过“为美国报道”(Report for America)项目在《记录日报》(Record-Journal)担任健康公平记者。维拉隆加-维沃尼已多次获得康涅狄格专业记者协会的报道奖项。
【全文结束】

