ChatGPT健康平台为寻求医疗建议的患者带来希望与风险 康涅狄格专家警示Using ChatGPT for health questions? What experts want patients to know

环球医讯 / AI与医疗健康来源:www.darientimes.com美国 - 英语2026-01-22 03:28:49 - 阅读时长6分钟 - 2828字
康涅狄格州医疗专家深入分析OpenAI推出的ChatGPT健康平台的双面性,该平台与260名医生合作开发,旨在安全回答日常健康问题并允许上传医疗记录,但专家强调AI基于概率生成答案可能导致误诊风险,已引发多起自杀相关诉讼;患者虽能便捷获取信息,却需谨记其不能替代专业诊疗,必须始终验证信息并与医生确认,尤其在涉及症状解读或测试结果时,避免因权威语气误导而延误治疗,医疗系统正探索AI辅助处理低级问题以释放医生精力,但责任归属问题仍悬而未决。
ChatGPT健康平台医疗建议健康问题风险专家警示隐私保护AI医疗应用医患关系错误信息谨慎使用
ChatGPT健康平台为寻求医疗建议的患者带来希望与风险 康涅狄格专家警示

人工智能的发展和融入日常生活,常常让人感觉如同科幻电影中的场景。关于生成式模型(如OpenAI的ChatGPT)最常见的疑问之一,便是它们在医疗领域的应用方式。

据最近的Axios报道,全球每天约有4000万人向ChatGPT提出健康问题。这些咨询涵盖解读医疗账单、自我诊断和护理管理等,全部在开放平台上进行。

为加强隐私保护,OpenAI推出了ChatGPT健康平台(ChatGPT Health),这是一个与医生合作开发的专用平台,用于回答健康相关问题。

“现实是,这只是一个工具,与我们见过的其他工具有许多不同,但终究是工具,可以明智地使用,”耶鲁纽黑文健康系统(Yale New Haven Health)高级副总裁兼首席数字健康官李·施瓦姆博士(Dr. Lee Schwamm)表示,“它可以安全规范地使用,也可能成为不受约束的创新。我们将加速发展,但过程中难免会有损失。”

以下是康涅狄格州本地专家关于使用ChatGPT及其健康平台的关键建议。

什么是ChatGPT健康平台?

ChatGPT健康平台于2026年1月初推出,旨在通过独立于标准ChatGPT的安全聊天机器人平台,回答日常健康问题。

OpenAI在新闻稿中表示,该软件在过去两年与260名医生合作开发。用户可上传医疗记录和健康应用信息,使聊天机器人能更精准地个性化回应个人健康问题。

OpenAI称,新平台增加了额外保护层和加密技术以保障健康对话隐私,且ChatGPT健康平台上的交流内容不会用于训练基础模型。

如何正确使用该平台?

施瓦姆博士指出,ChatGPT健康平台等生成式模型可帮助回答基础医疗问题,例如列出潜在症状或预测就诊时可能发生的情况。它还能将诊断或检测结果转化为通俗语言,或识别潜在异常以辅助理解。

然而,理解这些模型如何生成答案至关重要。施瓦姆解释,ChatGPT等AI模型本质上是基于互联网海量信息训练的概率系统。当模型回答错误时,它是在做出不良预测,但因其权威语气,用户难以分辨准确与错误信息。

因此,完全依赖该平台而非寻求专业医疗建议可能带来严重风险,尤其当模型提供错误信息时。

“问题在于上下文,”施瓦姆说,“有时你必须了解患者才能正确回答问题,因为你需要明白患者提问的初衷。”

与谷歌相比有何不同?

施瓦姆表示,谷歌的崛起是医疗领域的“巨大民主化力量”,因为它让患者获取了以往无法接触的信息。在他神经科诊所中,谷歌增强了患者在就诊时的参与度。

“积极参与的患者更了解自身状况,表现也更好,因为他们真正关心健康,”他说,“他们监测症状、遵医嘱用药,并在问题出现时主动联系医生。因此,我全力支持并鼓励赋予患者权力。”

然而,与谷歌返回相关链接列表不同,ChatGPT健康平台生成定制化预测和回应,常显得权威且准确。

ChatGPT健康平台提供的多数建议有效,但问题在于预测错误时。施瓦姆指出,该模型设计上会通过验证用户感受来强化使用,这可能导致现实后果。

OpenAI目前面临多起诉讼,原告称亲友在与ChatGPT互动后自残或自杀。其中一起由康涅狄格州格林尼治(Greenwich)一名被其子杀害的女子家属提起,指控聊天机器人互动助长了其子的妄想思维和行为。

施瓦姆表示,考虑到每天“数亿次查询”,此类极端案例相对罕见。但他不确定随着联邦政府放宽AI监管,系统防护措施将如何变化。

“这里潜力太大,不能简单将其封存,”他谈到AI时说,“潘多拉魔盒已打开。患者已在使用,我们必须帮助他们负责任地使用。”

哈特福德医疗保健公司(Hartford HealthCare)首席临床创新官巴里·斯坦博士(Dr. Barry Stein)表示,患者健康信息与教育“极其重要且赋予权力”。

“患者确实希望全天候获取信息,”斯坦在CT Insider的电子邮件采访中说,“ChatGPT等应用便捷、随时可用,提供符合你理解水平的反馈,并满足客户在时间、地点和认知上的需求。”

斯坦也发出警告,指出这些平台上的错误信息可能显得可信。

“务必保持谨慎并咨询你的医疗服务提供者,”他说。

ChatGPT健康平台会改变医患关系吗?

随着ChatGPT健康平台推出,施瓦姆预计更多患者将携带与聊天机器人的对话记录及结论就诊。他表示,部分医生可能欢迎这些见解,而另一些人可能视其为挑战。

“医疗系统无法在你需要时随时响应……即使获得时间,也难以充足。所以我们确实需要帮助,”他说,“必须解决这个问题:明确这些[AI]系统能在哪些无需人工干预的低级问题上提供帮助,同时确保患者在必要时升级至人工干预。”

哈特福德医疗保健公司表示,他们观察到携带ChatGPT信息就诊的患者数量正“指数级”增长。

斯坦称,他们鼓励患者尽可能提前了解信息(包括通过AI),这能促成“更丰富、高效的互动”。

“人们对这类信息有无尽渴求,”斯坦说,“我们鼓励使用但提醒谨慎,需向临床医生验证信息,并小心分享健康数据。临床医生正主动讨论此事,预见并引导患者。”

人工智能在医疗中如何应用?

康涅狄格州多家医疗系统已用AI自动化行政任务,甚至作为“第二双眼睛”检测乳腺X光片中的异常。

例如,施瓦姆提到,耶鲁大学实施了AI系统,实时转录医疗就诊中的对话。他表示,这使医生无需在提问和记录笔记间分心,能专注与患者交谈,为医生“重新带回了执业乐趣”。

然而,施瓦姆解释,多数临床应用并非完全自主运行,而是采用“人在回路中”(human-in-the-loop)模式,由人工监控流程。

他补充,只要理解其局限性,无监督的自主生成式AI模型仍有潜力简化护理流程。但当模型因错误预测导致患者伤害或死亡时,医疗AI的责任归属问题仍未解决。

“我认为AI不会取代医生,但可能承担当前分配给医生的许多任务——这些任务他们未必能做好或及时完成,”他说。

最后建议

“谨慎前行,但务必前行,”施瓦姆说。

关键在于审慎分享信息,尤其在数字世界中隐私定义模糊且不断变化。

“他们只需记住,”他说,“这并非一次医生问诊。”

斯坦补充,可使用ChatGPT健康平台保持知情,但若发现任何模糊或与既有信息冲突之处,应联系医疗服务提供者。

“在采取任何健康建议前务必确认——你的临床医生应指导后续步骤,”他说。

健康公平记者

克里斯·维拉隆加-维沃尼(Cris Villalonga-Vivoni)自2024年起担任CT Insider健康公平领域记者。他来自波多黎各,在波士顿学院获英语学士学位,于西北大学获新闻学硕士学位。此前,他在芝加哥LGBTQ+报纸《风城时报》(Windy City Times)担任田野基础研究员。自2022年起,他通过“为美国报道”(Report for America)项目在《记录日报》(Record-Journal)担任健康公平记者。维拉隆加-维沃尼已多次获得康涅狄格专业记者协会的报道奖项。

【全文结束】

猜你喜欢
  • 流动医疗队将诊室搬到圣地亚哥无家可归者身边流动医疗队将诊室搬到圣地亚哥无家可归者身边
  • 2026年医疗安全五大趋势:应对工作场所暴力与网实融合防护2026年医疗安全五大趋势:应对工作场所暴力与网实融合防护
  • AI系统可用于检测需早期阿尔茨海默病相关筛查的患者AI系统可用于检测需早期阿尔茨海默病相关筛查的患者
  • AI如何改变医疗保健AI如何改变医疗保健
  • 使用Ozempic或其他减肥药物的利弊与注意事项使用Ozempic或其他减肥药物的利弊与注意事项
  • 人工智能有能力重塑医疗保健,但现有系统尚未做好准备人工智能有能力重塑医疗保健,但现有系统尚未做好准备
  • 使用助听器或可降低痴呆症和认知障碍风险使用助听器或可降低痴呆症和认知障碍风险
  • 人工智能驱动药物发现项目启动 预算6000万欧元人工智能驱动药物发现项目启动 预算6000万欧元
  • 医疗AI领域竞争升温医疗AI领域竞争升温
  • 日本将听力损失检测作为预防痴呆症新举措日本将听力损失检测作为预防痴呆症新举措
热点资讯
全站热点
全站热文