OpenAI推出面向医疗保健的ChatGPT 为医院和诊所打造生成式AI工作空间OpenAI launches ChatGPT for Healthcare to support enterprises

环球医讯 / AI与医疗健康来源:www.fiercehealthcare.com美国 - 英语2026-01-14 15:35:37 - 阅读时长5分钟 - 2074字
OpenAI正式发布专为医疗机构设计的ChatGPT for Healthcare工作空间,该工具基于通过医生测试的GPT-5模型,支持医院管理、临床决策和患者护理等场景,已获波士顿儿童医院等八家顶尖医疗机构采用;同时推出面向开发者的API平台,承诺符合HIPAA合规要求并保障患者数据安全,但行业专家警告需警惕生成式AI在医疗场景中的幻觉风险和验证不足问题,强调临床决策必须建立在循证医学基础上。
健康OpenAIChatGPTforHealthcare医疗保健生成式AIHIPAA合规循证医学临床决策支持模型验证医疗机构电子健康记录
OpenAI推出面向医疗保健的ChatGPT 为医院和诊所打造生成式AI工作空间

OpenAI已为医疗企业推出一系列工具。

该产品的核心理念是帮助医疗机构在保持符合《健康保险流通与责任法案》(HIPAA)合规要求的同时,提供更一致、高质量的医疗服务。医疗产品组合包含ChatGPT for Healthcare。此次发布紧随本周推出的面向消费者的ChatGPT Health,后者旨在帮助用户理解健康信息并获取个性化医疗解答。

ChatGPT for Healthcare是由通过医生测试的GPT-5模型驱动的工作空间,面向研究人员、临床医生和管理人员设计,支持与微软SharePoint等企业工具集成。目前尚不明确该工具是否可与电子健康记录(EHR)系统互操作。

据公告承诺,该工具的回答将基于数百万篇同行评审研究、公共卫生指南和临床规范,并提供明确的引用来源。公告未说明是否设置了防止来源幻觉的防护措施。

首批采用ChatGPT for Healthcare的机构包括波士顿儿童医院(Boston Children’s Hospital)、塞达斯-西奈医疗中心(Cedars-Sinai Medical Center)、斯坦福医学院儿童健康中心(Stanford Medicine Children’s Health)、阿文萨健康(AdventHealth)、HCA医疗集团(HCA Healthcare)、贝勒斯科特怀特健康(Baylor Scott & White Health)、纪念斯隆凯特琳癌症中心(Memorial Sloan Kettering Cancer Center)以及加州大学旧金山分校(University of California, San Francisco)。

塞达斯-西奈医疗中心高级副总裁兼首席信息官克雷格·克维亚特科夫斯基(Craig Kwiatkowski)表示:“在塞达斯-西奈,我们正通过应用人工智能减轻行政负担、增强临床推理能力,为医护团队争取更多与患者深度互动的时间。与OpenAI合作开发ChatGPT for Healthcare等工具,将加速这项工作的规模化落地,使可信功能融入日常流程,同时提升员工信心。”

波士顿儿童医院高级副总裁兼首席创新官约翰·布朗斯坦博士(John Brownstein, Ph.D.)指出:“早期定制化OpenAI解决方案的实践,已在安全环境中验证了价值并建立了坚实的治理基础。ChatGPT for Healthcare提供了规模化运营路径,其企业级平台能够支持临床、研究和行政团队的广泛责任应用。”

该工作空间还提供常见任务模板,如起草出院总结、患者指导、临床信函及预先授权支持。工具可基于医学证据和机构指南总结推荐诊疗路径,或分析鉴别诊断及其可能性。

关键在于,患者数据和受保护健康信息将始终由医疗机构掌控,支持数据驻留选项、审计日志、客户管理加密密钥,并与OpenAI签订商业伙伴协议(BAA)以确保HIPAA合规。公告强调,共享至ChatGPT for Healthcare的内容当前不会用于模型训练。

同期发布的还有OpenAI医疗API平台,开发者可借此调用包括GPT-5.2在内的最新模型,将人工智能直接嵌入医疗系统和工作流程。符合条件的客户可申请BAA支持HIPAA合规。该API适用于构建患者病历摘要、医护团队协作及出院流程等医疗应用,公告提及Abridge、Ambience和EliseAI等公司已在使用。

全球循证医学信息服务商Wolters Kluwer Health首席医疗官彼得·博尼斯博士(Peter Bonis, M.D.)对此表示预期之中。他通过邮件向Fierce Healthcare指出:“尽管技术有望缓解医疗挑战,但行业容错率极低。大型语言模型对提供者和患者都可能产生误导性或错误答案,OpenAI应用能否长期安全有效仍存疑。”

拥有30年历史的Wolters Kluwer审慎开发了生成式AI临床决策支持工具,其回答仅来源于专家撰写并经同行评审的内容,且完全隔离公共网络以杜绝幻觉风险。输出内容均标注信息来源及生成逻辑。

爱思唯尔健康(Elsevier Health)首席技术官雷特·奥尔登(Rhett Alden)强调:“临床决策必须建立在可信的综合内容基础上,确保人工智能响应源自循证医学信息。作为深耕医疗领域数十年的企业,我们解决方案专为医疗提供者设计,依托完整的同行评审全文医学期刊、专著及临床实践指南。”

过去两年,OpenAI联合60个国家逾260名医生,通过真实临床场景评估GPT-5.2模型性能,团队已审查30个重点领域超60万条模型输出。两家OpenAI基准测试工具显示,其模型表现优于竞品及人类基准。

但博尼斯警告称,模型验证是庞大工程,260名临床医生和60万条输出“可能远不足以预见并修正人工智能可能出现的重大与细微错误”。他同时指出,学界尚未就评估模型性能的最佳基准达成共识,OpenAI的HealthBench工具对临床有效性的长期评估视角有限。

【全文结束】

猜你喜欢
    热点资讯
    全站热点
    全站热文