从Watson到ChatGPT Health:为何如今AI的医疗时刻看起来不同了From Watson to ChatGPT Health: Why AI’s medical moment looks different now | Ctech

环球医讯 / AI与医疗健康来源:www.calcalistech.com以色列 - 英语2026-01-16 09:17:30 - 阅读时长5分钟 - 2161字
本文深入分析了AI在医疗健康领域的新一轮发展浪潮,对比了早期IBM Watson Health的失败与当前OpenAI的ChatGPT Health及Anthropic的合作模式差异,探讨了两种不同的运营策略——OpenAI面向消费者的B2C模式与Anthropic面向机构的B2B模式,并通过Shopify CEO的实例展示了"半人马模型"的人机协作;同时深入讨论了AI在医疗应用中面临的隐私挑战,特别是"零数据保留"(ZDR)概念的重要性,以及在HIPAA等法规框架下医疗机构对数据安全的严格要求,指出没有强大隐私保障的AI将难以成为常规临床护理的组成部分,标志着AI正从辅助工具向医疗系统核心基础设施转变的关键时刻。
AI医疗ChatGPTHealthAnthropicWatsonHealth大型语言模型患者赋权半人马模型医疗数据隐私零数据保留医疗保健AI应用
从Watson到ChatGPT Health:为何如今AI的医疗时刻看起来不同了

在短时间内,全球两家最著名的AI公司宣布了进军医疗保健领域的重大举措,预示着一个新时代的可能开端。OpenAI推出了ChatGPT Health,这是ChatGPT内的一个专门面向患者的环境;而Claude的开发商Anthropic则宣布与医疗机构和科研机构展开广泛合作。至少在现阶段,两家公司都声称不会取代医生。但它们以品牌化的方式公开进入医学领域表明,AI已不再仅仅是一种通用工具;它正将自己定位为医疗保健系统核心基础设施的一部分。

要理解为何如今这样的举措比过去显得更为可行,就不得不回顾上一个十年中最明显的失败案例:IBM Watson Health。Watson曾被宣传为一种突破性系统,能够帮助诊断癌症并指导临床决策。然而,它在不切实际的期望、不一致的数据以及医疗实践的巨大复杂性重压下崩溃了。当时与现在的关键区别不在于野心,而在于技术。Watson难以处理非结构化、充满专业术语的临床文本和零散的医疗记录。

当今的大型语言模型恰恰在这一领域表现出色。它们能够解析混乱的就诊摘要,解读医学术语,识别上下文,并在几秒钟内综合信息。从这个意义上说,技术终于开始兑现最初的承诺。

然而,仅靠技术能力并非核心战场。更具影响力的分歧在于运营模式,这里OpenAI和Anthropic之间的对比变得清晰。OpenAI正采取一种明确的消费者导向方法:直接面向患者的B2C(企业对消费者)模式。ChatGPT Health将自己定位为个人与其医疗信息之间的一个新的中介层,帮助用户解读检测结果、解码术语,并带着更充分的信息前往医生就诊。这一举措基于对患者赋权的押注,以及人们日益增长的期望——个人应能直接访问并掌控自己的健康数据。

相比之下,Anthropic则选择了更具机构化的发展路径。虽然它没有忽视个人用户,并通过合作伙伴关系在消费渠道开展业务,但其主要重点是B2B(企业对企业)模式。它的工具专为医院、制药公司、研究机构和临床组织设计。重点在于分析科学文献、加速临床研究和支持医疗团队,特别强调安全性、治理和操作可靠性。如果说OpenAI是在客厅里接触患者,那么Anthropic则试图通过系统的后门、管理、监管和机构工作流程进入。

这种分歧在一个在社交媒体上广为流传的故事中尤为明显。Shopify的创始人兼首席执行官Tobi Lütke描述了他如何通过U盘收到年度MRI(磁共振成像)结果,附带的是过时且笨拙的查看软件。他没有选择等待官方解读或放弃努力,而是将文件结构提供给Claude,并要求它编写代码。几分钟内,AI生成了现代化的基于浏览器的查看软件,使他能够浏览图像层并理解原始数据——不是为了自我诊断,而是为了访问那些实际上被锁定在封闭系统中的信息。

这一事件清晰地说明了通常被称为"半人马模型"的人机协作模式。AI并未取代放射科医生或提供诊断。相反,它移除了技术障碍,使个人能够直接访问自己的医疗数据。权力不在于临床判断,而在于中介作用:将不透明、难以访问的信息转化为可读且易懂的形式。这代表了患者与医疗保健系统之间权力平衡的有意义转变。

与此同时,围绕AI在医学中应用的辩论也呈现出更为极端的形式。埃隆·马斯克(Elon Musk)最近表示,如果人工智能系统有望超越人类医生,那么继续传统的培训路径如医学院就意义不大了。在他看来,未来的AI能够提供的医疗服务甚至优于当今最有权势和人脉广泛的患者所获得的。

即使此类说法与当前AI主要作为辅助工具的临床现实相去甚远,它们也说明了讨论已超越效率提升,深入到权威、专业知识以及未来医生培训方式等更深层次的问题。

除了对错误或幻觉的常见担忧外,AI进入医疗保健领域最敏感的问题之一是隐私和数据使用。与传统软件不同,在传统软件中文件仍由用户或组织控制,而语言模型则是通过从大量示例中学习来改进的。在许多消费产品中,对话可能会在各种匿名化和限制机制下被存储和使用,以改进系统。

担忧的不是单个医疗案例的保留,而是罕见或高度敏感的模式可能被吸收进模型的通用知识中。医疗数据通常以独特标识的方式结合症状、人口统计和治疗历史。即使是统计泛化也可能构成隐私侵犯。人们担心的不是AI会通过姓名识别患者,而是极度私密的信息会逐渐嵌入被数百万人使用的系统中。

正是在这里,"零数据保留"(Zero Data Retention, ZDR)的概念变得至关重要。最严格意义上,ZDR指的是用户数据仅在处理期间存在、不存储在长期日志中、也不用于模型训练的架构。实际上,AI仅以瞬时记忆运行。

法律并不要求AI公司向个人消费者提供完整的ZDR,即使在企业环境中,完全的技术擦除也并非总是可实现的。然而,医院、健康计划和保险公司,在美国HIPAA或以色列隐私保护法等法规下运营,通常要求严格的合同保证:隔离环境、加密、访问控制,以及关键的是,明确承诺医疗数据不会用于训练通用模型。

因此,这一等式很直接。任何希望向机构医疗保健销售AI的公司必须提供强大的隐私框架,有时包括完整的ZDR,有时则是功能等效的保障措施。如果没有此类保证,AI将主要是一种面向消费者的工具,由愿意接受可计算风险的个人使用,而不会成为常规临床护理的组成部分。

【全文结束】

猜你喜欢
    热点资讯
    全站热点
    全站热文