国内健康环球医讯家医百科药品库医药资讯

微软携手哈佛强化Copilot健康AI能力

Microsoft Taps Harvard to Bolster Copilot's Health AI - WinBuzzer

美国英语人工智能与健康科技
新闻源:WinBuzzer
2025-10-11 19:11:24阅读时长5分钟2478字
微软Copilot健康AI哈佛医学院健康信息可信度医疗服务AI独立医疗AI竞赛信任与准确性挑战

内容摘要

微软与哈佛医学院达成战略合作,将权威健康内容整合至Copilot人工智能助手,旨在显著提升医疗健康建议的可信度并减少对OpenAI技术的依赖。该更新计划于本月内推出,通过引入哈佛健康出版的专业资源库,力求在糖尿病管理等复杂疾病决策中提供精准可靠的医疗信息,直接应对生成式AI在医疗诊断中高达20%不恰当回答的行业痛点。此举是微软构建自主AI生态的关键战略步骤,虽在心理健康等敏感领域面临实施挑战,但有望在竞争激烈的医疗AI赛道建立差异化优势,推动Copilot从通用聊天机器人转型为具备临床实用价值的健康工具,同时解决算法诊断与人类专家15.8%准确率差距的核心难题。

微软正大力推动其Copilot助手进入医疗健康人工智能领域。据《华尔街日报》报道,这家科技巨头已与哈佛医学院(Harvard Medical School)合作,为用户提供可信的健康信息。

据悉,Copilot的更新版将于本月内发布,将引用哈佛健康出版(Harvard Health Publishing)的内容来回答医疗查询。

此举是微软更广泛目标的一部分,旨在构建自主AI模型并减少对合作伙伴OpenAI的依赖。通过瞄准关键的医疗健康领域,微软希望提升Copilot品牌,并在激烈的AI竞赛中开辟自己的道路。该策略直接尝试在可信度至关重要的领域建立专业权威。

哈佛带来的可信度提升

微软将向哈佛支付许可费,此次合作直指消费者AI面临的最大挑战之一:可靠性。

通过将享有盛誉的哈佛健康出版内容整合到计划于本月发布的Copilot重大更新中,公司旨在在敏感医疗话题上与用户建立信任基础。战略目标是提供更贴近医疗从业者而非标准聊天机器人的专业答案。

微软AI健康副总裁多米尼克·金(Dominic King)证实了这一方向,他表示公司的核心目标是“确保人们能够获取可信、可靠的健康信息,这些信息根据其语言和识字水平等因素进行定制,这是至关重要的。” 金特别指出,此举旨在帮助用户就管理糖尿病等复杂疾病做出明智决策。

这种对准确性的高度聚焦,是对通用AI在医疗环境中已知缺陷的明确回应。例如,2024年斯坦福大学的一项研究发现,在向ChatGPT提出的382个医疗问题中,聊天机器人在约20%的情况下提供了“不恰当”的答案。

这种可信度差距不仅限于聊天机器人;大阪大学(Osaka University)的一项综合荟萃分析显示,虽然生成式AI的诊断技能正接近非专科医生水平,但与人类专家相比仍存在显著差距。

通过许可权威内容,微软正试图构建更安全可靠的替代方案。这是使Copilot成为实用健康工具的更广泛努力的一部分,其中包括一项正在开发的功能,可帮助用户根据个人需求和保险覆盖范围寻找附近医疗服务提供者。

然而,该计划在敏感话题上面临显著挑战。哈佛健康出版的文献涵盖心理健康内容,但当被问及更新版Copilot将如何处理此类查询时,微软拒绝提供具体说明。

这是一个关键问题,因为聊天机器人与经历心理健康危机的个人之间的互动已引起立法者和健康专家的密切关注,尤其是在有报道称AI在导致悲剧的情况中发挥作用之后。

战略推动AI独立

新的医疗健康计划是微软内部一项更紧迫任务的核心:实现对OpenAI的技术独立。据知情人士透露,公司正积极训练自主研发的AI模型,以长期取代目前由OpenAI处理的工作负载。

这一努力由微软消费者AI部门首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)主导。其团队专注于推进微软自研模型。

今年8月,公司开始公开测试Copilot的此类模型。这种技术多元化趋势已显而易见,微软已在部分Microsoft 365产品中采用OpenAI竞争对手Anthropic的模型。

尽管9月份达成了延长与OpenAI合作的初步协议,但追求技术自给自足的势头仍在持续。

微软曾公开表示“OpenAI将继续作为我们在前沿模型方面的合作伙伴,我们的理念是使用最佳可用模型”,但其内部行动明确传递出掌控AI发展命运的意愿。首席执行官萨提亚·纳德拉(Satya Nadella)近期已将其他职责委派,专注于关键AI战略部署。

在高风险医疗AI竞赛中前行

微软对医疗健康的专注使其置身于竞争激烈且高度关注的领域。该公司在此领域并非首次做出突破性声明。

今年6月,微软推出MAI-DxO系统——一款专为解决复杂医疗案例设计的AI。据微软介绍,该系统使用《新英格兰医学杂志》(New England Journal of Medicine)的挑战性案例研究,通过严格新标准进行评估。

结果令人瞩目:MAI-DxO正确解决了85.5%的案例,而21名执业医师组成的专家组平均准确率仅为20%。

这促使微软AI首席执行官穆斯塔法·苏莱曼宣称“微软已迈出‘迈向医疗超级智能的真正一步’。” 公司声称其工具诊断疾病的准确率是医生的四倍。

然而,医疗AI领域充满希望也面临重大障碍,此类声明需审慎看待。2025年3月大阪大学在《自然》杂志发表的荟萃分析提供了更客观的视角。

在审查83项研究后发现,尽管生成式AI持续进步,但其表现远非完美。首席研究员高北孝隆博士(Dr. Hirotaka Takita)指出“生成式AI的诊断能力可与非专科医生媲美”,但与人类专科医生相比仍落后15.8个百分点。

该研究还警示领域研究存在系统性缺陷:76%被分析的论文存在高风险偏见,通常源于训练数据不透明。

基准性能与真实临床实践的差距是反复出现的主题。放射学领域提供有力例证:2016年AI先驱杰弗里·辛顿(Geoffrey Hinton)曾宣称“人们现在应该停止培训放射科医生”。但近十年后,人类放射科医生需求激增,住院医师职位和薪资均创历史新高。

这一矛盾揭示了监管、责任和工作流程整合的巨大复杂性,仅靠算法无法解决。保险公司正将“绝对AI排除”条款写入医疗事故保单,强制医院由持证医师对诊断承担法律责任,确保人类始终处于决策核心。

医疗AI竞赛也在诊断之外多线推进。欧洲研究人员开发的Delphi-2M系统,可通过分析健康记录提前数十年预测1000多种疾病风险。

同时,约翰斯·霍普金斯大学(Johns Hopkins University)的SRT-H系统在实验室测试中,已能自主操控达芬奇机器人(da Vinci robot)执行复杂手术步骤。

这些多元探索凸显行业雄心——挑战不仅在于创建准确算法,更在于实现安全可靠、具备临床实用价值的系统。

尚未解决的信任与准确性挑战

超越性能基准,AI在医学中最大障碍仍是信任。使用海量患者数据训练模型引发深刻隐私忧虑。近期围绕英国“Foresight”AI的争议(该系统使用5700万份英国国家医疗服务体系NHS记录训练)突显公众对数据安全的焦虑。

微软Copilot在用户普及方面同样面临挑战。Sensor Tower数据显示,该应用下载量达9500万次,远低于ChatGPT的超10亿次。在医疗健康等敏感领域建立准确性声誉或将成为关键差异化因素。

最终,微软的成功不仅取决于技术实力,更在于能否说服用户将其视为最重要健康问题的可靠来源。与哈佛的此次合作,正是构建这一核心信任的战略性关键步骤。

【全文结束】

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜