起初是试探性的,如今美国医疗系统的几乎所有环节都在竞相采用某种形式的人工智能。部分领导者警示需避免过快过广地应用该技术。
若在谷歌搜索医学博士凯达尔·马特(Kedar Mate, M.D.)简历中的关键词,搜索结果可能让人误以为他与人工智能毫无关联。毕竟,人们对医疗AI的主要担忧集中在是否加剧不平等和社会不公——这正是马特毕生致力解决的问题。然而,这些价值观并未使他回避AI,反而深化了他的参与。"对我而言,关键在于我们做出的选择,"他表示。
马特是数字健康公司"合格健康"(Qualified Health)的联合创始人兼首席医疗官,该公司积极采用医疗AI技术。他亦曾参与国家医学院委员会工作,该委员会于今年早些时候发布了医疗AI行为准则。他认为医疗AI的担忧可通过深思熟虑的行动解决:"我们拥有训练工具的选择权,"他说,"既可基于有偏见的信息训练,也可精简知识库以获取高度可靠、有价值的准确信息。"
马特所述的"选择"暗指医疗AI领域尚未定型的格局。自ChatGPT问世三年后,AI已成为医疗生态系统真实而重要的组成部分。随着AI应用增加,行业顶尖专家普遍认同:AI无法完全取代人类。关键问题在于如何划分AI优于人类与人类更擅长的领域边界。
生成式AI的转变
美国医疗系统对AI的快速接纳在某种程度上是表象而非实质,源于品牌营销。PointClickCare高级技术副总裁迪恩·斯劳森(Dean Slawson)表示,其所在公司早在ChatGPT问世前就长期使用预测性分析和机器学习(ML)。"我们曾称'AI/ML',因为当时我认为AI中非ML的部分皆属科幻,"他解释道。
斯劳森指出,生成式AI的出现堪比网络浏览器的发明。互联网存在多年,但浏览器使其变得实用可行。"类似地,各类AI早已存在,"他说,"但大型语言模型的出现突然让大众意识到其可能性。"他强调生成式AI催生了医疗行业众多新应用场景。马特补充说,相关应用需求激增,与2009年《经济与临床健康信息技术法案》推动电子健康记录不同,医疗生成式AI的增长源于临床医生主动需求——"他们渴望尝试、实验、使用这项技术,视其为解决多年难题的方案。"
捕捉人类听觉盲区
医疗AI发展最快的应用之一是环境监听技术:计算机系统记录医患互动并生成临床笔记。Altera数字健康公司AI计划执行副总裁本·夏尔夫(Ben Scharfe)指出,此前该技术需将录音编码后送海外人工转录,耗时数小时;"如今借助AI,过程几乎实时完成。"作为《管理型医疗高管》2025年医疗新兴领袖之一,夏尔夫观察到许多医生对技术影响感到意外:"它未必节省预期时间,但能提升医患互动质量——让医生专注患者本身,人们非常认可这点。"
个性化方案
夏尔夫表示,环境监听的进阶应用是将洞察转化为个性化患者教育材料。其公司正试制此类产品:"我们整合经护理组织审核的权威内容,结合问诊记录及患者病历数据,"他解释。生成的文件提供高度个性化且符合医学规范的建议。例如,系统若检测到患者养金毛寻回犬,会建议延长遛狗时间替代笼统的"增加运动"指导;若患者提及每周去社区中心玩宾果游戏,则建议步行前往或提前两街区停车。"这比当前刻板的患者教育更精准,"夏尔夫说。
编码准确性
Omega医疗支付解决方案高级副总裁克里斯·里格斯比(Chris Rigsby)指出,AI正提升医疗编码准确性,但人类仍不可或缺:"AI确能改进准确性,但输出可能不完整。"若AI遗漏关键可编码事件,人类需及时补救。Medicomp系统公司首席医疗官杰伊·安德斯(Jay Anders, M.D., M.S.)补充,AI生成记录还存在其他问题:环境技术可能在同一病历中混淆患者性别,或将家属病史归于患者本人。"错误信息一旦植入患者数据,几乎无法清除,"他警告。
预先授权
AI在预先授权领域的应用备受关注。夏尔夫表示,AI能同时助力支付方和提供方:支付方快速批准常规请求;提供方则借助AI整合不同保险公司的规则要求,"将历史摩擦点转化为支付方与护理组织间的桥梁。"若双方均用AI,有望实现当日治疗审批。但AI用于拒批请求仍存争议:美国医学会2月调查显示61%医生担忧AI导致预先授权拒批增加;联合健康保险公司正面临 Medicare Advantage 成员的集体诉讼,指控其用AI拒赔。
谨慎应用领域
尽管AI在医疗行业快速普及,部分ChatGPT前的疑虑依然存在。许多机构初期将AI用于排班、收入周期管理等后台系统(不影响直接护理),对临床场景应用更为谨慎。斯劳森指出这一趋势正在改变,因AI在识别放射影像中人眼易忽略的模式方面优势显著。PointClickCare的预测再入院率(pRTH)产品即通过评估患者转至专业护理机构后的再入院概率,验证了预测模型"在拥有合适数据与专业知识时易于构建验证"。安德斯补充,AI还能间接优化手术器械排期:"其理想化记忆永不遗忘、不焦虑、不情绪化。"
责任归属难题
AI可靠性提升,但法律责任仍不明朗。安德斯指出,AI应用催生海量数据收集,部分机构担忧数据持有可能引发法律风险:"若AI或人类遗漏关键信息,责任归属尚无定论。"里格斯比警告,若AI无法提取核心信息,医疗机构可能因"信息过载"而却步。夏尔夫认为医疗行业需明确:是否保留AI生成的原始未审核转录稿?"最佳方案应聚焦审核后的病历输出,但原始记录对AI系统审计仍有价值。"
各类医疗实体不仅需决定AI应用范围,还需选择技术合作伙伴。安德斯指出,科技公司涌入医疗业是把双刃剑:既带来创新方案,也导致缺乏行业经验的公司扎堆涌入。他举例某小医院采用脓毒症预测算法后,因过度依赖心率指标(急诊场景本就不稳定),准确率仅50%。"急诊室患者心率怎会正常?"他反问。Omega医疗选择与微软合作,将其大语言模型与自身医疗产品结合以快速扩展服务。而"合格健康"公司则开发自创平台,让医护人员自主构建AI解决方案。安德斯强调:"临床医生清楚自身需求,应优先解决具体问题,而非追求包治百病的终极方案——重点是增强其提供高质量护理的能力。"
【全文结束】