约翰斯·霍普金斯医院的医院医生吉吉·刘(Gigi Liu)博士表示,如果效率足够高,她能在20分钟内为治疗过几天的患者完成出院摘要,但对于在巴尔的摩医院住院更久的患者,这项工作"可能耗时整整一小时"。这些摘要对指导患者出院后的护理至关重要。"30分钟到1小时的文书时间足够我接诊另一位患者了",刘博士指出。
这项由加州大学旧金山分校(UCSF)医院医生团队主导、发表于《美国医学会内科学杂志》的研究,比较了医院医生与大型语言模型(LLM)撰写的出院摘要。研究发现LLM生成的摘要比人工撰写更简洁连贯,但在全面性和准确性上稍逊,存在更多遗漏和错误,但对患者的潜在危害概率较低。LLM的优势在于能快速整合电子病历数据生成摘要,为医生节省时间,缓解职业倦怠。
研究样本涵盖2019-2022年间UCSF医院医学科100例住院3-6天的病例。22名评审医生在不知晓来源的情况下分别评估人工和AI生成的摘要质量。结果显示两者在整体质量评分和偏好性方面差异不大。研究通讯作者夏露拉蒂·拉古·苏布拉马尼安(Charumathi Raghu Subramanian)博士强调:"出院摘要对患者的诊疗连续性至关重要,它为后续护理医生(主要是基层医疗和护理机构医生)提供了住院期间诊疗的全景视图"。
研究指出,高质量出院摘要可减少用药错误、降低再住院率并提升基层医生满意度。尽管LLM生成的摘要存在更多遗漏(如某例未记录患者需服用特定抗生素),但多数错误仅导致轻微不便而非实质性伤害。参与研究的本杰明·罗丝纳(Benjamin Rosner)博士认为:"我们不能要求LLM绝对完美,因为医生撰写的摘要同样存在错误。关键是要建立医生审核环节,确保AI输出质量"。
密苏里州临床医生法兹纳·侯克(Farzana Hoque)则对AI的遗漏率表示担忧:"LLM生成的摘要遗漏率是人工的两倍,这可能延误肺癌等重要诊断"。研究团队建议,医疗系统应测试功能性LLM工具的实际应用效果,类似目前已广泛应用的AI医疗语音转录技术。UCSF计划试点自己的LLM出院摘要工具,同时强调需要持续验证AI工具的安全性、准确性和可行性。
研究作者之一的刘博士提醒:"当前LLM生成的摘要可能未包含会诊记录、生命体征、实验室数值等临床信息,但这些缺失主要影响护理质量而非造成严重后果"。随着EHR供应商即将推出LLM摘要工具,研究团队呼吁在实际临床中验证工具效果,并建立医生审核机制。加州大学旧金山分校的研究人员指出:"在实践应用中,任何LLM工具都需要医生进行严格审查和最终确认"。
【全文结束】