人工智能正在快速融入医疗领域,但医生被警告过早采用AI工具需建立正式的持续评估机制。近期发表于《自然医学》的研究显示,生成式AI模型会根据患者的社会经济和人口统计背景差异性推荐治疗方案。纽约西奈山伊坎医学院放射与人工智能系联合主任Eyal Klang教授领导的研究团队,测试了9个大语言模型处理1000例急诊科案例的表现。结果显示,即便临床信息完全相同,AI模型偶尔会因患者的社会人口特征(如黑人种族、无家可归状态或LGBTQIA+身份)调整分诊优先级、诊断测试、治疗方案和心理健康评估等关键决策。研究发现黑人跨性别者或无家可归的黑人患者往往比相似临床特征的其他群体获得更紧急的侵入性干预。此外高收入群体更易获得高级影像检查推荐,而低收入群体则获得较少诊断选项。研究团队建议医疗机构:1.使用代表性数据测试AI工具临床适用性;2.将AI推荐与已知最佳实践进行比对;3.定期要求供应商提供AI验证测试结果。
在比较AI与医生优劣的研究中,以色列特拉维夫大学K Health医学科学副总裁Zehavi Horowitz-Kugler教授团队分析了2024年6-7月期间461例虚拟急诊病例。AI模型通过结构化动态问诊收集症状和病史后生成诊断和治疗建议,结果显示AI在77%的病例中优于医生(医生为67%),在21%的病例中AI建议质量更优(如更准确识别尿路感染需先进行培养),而医生仅在11%的病例中表现更优。特别在处理急性呼吸道、泌尿生殖系统、眼部和牙科症状时,AI展现出更强的一致性(如减少不必要的抗生素处方),且能更有效整合电子病历中的复发性尿路感染、近期住院史等关键信息。但医生在获取完整病史方面更具优势。研究团队建议临床医生使用AI时需注意任务匹配性,如文书处理等技术性工作与核心临床决策应区别对待。
【全文结束】

