人工筛选患者入组临床试验的传统方法成本高昂且效率低下,人们一直期待AI技术能加速这一流程。
最新研究表明,大型语言模型ChatGPT能显著缩短患者临床试验资格审查时间,在某些案例中将平均40分钟/例的审查时间压缩至仅1分钟多。
但研究团队强调,这些模型仍需人工病历复核作为补充,因为它们"在识别完全符合入选标准的患者方面存在困难"。
美国UT西南医学中心的研究团队使用ChatGPT 3.5和4.0版本,对已入组2期癌症试验的35名患者和随机抽样的39名不合格患者进行分析,并与临床研究人员的表现进行对比。
研究负责人Mike Dohopolski博士指出,GPT-4虽然准确率高于GPT-3.5,但处理速度更慢且成本更高。数据显示ChatGPT 3.5的筛查时间为每例1.4-3.0分钟,成本0.02-0.03美元;而ChatGPT 4.0耗时7.9-12.4分钟,成本升至0.15-0.27美元。
"GPT-4等LLM可在灵活标准下辅助患者筛选,虽非完美但能节省时间并支持人工审查",Dohopolski表示。鉴于美国国家癌症研究所附属试验中20%因患者招募不足失败,这种时间节约具有重大意义。这不仅推高成本延迟结果,更影响新疗法评估的可靠性。
研究指出,电子健康记录中的关键患者信息常埋没在医生笔记等非结构化文本中,传统机器学习难以解析。利用LLM可标记潜在候选者进行人工复核,解决因审查能力不足导致的合格患者漏诊问题。
该团队同时研发出可实时调整放疗方案的深度学习系统GeoDL,能在35毫秒内基于CT扫描和治疗数据生成精准三维剂量估算,提升自适应放疗的临床效率。
【全文结束】

