大型语言模型(LLM)在抗生素处方中的应用为改善患者结局提供了巨大潜力,但也带来了复杂性和挑战。这一应用应始终在合格的人类医疗专业人员的监督下进行。本月发表在《传染病与治疗》上的一篇评论指出,LLM“为改善患者结局提供了巨大潜力。这些工具可以提供快速、细致的建议,补充临床专业知识,提高效率和决策能力。”
研究团队强调,这种应用存在诸多挑战,包括定义可接受的误差范围、处理幻觉和减少性能差异。这些潜在的问题需要持续的研究和谨慎的监督。论文的主要作者是来自意大利热那亚大学感染病学副教授丹尼尔·罗伯托·贾科贝博士(Daniele Roberto Giacobbe, MD, PhD),高级作者是圣马丁诺大学医院感染病科主任马特奥·巴斯塞迪博士(Matteo Bassetti, MD, PhD)。
他们提出了六个关键点,供考虑在抗生素处方中使用AI的人员参考:
1. 大型语言AI模型在改善感染性疾病患者的结局方面具有巨大潜力,但基于LLM的支持抗生素处方非常复杂。
抗生素处方增加了复杂性,因为医生必须平衡两个目标:选择最有效的治疗方法,同时最小化抗药性发展的风险。误判幻觉或遗漏可能不成比例地影响其中一个优先事项,给医生在利用LLM辅助时带来新的挑战。
2. 使用LLM作为科学写作助手和在实际临床实践中支持抗生素处方之间既有共性也有重要的概念差异。
虽然撰写评论文章具有挑战性,但它通常不会像抗生素处方那样对患者健康产生直接和即时的影响。抗生素处方涉及关键决策,对个体结果和公共卫生有深远影响,要求医生权衡患者特定因素与更广泛的抗菌管理原则。
3. LLM以概率方式运行,且不可解释(或部分可解释),这使得在复杂任务如抗生素处方中,错误风险成为一个特殊的目标。
评估和减轻LLM生成的处方中的错误风险具有挑战性,因为LLM以概率方式运行,基于训练数据预测句子中最可能的下一个“标记”(单词或部分单词)。这种方法引入了变异性,即使对于相同的提示也是如此,使错误风险成为一个移动目标。
4. 存在许多其他挑战,包括训练数据质量的差异以及需要妥善解决幻觉或遗漏问题。
专有模型通常不披露其最新版本模型的训练数据集,难以评估其稳健性及针对特定主题的数据质量和数量。此外,人类互动增加了另一层变异性。
5. 培训当前和未来的医生以优化他们与LLM的互动至关重要,以实现超越人类或LLM单独所能达到的协同改进。
抗生素处方是一个复杂的医疗决策过程,受众多因素影响,包括患者特定变量、本地抗微生物耐药模式和临床指南。AI工具,特别是大型语言模型,有机会通过处理和综合大量信息来支持医生应对这些复杂性,从而提供快速、情境化的治疗建议。
作者进一步指出:“尽管对LLM的热情是有道理的,但要实现其全部潜力,仍需谨慎、系统的方法。前进的道路在于平衡创新与严格评估,确保这些工具能安全有效地整合到临床实践中。”
(全文结束)

