使用技术术语撰写的医疗报告可能给患者带来理解挑战。慕尼黑工业大学(TUM)的一个团队研究了人工智能如何使CT检查结果更易于理解。在该研究中,阅读时间减少,患者认为自动简化的文本更易懂、更有帮助。
为简化原始文档,研究人员使用了在慕尼黑工业大学附属医院计算机上运行的开源大语言模型,该模型符合数据保护法规。
例如:"'心纵隔轮廓居中。心腔显影正常。[...] 观察到少量心包积液'"被人工智能简化为:"'心脏:报告显示您心脏周围有少量液体。这是一种常见发现,您的医生会确定是否需要关注。'"
医学需要使用易懂的语言
从研究者的角度来看,使医学术语易于理解远不止是微小的帮助。
"确保患者理解他们的报告、检查和治疗是现代医学的核心支柱。这是保证知情同意和加强健康素养的唯一途径,"慕尼黑工业大学诊断与介入放射学研究所助理医师、发表在《放射学》期刊上的该研究的共同末位作者费利克斯·布施表示。
虽然先前的研究表明人工智能模型可以使专业医学文本更易理解,但其对实际患者的影响知之甚少。因此,研究团队纳入了200名因癌症诊断而在慕尼黑工业大学附属医院接受CT成像的患者。其中一半收到原始报告,另一半收到自动简化版本。
阅读时间减少,满意度高
结果明确无误:阅读时间从原始报告的平均7分钟降至2分钟。收到简化版结果的患者报告称其更易读(81%对17%)且更易懂(80%对9%)。
他们也更常评价其为有帮助(82%对29%)和信息丰富(82%对27%)。"各种客观测量也证实了简化报告的可读性得到改善,"布施说。
未来研究需要确定这些优势是否能转化为患者健康结果的可衡量改善。然而,从研究者的角度来看,该研究清楚表明患者可以通过改善理解而受益于AI支持的医疗报告简化。
"提供自动简化报告作为专业报告的附加服务是可行的。但前提是诊所需有优化、安全的AI解决方案,"布施表示。
医疗专业人员的审核仍然必要
研究团队建议患者不要转向如ChatGPT等聊天机器人作为替代医生来简化报告。"除数据保护问题外,语言模型始终存在事实错误的风险,"该研究的首位作者菲利普·普鲁克博士表示。
在调查中,6%的AI生成结果包含事实不准确,7%遗漏信息,3%添加新信息。然而,在报告提供给患者之前,它们经过错误审查并进行了必要修正。
"语言模型是有用的工具,但不能替代医务人员。如果没有经过培训的专家验证结果,患者在最坏情况下可能收到关于其疾病的错误信息,"普鲁克总结道。
【全文结束】

