医生有时可能过于信任由人工智能完成的影像解读,特别是当AI提供了更具体的解释来支持其解读时。《放射学》杂志上的一项新分析强调了AI对负责解读胸部X光片的医生的影响。研究显示,AI系统对其影像解读方式的解释对医生的信任度有显著影响。在某些情况下,这可能导致医生自信地接受AI的建议,即使这些建议是不正确的。
预计到2024年底,美国食品药品监督管理局(FDA)批准的AI应用将达到1000个。因此,确定这些算法如何影响医生的工作流程变得尤为重要,因为这最终会影响患者的治疗结果。该论文的作者建议:“从AI概念验证到其实际临床应用之间存在差距。为了弥合这一差距,培养对AI建议的适当信任至关重要。”圣犹大儿童研究医院放射科智能影像信息学主任兼副教授Paul H. Yi博士警告说。
为了确定AI解释如何影响医生的信任和表现,研究人员让220名医生(包括132名放射科医生)在AI辅助下解读胸部X光片。AI支持工具提供了两种不同类型的解释:局部解释引导医生关注特定的兴趣区域,而全局解释则提供更一般的理由,并使用以前检查中的相似图像来解释其结论。对于每个病例,医生都会获得患者病史、影像资料和AI工具的建议,其中还包括局部或全局解释。AI提供的某些诊断是正确的,有些则是错误的。医生被要求接受、修改或拒绝AI的建议,并提供对其决策的信心水平。
研究团队发现,使用局部解释时,医生的准确率达到了92.8%;相比之下,全局解释的准确率为85.3%。然而,当AI建议不正确时,无论解释类型如何,医生的表现显著下降。当有局部解释时,医生更倾向于接受诊断,并且通常会更快地做出决定。虽然这可以提高工作流程效率,但快速接受AI建议也可能负面影响诊断准确性。“当我们过度依赖计算机告诉我们的信息时,这是一个问题,因为AI并不总是正确的。”Yi博士表示,“我认为作为使用AI的放射科医生,我们需要意识到这些陷阱,并时刻注意我们的诊断模式和培训。”
该研究小组建议,未来AI开发者应考虑其结果中关于解释类型影响的部分。“我确实认为行业与医疗保健研究人员之间的合作是关键。”Yi博士说,“我希望这篇论文能开启对话,并促进未来的合作研究。”研究摘要可在此处查看。
(全文结束)

