医生是否过于信任AI的建议?Are providers too trusting of AI's advice?

环球医讯 / AI与医疗健康来源:healthimaging.com美国 - 英语2024-11-20 06:00:00 - 阅读时长2分钟 - 925字
一项新研究发现,医生有时过于信任AI对影像的解读,尤其是当AI提供具体解释时,这可能导致医生自信地接受不正确的AI建议。
医生AI建议胸部X光片信任度影像解读美国FDA患者治疗结果解释类型诊断准确性
医生是否过于信任AI的建议?

医生有时可能过于信任由人工智能完成的影像解读,特别是当AI提供了更具体的解释来支持其解读时。《放射学》杂志上的一项新分析强调了AI对负责解读胸部X光片的医生的影响。研究显示,AI系统对其影像解读方式的解释对医生的信任度有显著影响。在某些情况下,这可能导致医生自信地接受AI的建议,即使这些建议是不正确的。

预计到2024年底,美国食品药品监督管理局(FDA)批准的AI应用将达到1000个。因此,确定这些算法如何影响医生的工作流程变得尤为重要,因为这最终会影响患者的治疗结果。该论文的作者建议:“从AI概念验证到其实际临床应用之间存在差距。为了弥合这一差距,培养对AI建议的适当信任至关重要。”圣犹大儿童研究医院放射科智能影像信息学主任兼副教授Paul H. Yi博士警告说。

为了确定AI解释如何影响医生的信任和表现,研究人员让220名医生(包括132名放射科医生)在AI辅助下解读胸部X光片。AI支持工具提供了两种不同类型的解释:局部解释引导医生关注特定的兴趣区域,而全局解释则提供更一般的理由,并使用以前检查中的相似图像来解释其结论。对于每个病例,医生都会获得患者病史、影像资料和AI工具的建议,其中还包括局部或全局解释。AI提供的某些诊断是正确的,有些则是错误的。医生被要求接受、修改或拒绝AI的建议,并提供对其决策的信心水平。

研究团队发现,使用局部解释时,医生的准确率达到了92.8%;相比之下,全局解释的准确率为85.3%。然而,当AI建议不正确时,无论解释类型如何,医生的表现显著下降。当有局部解释时,医生更倾向于接受诊断,并且通常会更快地做出决定。虽然这可以提高工作流程效率,但快速接受AI建议也可能负面影响诊断准确性。“当我们过度依赖计算机告诉我们的信息时,这是一个问题,因为AI并不总是正确的。”Yi博士表示,“我认为作为使用AI的放射科医生,我们需要意识到这些陷阱,并时刻注意我们的诊断模式和培训。”

该研究小组建议,未来AI开发者应考虑其结果中关于解释类型影响的部分。“我确实认为行业与医疗保健研究人员之间的合作是关键。”Yi博士说,“我希望这篇论文能开启对话,并促进未来的合作研究。”研究摘要可在此处查看。


(全文结束)

大健康

猜你喜欢

  • AI尿液分析可提前一周预测肺病患者感染AI尿液分析可提前一周预测肺病患者感染
  • 研究发现:AI可提高肝病早期诊断准确性研究发现:AI可提高肝病早期诊断准确性
  • AI模型加速疾病诊断,提供更快更准确的结果AI模型加速疾病诊断,提供更快更准确的结果
  • AI将成为医疗保健领域的常规工具AI将成为医疗保健领域的常规工具
  • 美国心脏协会科学会议的10大亮点美国心脏协会科学会议的10大亮点
  • Navina通过与FLAACOs合作扩大佛罗里达业务范围Navina通过与FLAACOs合作扩大佛罗里达业务范围
  • 更智能的医疗设备的秘密?人工智能和先进制造更智能的医疗设备的秘密?人工智能和先进制造
  • 人工智能:医生的玩具、工具还是替代品?人工智能:医生的玩具、工具还是替代品?
  • 利用AI将患者匹配到临床试验利用AI将患者匹配到临床试验
  • AI分析尿液可提前一周预测肺病发作AI分析尿液可提前一周预测肺病发作
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康