评估合理决策中的人工智能角色Assessing What Makes Reasonable Decision With AI

环球医讯 / AI与医疗健康来源:www.miragenews.com澳大利亚 - 英语2024-10-11 09:00:00 - 阅读时长3分钟 - 1117字
阿德莱德大学探讨了人工智能在医疗领域的解释性和临床决策中的作用
人工智能健康领域临床决策解释性固有解释性事后解释性伦理决策患者利益阿德莱德大学
评估合理决策中的人工智能角色

随着人工智能(AI)在我们世界中的影响日益增长,阿德莱德大学正在探索技术在健康领域,特别是临床决策和解释方面可以发挥的作用。未来医疗保健杂志的一项分析评论概述了健康AI领域的一个主要挑战——解释性——并探讨了对个人特定预测的解释是否是做出良好决策的必要条件。

“关注个体层面解释的解释性领域是一个正在发展的领域,”阿德莱德大学澳大利亚机器学习研究所(AIML)的梅丽莎·麦卡登博士说。“我们对这一领域的发展前景持乐观态度,但就目前而言,要求临床决策中的预测级别解释是有问题的。”

麦卡登博士及其合著者伊恩·斯蒂德曼博士,一位来自加拿大多伦多约克大学的律师和公共政策教授,认为良好的临床决策不仅应推进护理目标,还必须具有法律上的可辩护性。

“即使使用经过充分验证且高度准确的AI工具,临床医生也必须将其判断与许多其他因素进行校准,”斯蒂德曼博士说。

麦卡登博士,一位在医院研究基金会集团担任AI伦理临床研究员、妇女儿童健康网络的AI主任,以及病童医院的兼职科学家,表示解释性有两种类型——固有解释性和事后解释性。固有解释性是指理解模型整体如何运作,而事后解释性则是指试图理解模型生成特定预测的具体方法。

“有些模型是直接可解释的,这意味着从输入到输出的操作很容易跟踪和清晰,如决策树。其他模型则更加不透明,这意味着从输入到输出的过程难以或无法精确跟踪,即使对于开发人员也是如此,”麦卡登博士说。“在健康AI领域,临床医生通常认为他们看到的热图或伴随预测的原因就是解释。这显然是许多临床医生想要的,但新的证据表明,当AI工具出错时,这可能会导致他们做出不那么准确的决定。”

他们的工作建立在AIML研究员劳伦·奥克登-雷纳博士之前的研究基础上,后者关于解释性方法局限性的论文强调了该领域的初步阶段。

麦卡登博士和斯蒂德曼博士认为,解释性本身不应成为伦理决策的一部分。临床医生需要从证据和理解中得出结论,将患者置于过程的中心,而不是AI。

“将更多的权重赋予AI工具的输出将进一步转移对患者的重视——他们的愿望、文化、背景,”斯蒂德曼博士说。“历史上,合理的判断是基于临床医生可用的所有证据和资源的总体情况,并结合患者的具体情况进行情境化。”

麦卡登博士和斯蒂德曼博士总结道,AI预测不太可能成为临床医生做出决策的唯一信息来源,尤其是其性能从未达到100%完美。“在可预见的未来,始终有必要从多个证据来源进行三角验证,以指向一个合理的决策,”麦卡登博士说。“在这种意义上,医生应考虑AI工具的输出具体贡献了整体临床图景的哪些部分。但我们始终需要以患者的愿望和最佳利益为出发点。”

麦卡登博士感谢医院研究基金会集团的资金支持。


(全文结束)

大健康

猜你喜欢

  • 微软推出新的医疗保健人工智能模型和人工智能代理服务微软推出新的医疗保健人工智能模型和人工智能代理服务
  • 革新医疗保健:人工智能的作用革新医疗保健:人工智能的作用
  • OMNY Health 在达到 10 亿患者就诊次数后加强高层管理,聘请新首席商务官OMNY Health 在达到 10 亿患者就诊次数后加强高层管理,聘请新首席商务官
  • 人工智能伦理:保护威尔士的医疗保健人工智能伦理:保护威尔士的医疗保健
  • AI如何改善远程医疗和远程医疗服务AI如何改善远程医疗和远程医疗服务
  • 莱克里奇健康中心通过与安大略理工大学的变革性合作利用人工智能的力量莱克里奇健康中心通过与安大略理工大学的变革性合作利用人工智能的力量
  • 人工智能在疼痛评估中暴露种族偏见人工智能在疼痛评估中暴露种族偏见
  • 安大略理工大学研究人员将开发人工智能工具助力莱克里奇健康中心完成各项任务安大略理工大学研究人员将开发人工智能工具助力莱克里奇健康中心完成各项任务
  • (重新)用生成式AI书写医疗保健的未来(重新)用生成式AI书写医疗保健的未来
  • 健康与科技的交汇点:值得关注的新趋势健康与科技的交汇点:值得关注的新趋势
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康