由人工智能驱动的MRI可能将传统MRI中使用的潜在有毒染料减少80%,但患者是否会接受人工智能驱动的大脑扫描呢?
奥克兰大学商学院信息系统高级讲师法尔赫德·哈桑杜斯特博士(Farkhondeh Hassandoust)表示,进行大脑扫描不仅是一种令人紧张、幽闭恐惧的经历,还涉及使用如钆基对比剂等化学物质。虽然这些染料可以增强MRI图像的清晰度,但它们也可能导致体内毒性。
最近的人工智能进展有望减少对钆基对比剂的依赖,而人工智能驱动的MRI扫描可能很快为患者提供更安全的选择。鉴于这些尖端技术,来自澳大利亚、新西兰和法国的研究人员正在探索患者对放射学中人工智能的看法,特别是大脑MRI。
昆士兰大学的萨埃德·阿赫拉格普尔(Saeed Akhlaghpour)和贾瓦德·普尔(Javad Pool)、奥克兰大学的法尔赫德·哈桑杜斯特(Farkhondeh Hassandoust)以及图卢兹商学院的罗克萨纳·奥洛吉安-塔德伊(Roxana Ologeanu-Taddei)调查了619名参与者,以了解影响人们接受人工智能在MRI扫描中应用的因素。
哈桑杜斯特博士表示,随着人工智能在诸如图像分析等任务上开始匹配甚至超越人类的能力,人工智能实施的细微之处需要进一步探讨。
“我们对患者对放射学中人工智能的看法感兴趣,是因为了解到悉尼一家名为DeepMeds的初创公司使用人工智能生成显著减少对比剂的MRI图像。”
“了解他们的做法启发了我们的研究,”她说。
研究人员希望了解患者是否愿意接受和信任人工智能成像工具,而不是更成熟的方法。他们特别关注患者对技术的理解,包括其工作原理、风险、好处和其他特征,如何影响他们对人工智能驱动MRI的开放态度。
他们的研究结果突显了透明度和沟通的重要性,特别是人工智能可解释性的概念。“可解释的人工智能”是指编程来描述其目的、理由和决策过程的人工智能系统,普通人都能理解。在MRI扫描的背景下,这可能意味着展示人工智能系统如何分析图像并得出特定诊断。
“这一功能不仅有助于放射科医生理解人工智能的推理过程,还能通过使诊断过程透明化和减少恐惧感来赋予患者权力。” 哈桑杜斯特博士说。
研究表明,无论患者的健康状况如何,可解释性在建立信任方面都起着关键作用。无论是面对癌症诊断还是寻求解决鼻窦堵塞等小问题的答案,参与者都更倾向于能够解释其推荐的人工智能系统。
一位受访者提到了人类诊断的不一致性:“我已经知道,各种扫描(MRI、CT、X光)的解读已经相当不可靠。将同一张片子给100位放射科医生,至少会得到10种不同的答案……对一个人来说只是阴影的东西,对另一个人来说肯定是需要担心的问题……”
相比之下,可解释的人工智能被视为更安全、更一致和准确。
一位参与者说:“我会选择人工智能MRI,因为它使用的对比剂要少得多。我曾经注射过这种对比剂,感觉非常不好。它让我全身发红发热,之后感觉很糟糕。然后他们告诉我多喝水以排出体内的对比剂。”
参与者还强调了人工智能驱动MRI的潜在好处和障碍,如保险覆盖。一位参与者说:“我觉得有了新的AI技术,我会得到最详细和全面的治疗方案。”
另一位参与者说:“如果早期发现问题,可能会节省我的医疗费用。我总是担心健康问题变得太昂贵。它还有可能让我避免一些传统MRI的副作用。”
人工智能在医疗保健中的应用,特别是在放射学中,已超越了MRI。2023年,近80%的FDA批准的AI医疗应用都在放射学领域,这是一个非常适合人工智能模式识别和图像增强能力的领域。
“与我们所谓的‘黑箱’系统(如ChatGPT)不同,这些系统不解释其工作原理,可解释的人工智能可以帮助患者、临床医生和放射科医生更好地理解和信任这些新兴技术。”
“这些工具可以提高诊断精度、解决劳动力短缺问题并降低医疗成本。”
(全文结束)

