近年来,我一直关注着人工智能在医学领域的迅速发展,尤其是在我的专业领域——放射学。目前,放射学家们的普遍看法是,AI系统在一些特定任务上可以做得相当好,并且可以在改善患者护理方面发挥重要作用。但是,AI还不能(至少现在还不能)完全替代人类放射学家。
例如,在一个繁忙的城市医疗中心,每天可能会有数十名患者因疑似中风或头部受伤而接受脑部CT扫描。现有的AI系统可以先审查这些图像,并将可能有内出血的患者优先安排给人类放射学家进行紧急评估。人类放射学家仍然会阅读扫描结果并做出最终诊断,但AI可以帮助加快那些需要紧急治疗的患者的诊疗过程。
(理想情况下,AI会被编程为倾向于谨慎——对可能的内出血稍微过于敏感,即使这意味着会标记出一些额外的“假阳性”病例,随后被人类放射学家确定为正常。在分诊的情况下,宁可过于敏感也不要错过内出血的患者。)
理论上,人类加AI的合作应该比单独工作时表现得更好。至少这是当前的共识。
然而,Eric Topol博士和Pranav Rajpurkar博士最近发表的一篇社论回顾了几项研究,这些研究表明,仅靠AI的表现实际上优于人类单独工作或人类加上AI的情况。例如,在一项关于医疗推理的随机临床试验中,他们指出:“当AI独立诊断患者时,其准确率为92%,而使用AI辅助的医生的准确率仅为76%——仅仅略高于不使用AI时的74%。”
为什么会这样?正如Adam Rodman博士向《纽约时报》解释的那样,人类医生“在AI告诉他们不同意的观点时,没有听从AI的意见。”
另一项哈佛-麻省理工学院联合研究也显示了类似的结果。当人类放射学家和AI意见不一致时,医生们往往坚持自己的初步印象,即使AI是正确的,这导致他们做出了不太准确的诊断。
我承认,我不完全确定如何解释这些结果。我仍然不相信AI可以完全取代人类医生。但人类医生也可能对自己的推理能力过于自信,错误地忽视了由患者、非医生卫生工作者或AI系统提供的正确诊断。
人类医生必须有足够的谦逊,知道在某些情况下AI的表现可以超过他们,同时在与AI意见相左时不盲目服从。
随着我们探索这些新的未知医疗领域,有三个关键点需要记住:
1) AI的思维方式与人类不同——并且会犯不同类型的错误。
最近的一项研究表明,“AI模型在描述医学图像和解释其诊断背后的推理时常犯错误——即使在它最终选择正确的诊断时也是如此。”
因此,任何具有临床应用价值的医疗AI系统不仅需要提供答案,还要展示它是如何得出这个诊断的,而不仅仅是一个黑箱操作。
2) 我们正处于一个微妙的转折点,有时我们应该信任AI而不是人类——但并非总是如此。
我看到过很多这样的新闻报道:“一个男孩三年内看了17个医生,ChatGPT找到了诊断。”我个人的朋友也曾使用聊天机器人来诊断家庭医生漏诊的疾病。
在很多方面,这类似于当前全自动驾驶汽车技术的状态。目前,自动驾驶车辆通常比人类驾驶员更安全——但并非总是如此。正如科技博主@Kross_Roads最近写道:“我认为现在是最危险的时候成为FSD用户。为什么?这是因为技术已经变得非常好。”
非常好的技术使得人类驾驶员容易变得自满,过度信任机器。但对于这种“几乎准备好”的FSD技术,他警告说:“几乎准备好并不等于已经准备好。”
3) 患者将越来越愿意信任AI的诊断,而不是他们的常规医生,医生应该为此做好准备。
一个好的医生应该愿意接受来自任何来源的新知识和纠正,无论是其他医生、患者还是AI系统。但作为一个易犯错的人类医生,我知道要放下自尊并保持适当的谦逊并不总是那么容易。
我们正处于一场医疗AI革命的中间阶段。我不知道事情最终会如何发展。但至少不会无聊。
(全文结束)

