人工智能(AI)常被誉为医学新时代的曙光。凭借革命性的诊断工具、个性化治疗和更高的效率,AI吸引了全球医疗专业人士和技术专家的想象力。然而,这种叙述中有多少是基于实质性的变革,又有多少是由不加批判的炒作推动的呢?
在发表于《数字健康》2024年第10期的文章《“皇帝的新衣”——人工智能?》中,Bjørn Hofmann深入剖析了AI在现代医学中的作用。通过引用汉斯·克里斯蒂安·安徒生的经典童话,Hofmann将童话中的虚幻华丽与AI的所谓新颖性进行了类比。他认为,尽管AI无疑加速了算法医学的发展,但它主要是在已有实践的基础上进行改进,而不是引入全新的范式。
算法医学的历史延续性
Hofmann首先将AI置于算法医学的悠久历史背景中。他指出,几个世纪以来,算法一直指导着医疗实践。从希波克拉底学派强调结构化方法诊断疾病,到循证医学的兴起,结构化的决策方式一直是临床领域的重要组成部分。这些算法被编入清单、指南和风险模型中,仍然是现代医疗服务的关键部分。
AI所做的,Hofmann认为,并不是引入算法医学,而是极大地加快了其进程。像CT、MRI和超声成像这样的工具依赖复杂的算法已经使用了几十年。这些系统已经提供了高级决策支持,一定程度上自动化了医疗数据的解释。因此,AI代表的是演进而非革命,放大了现有方法的力量。
应对炒作:什么是真正的创新?
虽然Hofmann承认AI处理海量数据集和识别先前未检测到模式的潜力,但他警告不要夸大其新颖性。许多今天归因于AI的问题——如偏见、责任挑战和“黑箱”问题(即不透明的决策过程)——并不是新的。这些问题长期以来一直是医学的一部分,只是形式不同。
Hofmann批评的一个关键概念是“AI幻觉”,即系统产生看似合理但不准确的输出。他认为,这仅仅是历史上医学解释挑战的现代表述。误诊、过度诊断和其他错误一直困扰着医疗保健。AI的错误虽然由于其规模和复杂性显得独特,但实际上反映了人类主导实践中存在的缺陷。
医学中AI的伦理和法律复杂性
偏见是Hofmann分析中的一个反复出现的主题。他强调,虽然AI系统可以延续甚至放大偏见,但它们不会独立创造这些偏见。底层数据集往往反映了系统性不平等,从而影响了AI的输出。例如,与性别、种族和社会经济地位相关的医疗差异常常转化为有偏见的算法预测。
此外,自主AI系统的引入引发了重大的伦理和法律问题。当AI系统失败时,谁应承担责任?监管机构已经批准了AI驱动的决策支持工具,但责任问题仍未解决。Hofmann强调了AI系统透明度的重要性,提倡建立机制让医疗专业人员理解和信任AI驱动的建议。
超越炒作:将AI与人类价值观对齐
Hofmann提出的一个最紧迫问题是,如何使AI驱动的医疗系统与人类目标和价值观对齐。随着AI越来越多地影响临床决策,存在一种风险,即这些系统可能会优先考虑替代终点——可测量但通常是次要的结果——而不是有意义的健康改善。例如,AI工具可能会优化特定生物标志物,而未能全面解决患者的整体福祉。
此外,Hofmann警告不要过度依赖技术,而忽视人类判断。虽然AI擅长处理数据,但它缺乏医生在患者护理中带来的同理心、直觉和情境理解。这强调了AI应补充而非取代人类专业知识的需求。
对未来医学的实际影响
Hofmann的分析对未来医学提出了几项实际影响,敦促医疗利益相关者在采用AI时优先考虑实用性而非新奇性。利益相关者不应被创新的魅力所迷惑,而应批判性地评估AI工具的实际好处,如改善患者结果、提高效率和增加医疗公平性。严格验证这些系统至关重要,以确保其稳健性、可靠性和免受可能损害护理质量的偏见。
伦理治理也起着关键作用,政策制定者需要建立问责框架,确保数据透明,并促进AI技术的公平获取。此外,Hofmann强调AI应作为辅助工具集成,补充而非取代医生的专业知识。这种方法保留了同情心、直觉和判断力等不可或缺的人类元素,这些元素是有效医疗实践的核心。
借鉴历史:谨慎前行
Hofmann认为,医学界可以从历史中学到宝贵的教训。像听诊器、X射线甚至抗生素这样的技术曾经面临怀疑,需要时间来证明其价值。同样,AI不应被盲目实施。相反,它必须接受严格的审查,以确定其在何处能真正增值。
他还提醒我们,在热情与现实之间取得平衡的重要性。通过批判性地评估AI的能力和局限性,医学界可以利用其优势,同时减轻其风险。Hofmann的信息非常明确:AI应成为改善医疗保健的手段,而不是目的本身。
(全文结束)

