人工智能(AI)越来越多地被用于肿瘤学领域,例如辅助癌症诊断和指导癌症治疗决策。然而,有证据表明,AI往往不够准确,难以在临床中整合,威胁患者隐私,对环境产生负面影响,并存在其他限制其潜在益处的问题。
准确性不足限制了AI在肿瘤学中的应用
专家表示,限制AI在肿瘤学及更广泛的医学领域应用的最大因素之一是准确性风险。例如,AI聊天机器人已被证明具有高“幻觉率”,即它们经常提供不正确或误导性的回答。圣伊丽莎白医疗保健公司的Matthew Kurian博士说:“这在肿瘤学中尤其成问题,因为治疗指南和临床试验数据变化迅速,许多里程碑研究并不公开。”他补充道:“因此,如果未经适当验证,AI工具可能会误引文献、引用预印本或依赖非同行评审的来源,导致次优的临床建议。”
加州大学旧金山分校的Julian Hong博士说:“医学总是在变化,所以我们的AI也必须随之发展,尽管很难在能够监管和验证AI的同时,允许它从新数据和经验中‘学习’之间找到平衡。”他还指出,许多与AI相关的挑战“不一定与技术本身有关,而是更多地与我们用来训练它的数据有关”。AI是基于我们的经验进行训练的,而这通常反映了观察数据的局限性,从而限制了AI对所有患者的稳健性。
梅奥诊所的Irbaz Riaz博士说,用于训练AI模型的数据集通常缺乏种族、民族、社会经济地位和地理位置等方面的多样性,这可能导致算法在代表性不足的人群中表现不佳,可能加剧现有的医疗差异。他解释说,在肿瘤学中,癌症的表现和结果已经在不同人群中显著不同,这种偏见可能导致漏诊或不适当的治疗建议。
另一个使AI可能不准确的原因是其在不同设置下的功能不足。Hong博士解释说,例如,在特定机构创建的AI工具在应用于不同环境时可能会失效。一个著名的例子是Epic Sepsis Model(ESM)。虽然ESM的开发者报告称其曲线下面积(AUC)为0.76至0.83,且该模型被广泛采用,但在外部验证研究中,该模型显示出较差的辨别力(住院水平AUC为0.63)和校准性能。Riaz博士指出,这种“性能差距”在癌症护理中尤其令人担忧,即使在同一类型的癌症中也存在很大的异质性。
不准确性可能给患者带来问题
Riaz博士说,当患者使用AI驱动的搜索工具获取医疗信息时,准确性问题会以不同的维度出现,其中包括放大医疗错误信息的可能性。即使AI系统提供的信息在技术上是准确的,但如果信息缺乏必要的背景——例如没有考虑患者具体情况的生存统计数据——也可能导致误解,从而扭曲患者的期望和理解。
Kurian博士说:“对于使用AI获取医疗建议的患者来说,误解和错误信息的风险更大,因为他们可能难以区分基于证据的建议和未经验证的内容,从而导致潜在有害的治疗决策。”
Riaz博士指出,健康素养差距加剧了这些风险,因为“AI系统可能无法充分调整信息复杂度以适应用户的理解水平,从而造成所提供信息与实际传达信息之间的脱节。”
Hong博士还提到:“需要注意的是,生成式AI聊天机器人主要是在互联网和社会网络数据上进行训练的,这些数据本身就有其固有的局限性。总的来说,我认为患者应该对各种信息来源保持谨慎,而作为医生,我们也应该意识到患者获取信息的来源。”
工作流程、隐私和监管问题
另一个阻碍AI广泛应用的因素是其在临床上的实施难度。Hong博士说:“诊所很忙,工作流程也很复杂,许多诊所并没有为此类集成做好准备。”
Riaz博士补充说,另一个问题是“高级AI模型,如深度学习模型,运作方式类似于‘黑箱’,其中推荐背后的推理对临床医生来说既不透明也不可解释。”这种情况对肿瘤学家构成了挑战,他们必须理解和向患者解释治疗决策的理由。
Riaz博士还指出,使用AI系统还可能使临床医生过度依赖这些工具,从而随着时间的推移削弱他们的批判性思维能力。他说:“在肿瘤学中,治疗决策通常需要超出标准化指南的细致判断,因此在决策过程中保持人的元素至关重要。”
由于AI技术的快速发展以及尚未解决的责任归属问题,更广泛的AI实施还可能受到监管不确定性的阻碍。Riaz博士补充说:“肿瘤学数据特别敏感,包含具有超越个体患者影响的遗传信息,因此需要大量数据共享的AI系统必须解决患者隐私和数据安全方面的更高关切。”
环境影响和资源负担
开发和维护基于AI的工具所需的环境影响和资源也是更广泛使用AI在肿瘤学和医学中的额外障碍。
Kurian博士解释说:“AI的计算需求需要大规模的数据中心,这些数据中心消耗大量的能源、水和稀土矿物,如锂和钴。这些中心会产生大量碳排放,并且每年需要数百万加仑的水来冷却,引发可持续性问题。”他还指出,硬件过时周期可能需要频繁更换技术,从而产生大量电子废物和环境影响。
此外,医疗IT团队可能会因维护AI系统的需求而超负荷。Riaz博士说:“一旦部署,AI系统需要持续监控、更新和故障排除,这增加了已经紧张的医疗IT部门的工作负担,他们必须在这些新技术与维护基本临床系统之间取得平衡。”
支持医疗环境中AI所需的资源可能会加剧现有的差距。Riaz博士补充说:“开发有效肿瘤学AI工具所需的高性能计算基础设施、专业专业知识和广泛数据集集中在富裕机构和地区。这种情况导致学术医疗机构和资源较少的医疗系统——通常服务于更脆弱的人群——无法开发或维护自己的AI工具,从而可能扩大癌症护理中的技术差距。”
改善肿瘤学中AI使用的新兴解决方案
研究人员正在探索改善准确性和其他目前限制AI在肿瘤学中使用的方法,包括由肿瘤学家验证AI生成的建议以减少错误的混合模型,Kurian博士说。他补充说:“开发者还在纳入可信来源,如NCCN指南、疾病特异性会议和临床试验注册表,以确保实时更新FDA批准和标准护理的变化。”
Riaz博士说,另一个有前景的发展是在领先癌症中心实施连续验证框架。这些系统实时监控AI性能,并在模型开始漂移或在患者亚组间表现不一致时发出警报,从而及时进行调整。他补充说:“多模态AI系统通过整合多种数据类型——如影像、基因组、临床记录和结构化电子健康记录数据——显示了通过利用互补信息源提高准确性的潜力。”
他还指出,联邦学习方法可以访问更多样化的训练数据集,同时保护患者隐私。通过联邦学习,AI模型可以在多个机构之间进行训练,而无需在这些机构之间共享原始患者数据。训练算法“前往”每个机构的安全环境,在那里学习数据,并仅在机构之间共享模型参数而不是原始数据。
优化肿瘤学和医学中AI使用的建议
为了进一步优化AI在肿瘤学和整个医学中的使用,同时最大限度地减少潜在危害,Riaz博士提出了以下建议,这些建议需要监管机构、专业协会、医疗机构和AI开发商之间的协调。
- 急需制定平衡创新与患者安全的健壮的医疗AI监管框架。这应包括持续性能监控的要求、明确何时需要重新验证的指南以及可解释性的标准。
- 必须将强制性前瞻性临床验证成为标准做法。根据回顾性研究或在有限人群中验证的AI工具进入临床使用可能是危险的。要求在广泛实施前在人口统计学和临床多样化的队列中进行前瞻性验证,有助于确保利益扩展到所有患者群体,并能早期发现潜在偏见。
- 需要大幅扩展临床医生教育和培训计划。医学院校和继续教育课程必须纳入AI素养,不仅教授临床医生如何使用这些工具,还要教会他们如何批判性地评估其局限性、解释其输出并向患者解释。美国临床肿瘤学会(ASCO)等组织已经开始开发工作组和肿瘤学特定的AI课程,但还需要更全面的努力。
- 多学科开发团队应成为标准。单纯由技术专家和大型科技公司开发的AI系统往往无法满足实际临床需求或顺利融入工作流程。包括肿瘤学家、护士、患者、伦理学家和实施科学家在内的团队与AI工程师合作,可以开发出更好地符合临床现实和伦理标准的工具。科技巨头与学术机构和癌症中心之间的密切合作将是关键进展的必要条件。
- 对商业AI开发商的透明度要求将有助于解决“黑箱”问题(即AI建议背后的推理对临床医生不清晰)。供应商应披露训练数据特征、跨人群的性能指标和已知限制。这种透明度将使临床医生能够在何时以及如何将AI建议纳入实践中做出明智的决定。
- 应对医疗AI系统进行标准化的环境影响评估。就像新药需要进行环境影响评估一样,AI系统也应评估其资源需求和碳足迹,并在购买和实施决策中考虑这些因素。
- 需要加强患者参与机制。患者应清楚了解何时以及如何在他们的护理中使用AI,并有机会在有顾虑时选择退出。面向患者的AI工具应与多样化的患者代表共同设计,以确保它们适当地满足实际信息需求。
- 必须建立可持续的资金模式以支持维护和监控。目前,医疗机构可以为初始AI实施获得资金,但在持续验证、更新和监控方面却难以支持。报销模式和机构预算必须演变,以认识到这些持续需求。
Kurian博士说:“为了让AI在医学中真正有效,它必须用户友好,无缝整合验证数据,提供可靠、可重复的输出,能耗最小,具有反馈循环以实现持续改进,以患者为中心,并增强而不是破坏临床工作流程。此外,AI系统必须安全、不断更新,并设计为简化肿瘤学家的工作,而不是使其更加复杂,确保它们在现代癌症护理中仍然是有价值的工具。”
(全文结束)

