人工智能正迅速成为美国医疗保健行业的重要工具。专家表示,通过深思熟虑的方法可以避免伦理问题并优化效率。
马修·德坎普(Matthew DeCamp)博士、哲学博士,是科罗拉多大学医院(UC Health University of Colorado Hospital)的一名内科医生和生物伦理学家,他经常通过其健康系统的消息平台处理各种不同的问题。最近,他得到了一些帮助。一个大型语言模型(LLM)分析患者的问题并生成初步回复供他批准或编辑。
“有时这些回复非常有帮助,”德坎普说。他表示,这些回复通常展示了对问题的理解,表达了同理心,甚至能捕捉到微妙的线索。然而,有时人工智能平台的帮助并不那么有效。有一次,一位患者写信给德坎普,寻求关于“一生中最严重的鼻塞”的建议。人工智能的初步回复建议可能是脑脊液泄漏所致。
“这在技术上并没有错,”德坎普指出。但如果没有其他风险因素或症状,警告患者这种严重的情况可能没有必要。“人类医生可能会有全局判断,而在这个案例中,人工智能没有做到这一点。”德坎普的故事或许可以被视为人工智能失控的一个例子。实际上,它揭示了一个更复杂、多层次的现实:人工智能已经在医疗保健领域广泛使用,既显而易见又不那么明显。在许多情况下,它表现得令人惊讶地好。同时,要实现技术的全部潜力,还有许多技术和伦理问题需要解决。
测试阶段
人工智能在医疗保健领域的潜在应用似乎无穷无尽,但有几个用途已经突显出来:运营效率、放射学/影像学和药物发现。
巴林德·马霍(Barinder Marhow)博士,全球生命科学主管,数字工程公司Quantiphi的总部位于波士顿郊区,他表示,简化患者预约流程是一个优化健康系统效率的绝佳机会。
“预约一名患者需要了解25到30个参数,才能确定‘这位患者可以在这个时间来’,”他指出。最佳预约不仅需要了解医生、护士和检查室的可用性,还需要考虑检查可能需要的时间和患者所需的服务级别。人工智能可以帮助调度员更高效地处理这些变量,找到最佳时间,他说。
Quantiphi已经开始推广一款名为Baioniq的产品,旨在帮助健康系统和其他企业更高效地利用大型语言模型。该平台作为一个单一接口,用户可以通过它访问和选择最适合特定用途的最佳大型语言模型。这种特定性很重要,因为某些模型更适合某些类型的生成式人工智能任务,例如回答患者的医疗问题。该平台还提供了额外的安全层和信息管理功能,这对于医疗数据的隐私保护和防止网络攻击至关重要。
也有许多当前的临床应用。北卡罗来纳州杜克大学杜克-玛戈利斯健康政策研究所的数字健康研究主任克里斯蒂娜·西尔科克斯(Christina Silcox)博士表示,人工智能还可以通过帮助分诊患者来提高效率。例如,她指出,中风患者如果在发病后的第一个小时内接受治疗,结果会显著更好,这一时间段被称为“黄金一小时”。然而,快速治疗往往很困难,部分原因是放射科医生确认诊断需要时间。
“长期以来,放射学报告都是按时间顺序阅读的,”她说。也许一位坚持的医生可以让他们的患者提前接受检查,但她表示,通常“黄金一小时”会被等待放射学报告的时间占用。现在,人工智能技术可以自动识别疑似中风病例,并将其放在放射科医生队列的最前面。“这样就更有可能在黄金一小时内接受治疗,”她说。
西尔科克斯还表示,人工智能不仅可以改善图像解读,还可以提高拍摄图像的技术人员的表现。她指出,在一些较小的医疗机构,进行超声波检查的人是通用影像师。有时这意味着需要进行第二次超声波检查,以便获得诊断所需的特定信息。人工智能可以在进行超声波检查时辅助通用影像师,确保第一次就能记录正确的视图和数据。这降低了成本,提高了效率,有助于更快地诊断疾病。
新的思维方式
据长期从事制药行业的高管杰基·亨特(Jackie Hunter)博士称,人工智能在药物发现领域的影响可能是最大的。亨特目前担任英国史蒂文尼奇生物科学催化剂园区的董事会主席,该园区位于伦敦以北约30英里处。
亨特表示,药物发现一直需要良好的数据。“你需要最好的信息来做出最好的决策,”她说。“当你拥有大量信息时,尝试综合这些信息已经超出了人类的理解能力。”
亨特曾在葛兰素史克(GSK)领导神经学和胃肠药物发现及早期临床开发工作,后来成为BenevolentAI的首席执行官,该公司使用人工智能支持药物发现。BenevolentAI的平台和其他类似平台可以识别可能具有临床意义的分子和靶点。此外,人工智能可以通过模拟帮助开发者选择试验化合物。
“与其合成3000种化合物,通过模拟你可以决定只需合成60种化合物,这些化合物能提供最多的信息且冗余最少,”她说。“这既节省了时间和成本。”
BenevolentAI的一个成功案例是类风湿关节炎疗法巴瑞替尼,该药由礼来公司(Eli Lilly and Company)以品牌名Olumiant销售。当2019年新冠疫情爆发时,该公司与礼来合作,研究该疗法是否可以帮助新冠患者。最终,这一合作导致FDA授权巴瑞替尼与瑞德西韦(Veklury)联合使用,用于某些重症新冠患者。
礼来并不是唯一一家使用人工智能的公司。根据2024年6月发表在《药物发现》杂志上的一篇综述文章,2023年有67种人工智能发现的分子正在临床试验中评估,而2018年只有7种。人工智能被用于识别治疗靶点24次,设计小分子22次。研究人员还指出,人工智能也被用于开发疫苗和抗体,以及重新利用现有分子。
亨特表示,人工智能还可以更精确地分层和选择临床试验患者,使研究人员更好地了解哪些患者会对治疗产生反应及其原因。
尽管如此,亨特表示,大型制药公司普遍对人工智能持谨慎态度。在某些情况下,问题不在于不愿意接受人工智能,而是希望内部开发自己的人工智能系统,而不是与外部合作伙伴合作,即使后者可能会加快进程。一些谨慎的态度源于不愿颠覆已经成功的系统。她将这种情况比作制药公司首次使用分子生物学时的情景。最初,他们倾向于将分子生物学视为一个独立部门。
“但现在,当然,分子生物学已经嵌入到我们所做的每一件事和我们的思维方式中,”她说。
亨特表示,人工智能也开辟了药物发现的新思路。由于人工智能可以更好地分析疾病的发病机制,她设想了一个机制比疾病分类更重要的世界。“我们正从疾病表型转向机制表型,”她说,“例如,在癌症中,相同的机制可能适用于几种不同类型癌症的亚型。”
尽职调查
作为人工智能的非正式大使,亨特亲眼目睹了人们对人工智能的看法和恐惧如何影响其态度。她回忆起几年前在一次会议上发言时,一位观众站起来反驳她。
“这位病理学教授站起来告诉我,我是在胡说八道,认为数字病理学不可能取代病理学家,”她说。
讽刺的是,亨特表示她并不完全不同意教授的观点。“除非医疗系统处于很大压力下,否则完全排除人类参与的系统可能不会被接受,原因有很多,”她说。其中一个原因是,如果人工智能犯错,排除人类将使问责制变得复杂。然而,她预计数字病理学终将匹配或超过人类用户的水平,即使其主要目的是通过帮助病理学家专注于罕见和复杂的病例,使他们更加高效。
杜克大学的西尔科克斯表示,医疗系统通常对直接涉及患者健康的工具持谨慎态度,如基于人工智能的临床决策支持技术。
“临床决策支持已经存在很长时间了,而且往往效果不佳,”她说。“因此,我认为人们对其改进感到兴奋,但也持谨慎态度。”
马霍表示,人工智能开发者应该吸取教训,采取类似的谨慎态度。“如果行业在没有做好充分尽职调查的情况下,就向医生推销‘我们可以帮助你’,这可能是在自找麻烦,”他说。最好花更多时间确保技术满足医疗行业的需求。
行业过快推进还存在其他风险。人工智能带来了许多新的伦理和实际问题。
德坎普拥有哲学博士学位,是科罗拉多大学生物伦理学和人文中心的讲师,他表示,如果用于分析患者病例的算法是基于代表性不足的数据训练的,其预测可能会有偏见或不准确。这个问题众所周知。然而,不太为人所知的是有偏差的处理——即用于解释数据的变量和假设中的缺陷。他举了一个例子,一种算法将医疗支出作为整体健康的代理指标,前提是健康患者在护理上的花费较少。
“在我们国家,医疗费用和患者的花费并不一定与他们的实际需求相关,”他指出。在其他情况下,机器学习算法可能会被赋予自由选择达到预期结果的变量;这些变量也可能基于有缺陷的前提,且更难检测。
德坎普表示,已经有技术努力尝试使用人工智能来合成更具代表性的数据,但他认为更可靠的解决方案是提高临床试验的参与度,特别是历史上参与率较低的群体。
亨特表示,更好的沟通和数据治理可以帮助解决问题。“大多数人实际上希望他们的数据用于人类福祉,但他们希望这些数据的使用不是为了盈利,或者非常透明地说明其用途,”她说。另一个错失的机会是负面试验数据。假设失败的研究通常未发表,即使这些数据同样有价值。
“黑箱”问题
人工智能还引发了可解释性问题,即“黑箱”问题。人工智能系统中使用的算法对于非专家来说可能难以或无法理解,这引发了基于不可解释的算法输出做出医疗决策的伦理问题。
德坎普表示,患者无需成为软件工程师即可接受人工智能工具。患者无需了解磁共振成像(MRI)的工作原理,就可以接受可能帮助临床医生做出诊断和决定治疗的MRI扫描。然而,德坎普表示仍需透明度。
“解释的层次需要根据决策的性质、决策的风险以及患者希望提供的信息来调整,”他说。
晨间咨询(Morning Consult)2024年6月的一项调查显示,患者更愿意接受低风险任务中的人工智能,如笔记记录,而不是诊断或帮助医疗程序。
对于寻求实施技术的医疗系统,西尔科克斯指出,重要的是要有适当的保障措施和治理。她表示,第一步是了解医疗系统正在使用哪些人工智能工具。这可能很困难,因为在某些情况下,医疗系统已经使用算法多年,但并未将其视为算法。
下一步,西尔科克斯表示,是明确评估过程,牢记某些技术可能需要持续监控。她指出,虽然医疗硬件(如除颤器)可以预期多年内继续以相似方式工作,但软件,尤其是基于机器学习的软件,却没有这样的预期。
患者需求
由于人工智能的性质,她表示,机构在考虑人工智能工具时,需要有多样化的观点。这不仅包括医疗从业者,还包括人工智能和法规合规专家。在某些情况下,还需要患者倡导者,西尔科克斯指出。
尽管德坎普表示,医疗保健行业必须解决与人工智能相关的伦理问题,但他并不认为这些问题会阻碍人工智能在医疗保健中的整合。
德坎普表示,他很高兴许多医学院已经开始在课程中教授人工智能,这将使未来几代人更好地掌握这项技术的实用性和局限性。人工智能可以用来改善人类生活,德坎普说,但有一个重要的前提:患者和提供者需要向人工智能开发者施压,确保人类福祉是他们工作的核心。
“我的希望当然是,我们使用这些技术的方式真正由患者需求和提高医疗保健可及性和公平性的愿望驱动,”他说。
(全文结束)

