人工智能正逐渐成为预测医学和个人化医疗的一部分,并帮助医务人员进行治疗决策。MIRACLE项目旨在利用算法识别肺癌患者的复发风险。为了实现这一目标,研究人员向算法输入大量患者数据——数据越多,算法的误差越小。然而,随着AI变得越来越强大,它对于实践者来说也越来越不透明,他们无法理解是什么数据导致了AI提出的复发概率。因此,AI引发了关于医学透明度的伦理问题,患者的最大担忧是机器会在没有人类干预的情况下强加诊断。
AI用于预防肺癌复发风险
为了深入了解这一问题,科学哲学家和UNESCO生命与人工伦理学教席研究员Damien Lacroux采访了MIRACLE项目的科学家。这个名为MIRACLE的欧洲研究项目于2021年启动,汇集了意大利、西班牙、德国和法国的实验室。该项目的目标是通过算法辅助医疗决策来识别肺癌患者的复发风险。研究人员以监督学习的方式训练AI,向算法输入已知是否存在复发的患者队列数据。这些数据分为三种类型:临床病理数据(如患者的性别、疾病史或接受过的治疗)、医学影像数据和omics数据(即与分子生物学相关的大规模信息,如肿瘤的DNA或RNA)。
科学家们用来自220名患者的数据训练算法,并提供关于复发与否及其发生时间的信息。“然后我们让算法工作!这涉及难以想象的大量数据,这些数据人类自己无法处理。”Damien Lacroux解释道。“目前,项目进度落后,我们刚刚完成了第一个队列的数据收集。接下来,我们需要开始用这些数据训练算法,并招募第二个队列以验证其训练结果。”因此,我们还需要等待一段时间才能看到MIRACLE项目的效果。
AI:医疗决策中的“黑箱”
然而,这种方式立即引发了一个伦理问题,这是Damien Lacroux采访的研究人员指出的。“在训练初期,生物信息学家可以分割数据集并将AI结果与某个输入因素关联起来。但随着时间的推移,数据量增加,它变成了一个‘黑箱’。”随着数据量的增长,用于改进预测的模型变得更加复杂。悖论在于,随着数据量的增加,算法的误差减小,AI变得更高效,但它的工作方式对实践者来说却更不清楚。医生如何向患者解释AI的决策或保证不存在偏见,如果他们自己都不熟悉其内部运作?
在肿瘤学领域,医生经常使用决策树来证明他们的临床推理。然而,将算法评分整合到这些过程中可能会与医生所需的透明度相冲突,因为有时医生难以理解哪些输入数据导致AI估计复发概率。正如参与MIRACLE项目的德国生物信息学家在接受Damien Lacroux即将发表的研究采访时所说:“即使我们能够解密算法的所有内部计算,结果也会非常数学化,以至于医生无法解释或应用于临床实践。”
这也影响了患者的知情同意概念。“医生有义务提供足够的信息,使患者能够接受或拒绝治疗。然而,如果从业者本身并未充分了解,这就构成了一个伦理问题。”哲学家补充道。尽管如此,正如Damien Lacroux在他的研究中指出的那样,“分子生物学已经确定,考虑数千个患者的omics数据是肿瘤学进步的关键手段。”因此,AI可以更好地管理疾病的潜在演变,通过改进治疗方案……但代价是医生和患者之间的信任。
人类必须掌握决策权
无论AI是集成到医疗决策过程中(Damien Lacroux称之为“分析性审议”),还是完全脱离决策过程仅作为最终咨询(“综合性审议”),对患者而言都必须保持完全透明。患者的主要担忧是在小组访谈中提出的,即“机器”会在没有人类干预的情况下做出诊断。“但这并不是当前的情况。”Damien Lacroux安慰道。
这些基于患者数据提出癌症复发概率的算法评分还引发了其他关于预测医学的具体问题:我们何时真正治愈?当不确定性仍然存在,我们能否真正摆脱疾病,而始终处于可能复发的预期中?这些问题,像许多其他问题一样,尚未得到解答。
(全文结束)

