人工智能已经在诊所中用于帮助分析影像数据,例如X光片和扫描图像。然而,随着复杂的大规模语言模型(LLM)的出现,人们开始考虑扩大技术在患者护理其他方面的应用。在这次与《哈佛公报》的对话中,哈佛医学院生物伦理学中心主任丽贝卡·温特劳布·布伦德尔(Rebecca Weintraub Brendel)探讨了临终选择的重要性,以及在决策过程中不应忘记的一点:即使我们有能力做某事,也不意味着我们应该这么做。
当谈到人工智能和临终决策时,有哪些重要的问题需要考虑?
临终决策与其他决策相同,最终我们会按照患者希望的方式行事,前提是他们有能力做出这些决定,并且他们的愿望在医学上是可以接受的——至少不是医学上禁止的。
一个复杂的情况是,如果患者病得太重,无法告诉我们他们的意愿。第二个挑战是以认知和情感的方式理解这个决定的意义。
有时人们会说:“我绝不愿意那样活着。”但在所有情况下,他们未必会做出同样的决定。患有渐冻症等神经退行性疾病很长时间的患者通常知道他们何时达到了极限。他们并不抑郁或害怕,而是准备做出自己的决定。
另一方面,抑郁症在某些癌症中相当普遍,而一旦症状得到治疗,人们往往会改变他们想要结束生命的念头。
那么,如果一个人年轻时说:“如果我失去了双腿,我不想活了”,我们应该允许他们在生命尽头改变观点吗?
当我们面对改变我们身体完整感的事情时,改变我们作为功能齐全的人类的感觉时,我们的应对能力被压垮是很自然的,甚至是预期的。
但有一些非常严重的伤害,一年后,人们报告的生活质量比受伤前更好,即使是严重的脊髓损伤和四肢瘫痪。因此,我们可以克服很多困难,我们改变的能力、希望的能力必须被考虑到。
那么,作为身心的疗愈者,我们应该如何帮助患者做出关于他们临终的决定呢?
对于患有慢性疾病的人来说,护理标准是在整个过程中进行这些决定,AI在这里可能会有所帮助。但在诊断时——我是想要治疗还是从一开始就选择姑息治疗——AI可以给我们一种预期的感觉,我们可能会有多大的残疾,疼痛是否可以缓解,或者个人的转折点是什么。
因此,AI收集和处理比人类大脑能处理的多几个数量级的信息——不受恐惧、焦虑、责任感、关系承诺的影响——可能会提供有用的信息。
对于失去行为能力、没有家人、没有预先指示的患者,决策权落到了护理团队身上,应该如何处理?
我们必须对这些决定持谦逊态度。拥有信息是非常有帮助的。对于永远无法恢复行为能力的人,我们只有几种不同的选择。如果我们真的不知道他们想要什么,因为他们避免治疗,不想住院,或者没有太多的关系,我们假设他们不会寻求对生命终结的治疗。但我们必须意识到我们在做很多假设,即使我们不一定在做错事。拥有更好的预后感觉对这一决定非常重要,而这正是AI可以帮助的地方。
我对使用大规模语言模型来做出行为能力决定或确定某人可能想要什么不太乐观。对我来说,这是尊重的问题。我们尊重我们的患者,尽力做出最好的猜测,并意识到我们都可能是复杂的、有时痛苦的、有时可爱的,理想情况下是被爱的。
是否有AI不应该被允许做的事情?它当然可以做出临终建议,而不仅仅是收集信息。
我们必须小心不要用“是”来做出“应当”的决定。
如果AI告诉你生存几率不到5%,这还不足以告诉我们该做什么。如果发生了可怕的悲剧或有人遭受暴力袭击,我们看待那5%的态度会与某人长期与慢性疾病斗争后说“我不想再经历这个,也不想让别人经历这个,我已经度过了美好的一生”的情况不同。
在诊断和预后评估中,AI已经开始超越医生,但这并不能回答关键问题,即我们如何解释这些信息,以确定关于人类行为的默认规则。
它可以让我们更加透明、负责和互相尊重,通过明确表示,作为社会,如果这些事情发生,除非你另有交代,否则我们不会进行复苏。或者我们认为有很好的康复机会时才会进行。
我不想低估AI的潜在影响,但我们不能放弃在基于数据的决策中以人类意义为中心的责任。
所以这些决定应该总是由人类做出吗?
“总是”是一个很强的词,但我很难想象我们会愿意在做出高后果决策时放弃人性。
是否有医学领域应该始终有人类参与?新生儿第一次接触世界应该是人类的手吗?还是我们应该只关注护理质量?
即使机器人做手术效果更好,我还是希望有人在旁边。我们希望保持重要生活事件的人类意义。
另一个问题是,成为医生、疗愈者、医疗专业人员意味着什么?我们掌握了很多信息,信息不对称是医疗和其他卫生专业人员备受尊敬的原因之一。但它也关乎我们如何使用这些信息,成为一名优秀的诊断医生,拥有典范的床边风范,在患者受苦时照顾他们。当我们在我们认为最擅长的事情上不再是最好的时,我们如何重新定义这个职业?
在某个时候,我们必须质疑系统中的人类互动。它引入了偏见,到什么程度人类思维的处理是重要的?大规模语言模型是否会创造新的信息,提出新的诊断类别或疾病实体?在高度技术化的时代,患者和医生之间的责任应该是什么?这些都是我们需要考虑的重要问题。
这些对话正在进行吗?
是的。在我们的生物伦理学中心,我们正在研究的是人工智能如何解决我们一些永恒的健康挑战。技术往往流向资本和资源集中的地方,而大规模语言模型和AI的进步可能使我们能够照顾到那些一天内无法到达医生的大量人口。在公平、正义和推进全球健康的方面保持自我问责是非常重要的。
当我们谈论资源匮乏地区的患者以及AI的能力与人性的意义时,我们需要意识到,在世界的某些地方,做人意味着要承受苦难,无法获得护理?
是的,因为越来越多的情况下,我们可以做些什么。当我们开发出可以在实际和经济上产生巨大差异的工具时,我们必须问自己,“我们如何做才能遵循公正、关爱、尊重他人的价值观?我们如何确保在有能力帮助的时候不抛弃他们?”
(全文结束)

