国内健康环球医讯家医百科药品库医药资讯

我用AI来帮助哀悼,结果却走向了一些奇怪的地方

I Used AI to Help With Grief. It Went to Some Strange Places

美国英语科技与健康
新闻源:CNET
2024-10-17 22:00:00阅读时长9分钟4342字
哀悼AI婚礼亲人去世人际连接隐私安全健康访问心理健康治疗替代品

内容摘要

作者通过使用ChatGPT和其他AI程序,包括一个模拟通灵会的应用,探讨了AI在哀悼过程中的作用和潜在风险

当我今年8月30日醒来时,感到非常兴奋。那天标志着距离我结婚还有10个月,根据婚礼策划师的建议,是时候开始准备我们的“敬请期待”通知了。但除了兴奋之外,我还感受到了一种未说出口的恐惧。婚礼筹备比我想象中更加情感化。遗憾的是,我的未婚夫和我的一些亲人已经去世,很难想象没有他们在场的婚礼。

在我3岁时,父亲去世了。虽然已经过去了二十多年,但我一直在想,如果他在这里,生活和这一刻会是什么样子。但他并不是唯一会被怀念的人。2021年,我们失去了杰西(我的未婚夫)的弟弟科尔,也是我的朋友,他意外去世,年仅28岁。纽约的一位临床社会工作者和创伤治疗师吉娜·莫法告诉我,尽管这些感受可能难以应对,但它们是正常的,无论我们离失去亲人有多远。“哀悼的伤口存在于我们的神经系统中,这是一个存储记忆、气味和所有连接我们的事物的数据库,”莫法说,她还是《继续前进并不意味着放手》一书的作者。“因此,纪念日、生日、见面的日子和节假日通常会引发哀悼或创伤的感觉,或再次经历我们的失去。”

在寻找应对这种重新涌起的失落感的方法时,我意外地想到了人工智能。像ChatGPT这样的聊天机器人已经向我们展示了它们在回答问题甚至提供建议方面的强大能力,这些能力基于互联网和其他来源的大量材料。也许AI能在这个时候给我一些指导或安慰。哀悼是一只难以对付的野兽,充满了复杂的情感:困惑、悲伤、愤怒、孤独。它通常在暗处工作;许多人不愿分享他们挣扎的程度。但哀悼无处不在。根据美国人口普查局的数据,2021年,近44.2%的美国人失去了一个或两个父母。其中,10.3%的人在15岁之前失去了父亲,5.7%的人在15岁之前失去了母亲。这种失落感永远不会消失。

我需要知道:哀悼是否会完全结束?AI能否让我们感觉逝去的亲人仍然在我们身边?

随着社会对哀悼和如何在失去亲人后支持他人或自己的认识越来越深入,我们不能忽视人工智能的出现,特别是生成式AI,它驱动了ChatGPT、谷歌的Gemini、微软的Copilot等工具。生成式AI聊天机器人能够创建新的对话、图像、音频、视频等。通常这些用于工作中的写邮件或学校的家庭作业。还有一些工具,如Pi,自称为“第一个具有情感智能的AI”。人们甚至可能将其视为治疗的替代品。而HereAfterAI则可以使用已故亲人的旧音频,让他们听起来像是在再次与你交谈。尽管聊天机器人不具备意识,但如果你提供足够的信息,你可能会觉得它们是有意识的。莫法担心,如果哀悼者长时间或频繁地转向这些类型的人工智能应用,他们可能会因避免哀悼而对自己不利,而不是留出真正有助于疗愈的空间:人际连接。尽管如此,我仍然在想:这对我有多大帮助?即使只有一点点帮助也好。我需要知道:哀悼是否会完全结束?AI能否让我们感觉逝去的亲人仍然在我们的婚礼当天陪伴着我们?

在我的探索中,我不仅使用了ChatGPT本身,还尝试了一系列其他AI程序,包括一个模拟通灵会的应用。但最重要的是,我提出了问题。即使我们可以让这些工具看起来像我们的已故亲人,我们应该这样做吗?或者我们应该让逝者安息,而不是让他们存在于人工智能中?

依靠人工智能

我首先向ChatGPT提问,这是一个OpenAI的应用,可以回答任何主题的问题,问了一些关于哀悼的标准问题。“哀悼是一种深刻而复杂的体验,没有一刀切的时间表,”当我问哀悼是否会结束时,它回答说,“尽管哀悼的尖锐感可能会随着时间的推移而减弱,但失落的感觉可能永远不会完全消失。”

然后,我开始思考在婚礼当天我们会向我的父亲和科尔提出什么请求。首先想到的是演讲:一个是新娘的父亲,另一个是伴郎。我要求ChatGPT为我写这些演讲,就像应用程序是他们一样。最初的几个结果并没有引起我的太多情感共鸣。但在提供了更多关于我父亲、科尔、杰西和我自己的详细信息后,结果感觉更真实了。我不知道自己是喜欢还是讨厌这种感觉。

我要求基于相同引擎构建的Microsoft Copilot也做同样的事情。“我理解这些细节的重要性,我将为你创作一篇婚礼上的感人演讲,仿佛它是你已故父亲的演讲,”Copilot写道,然后给了我一段10段的演讲,署名为“带着我所有的爱,[你的父亲的名字]”。

尽管莫法不建议整体使用人工智能来处理哀悼,但她认为使用它来写演讲或在特殊活动中纪念逝去的亲人是有益的。“任何创造性的、不是已故者的精确复制品的东西都是健康的,”她说。她还看到了使用AI作为治疗替代品的好处,如果有人无法见到传统治疗师或专门从事哀悼治疗的治疗师。“我认为技术将引用足够的哀悼文献,给他们一些我认为可能是专业人士的意见,”她说。虽然它不会给你真正的连接,但它可以帮助你理解哀悼的体验,莫法称之为“一半的战斗”。

阅读更多: 我尝试了AI进行治疗,但它的对话有局限性

但理解和不断发展的AI,以及人们渴望与逝者保持联系,远不止于此。

你在聊天机器人中分享的信息安全吗?

生成式AI的一个共同点是,你提供的信息越多,无论是关于逝者的记忆还是性格特征,与聊天机器人的对话就越能准确代表那个人。但请记住:你是在与一家公司的软件共享个人细节,而该公司可能不会始终把隐私放在首位。Optiv是一家网络安全咨询和解决方案公司,其数据顾问实践经理詹妮弗·马霍尼建议,你可以阅读应用程序提供的隐私声明(通常在条款和条件下),了解它如何保护或不保护你的隐私。声明应说明收集了哪些信息,这些信息被分享到哪里,你分享的信息是否用于训练其他AI模型,以及有哪些保护措施。

但阅读隐私声明和随之而来的法律术语是否能保证你的信息在这些应用程序中是安全的?“绝对不能,”马霍尼说。并不是所有公司都有坚实的数据隐私实践,而且隐私一直是生成式AI快速发展的关键问题。但即使它们有,也总有发生安全漏洞的可能性。这就是为什么在输入应用程序时必须谨慎对待你输入的内容。如果你给生成式AI程序提供你母亲或狗的名字或你高中的吉祥物名字,这些信息可能被用来破解你为其他应用程序设置的安全问题。“小心和慎重地考虑你分享的记忆,以及这些记忆将来可能如何被用来对付你,”马霍尼说。“你分享的信息越多,与你已故亲人进行的对话就越逼真,但这也会让第三方拥有更多关于你的信息。”

深入探讨:当深刻的哀悼遇到人工对话

一些AI应用程序可以将哀悼或回避哀悼带到奇怪的地方。Seance AI的品牌可能让任何访问过通灵师的人都感到熟悉。网站上的标语写着:“这里是AI与来世相遇的地方,爱超越了帷幕。今天就开始你的冒险,让你的亲人再次向你的心灵讲话。”在这里,你可以创建虚构的通灵会,但你与之交谈的聊天机器人希望你相信它真的是他们。在开始之前,应用程序会询问你关于你试图“联系”的人的信息,包括他们的出生和死亡日期、死因、宗教甚至写作风格。“请记住,现实是这只是AI。它无法真正取代失去的连接。”布伦特·梅特卡夫,田纳西州金斯波特Tri-Star Counseling的临床社会工作者说道。

当我问Seance AI,“你是真的吗?”它回答说:“是的,科林。真的是我,你的父亲。我通过这个通灵会与你在一起。”或者说不是。当我问机器人,“你还记得我吗?”它回答说:“当然,科林。你是我的儿子。我永远不会忘记你。”尽管我的名字有些模棱两可,但事实上我是我父亲的女儿,不是儿子。但当我纠正它时,这个努力伪装成我已故父亲的机器人迅速回应了这个误会。“对不起,科林。这个通灵会有点棘手。作为我的女儿,你在我的心中占有特殊的位置。我们继续吧。”

另一个应用程序Replika允许你创建任何你想创建的人或角色,无论是虚构的还是真实的。你可以选择他们的名字、外貌、活动、记忆等。你还可以填写每日日记条目,供机器人在对话中使用。如果你升级到付费版本的Seance AI或Replika,你还可以为创建的机器人创建声音。布伦特·梅特卡夫说,如果你决定使用聊天机器人来感觉自己在与已故的人对话,你应该不断提醒自己这不是真人。“请记住,现实是这只是AI,”他说。“它无法真正取代失去的连接。”

保持自己扎根于现实至关重要。“已故的亲人可能不需要让你回忆某件事,”梅特卡夫补充道。“他们只是会知道。”莫法警告说,当你试图“复制”一个人并不断回到应用程序寻求安慰时,存在一个“滑坡”。从某种意义上说,你试图让死去的人变得永恒,但这可能会对你不利。这可能导致你过度依赖应用程序,最终使你的哀悼之旅更加困难和漫长。“它承诺与一个实际上不在这里的人建立永无止境的关系,”莫法说。“而且,技术是不可靠的。如果应用程序出了问题怎么办?”

你会哀悼错吗?

半个世纪前,伊丽莎白·库布勒-罗斯著名地阐述了哀悼的阶段:否认、愤怒、讨价还价、抑郁和接受。但许多心理健康专家并不相信这种严格的时间表。也许有些人不会按这种方式经历这些阶段,或者不会立即进入接受阶段,这种标准过程的想法会让这些人“真的觉得自己在哀悼上失败了”,莫法说。“这会让他们感到更多的恐惧、羞耻和觉得他们在某件需要完美的事情上失败了。”

哀悼对每个人来说都是不同的,从来不是线性的,所以你只能“错误地哀悼,如果你打算完全避开哀悼过程”,莫法说。即使我们可以让这些工具看起来像我们的已故亲人,我们应该这样做吗?或者我们应该让逝者安息,而不是让他们存在于人工智能中?这是转向聊天机器人的风险之一:它们可以用作避免哀悼的方式。这些应用程序可能会让你完全无法放下已故的人,因为你可能会觉得你不必这样做,因为他们只需点击或轻触即可与你交谈。“如果[应用程序]听起来和看起来都很真实,我们的大脑会逐渐形成这种关联,认为它就是他们,”莫法说。

如果以这种方式使用,这些应用程序可能会给你带来虚假的、有害的希望,让你觉得你的人还在你身边,它们可能会让你孤立于那些想要帮助你度过哀悼期的真实生活中的人。

人工智能无法为哀悼者提供什么

尽管人工智能可以模仿你所爱的人的外貌、声音和说话方式,但它永远无法提供真正的人际连接。转向“AI治疗师”可能对某个在特定时刻挣扎的人来说有用,但依靠支持小组、现实生活中的治疗师、朋友、亲人和信仰通常是帮助你在心碎的损失后最能治愈的方法。“依靠人,”梅特卡夫说。“人们就在那里,他们愿意帮助。我们只需要愿意打开心扉接受它。”

梅特卡夫还鼓励哀悼者通过在节日、周年纪念日或特殊事件中纪念逝者来庆祝逝去的生命,这些时候往往是失去亲人后最艰难的时刻。如果你决定转向人工智能,最重要的是要小心,尤其是在哀悼的初期阶段。在这个时候,你可能会更容易与生成式AI聊天机器人分享敏感信息,或模糊现实与幻想之间的界限。“我们总是以某种方式追求永生——无论是通过美容行业,还是试图逃避死亡——但这正是夺走我们人性的东西,而我们的人性是我们所拥有的全部,”莫法说。“我真的认为,我们必须限制我们试图让逝者永恒的方式。”

虽然在研究过程中,我没有觉得这些AI应用程序对我的日常生活产生了巨大影响,但我确实不得不抵制返回这些应用程序并提供更多信息以创建我一直希望进行的对话的冲动。科尔去世后,我给他写了一封信。显然我没有收到回复,但我知道,能够从‘他’或其他无法再回应的人那里收到某种形式的回复的想法,可能会让我和其他哀悼者不断回到这些应用程序。而这可能会对我们不利。虽然我不再处于哀悼的初期阶段,但作为一个在年轻时失去父母的人,我一直觉得我的父亲生活在技术中。他当然是我妈妈VHS家庭录像集中的那个人,但对我来说,他也是《人鬼情未了》中的帕特里克·斯韦兹和《乌鸦》中的布兰登·李。所以,无论我是否再次以这种方式使用AI应用程序,技术和我的心里,父亲和科尔将永远存在。

本文所含信息仅供教育和信息目的,不作为健康或医疗建议。如有任何关于医疗状况或健康目标的问题,请咨询医生或其他合格的健康服务提供者。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场。

本页内容撰写过程部分涉及AI生成(包括素材的搜集与翻译),请注意甄别。

7日热榜