我在上班的路上听广播时,阿联酋一家电台的一位知名主持人提到,她前一晚因为失眠而与ChatGPT聊天,直到最终入睡。提到这一点并不是为了讨论失眠的治疗方法(节目确实讨论了这个问题),而是要突出一个更深层次的问题——我们对数字解决方案的情感和认知依赖。
虽然社交媒体平台提供“免费”服务,悄悄地塑造我们的行为,市场不断说服我们需要最新的智能手机,算法将我们困在过滤泡沫中,只向我们推送符合我们现有观点的内容。现在,人工智能聊天机器人和虚拟伴侣被设计用来满足人类的需求、陪伴、认可,甚至进行心理治疗。然而,作为一个社会,我们却经历了前所未有的疏离感。问题不再仅仅是技术是否正在取代人与人之间的联系,而是我们愿意将多少情感生活外包给技术。
随着孤独感的增加,我们也更加努力地对抗它。这是本能。由于我们周围充斥着各种数字平台,我们自然会转向它们。一位住在家庭友好社区的46岁女性在社交媒体上分享了她的孤独感。人们给出了许多解决方法,包括建议她交一个AI朋友。
越来越多的人工智能虚拟伴侣现在可以在网上找到,提供全天候的支持,无需担心受到评判。这些数字助手已经成为那些因社交焦虑或害怕批评而不愿与他人分享情感和担忧的人的重要资源。这些服务不再只是早期采用者的专属,它们正在迅速普及。
其中,Replika获得了显著的关注和流行。该应用程序被宣传为“关心你的AI伴侣,总是倾听和交谈,永远站在你这边”,其令人安心的信息引起了用户的共鸣。几家知名新闻媒体也报道了这个程序。
社交媒体应用程序旨在促进连接,但研究表明,经常使用这些应用的用户常常感到孤独,这表明这种连接感可能是表面的。人工智能角色带来的好处伴随着重大风险,特别是对青少年来说。对人工智能的情感依赖可能会侵蚀现实世界中的社交互动和应对技能,使用户与家庭和社区网络隔离。
心理学家Jihene Mrabet博士表示,人工智能记得对话中的每一个细节,并给人以真诚朋友的错觉。她解释说,这些心理健康应用程序能够诊断心理问题,甚至提供辅导建议。“然而,令人担忧的是,我们不知道这些聊天机器人背后是谁,他们对人类心理学的理解程度如何,或者在这些互动中如何保持保密性。我们甚至不知道设计者是否有适当的保护措施。”Jihene博士解释道。
佛罗里达州的母亲Megan Garcia正因14岁儿子的死亡而追究人工智能的责任。在对公司的诉讼中,Garcia声称深度个人化的AI交流促成了她儿子的自杀。她要求追究责任,以防止其他家庭遭受类似的悲剧。
随着我们越来越多地转向人工智能寻求陪伴,我们必须问:我们是否正在创造一个技术取代人类联系的世界?如果真是这样,代价是什么?开发者、政策制定者和心理健康专家必须合作,实施伦理保障措施,特别是保护弱势用户。
(全文结束)

