根据Cloudflare的软件和技术专家,生成式AI服务在2024年2月1日至2025年3月1日期间增长了251%。
这并不令人惊讶。人们正在将其用于从撰写求职申请到替代谷歌搜索等各种用途。虽然这非常有趣,但也有一些趋势令人担忧。
我在TikTok上注意到很多用户承认依赖Open AI的生成式AI聊天机器人Chat GPT来提供心理治疗服务。一位用户发布了一条获得300万个赞的帖子,内容是:“我最喜欢的动物是我用Chat GPT作为治疗师。”
当然,这是可以理解的。根据慈善机构Rethink Mental Illness对NHS数据的分析,等待心理健康治疗超过18个月的人数是等待身体医疗服务人数的八倍。
在这种危机时刻,谁能责怪人们求助于手头的工具呢?
然而,据心理治疗师James Lloyd表示,这对寻求心理健康支持的人来说可能是有害的。
心理治疗师警告不要使用聊天机器人进行心理健康支持
Lloyd说:“技术可以非常有帮助,尤其是当它能帮助某人迈出第一步时。
“在这方面,使用聊天机器人可能作为一种桥梁,一个更容易的入口点,当与另一个人交谈感觉太难时。但也要记住那句老话:火是一个伟大的工具,但也是一个糟糕的主人。”
Lloyd还警告说,这种依赖可能会导致我们实际上损害我们的整体健康。
“如果我们过于依赖AI进行情感支持,我们可能会无意中失去对我们福祉至关重要的那种人际互动。
“社交联系仍然是长期身心健康最强有力的预测因素之一。尽管技术可以非常有帮助,但它可能有一个上限——只有真正的人际交往才能超越这个上限。”
哈佛大学在2024年的一项研究显示,社交联系可以帮助人们活得更长、更健康。
研究人员写道:“例如,社交隔离与心脏病、中风、焦虑、抑郁和痴呆等疾病的风险增加有关。
“孤独和社会隔离还被证明分别使早死风险增加26%和29%。”
Lloyd同意我们需要一点人性才能真正繁荣,他补充说:“真正的治疗工作以及治愈孤独往往涉及被另一个人看到、听到和感受到,而无论多么先进的AI都无法复制这一点。”
HuffPost UK联系了Open AI以获取评论,AI专家表示:“我们的模型经过训练,可以作为一个AI系统提供一般建议和支持。如果用户请求专业建议,他们会收到如下消息:”
他们补充说:“在有人处于危险的情况下,我们已经训练我们的模型识别这些情况,并认真参与,必要时将人们引导到专业帮助那里。
“您可以在我们的Model Spec这里和这里阅读更多关于这方面的信息。我们继续在这个领域投资,咨询心理健康专家。”
(全文结束)

