在 Dreamforce 2024 大会上,Salesforce 首席执行官马克·贝尼奥夫(Marc Benioff)在与英伟达(NVIDIA)首席执行官黄仁勋(Jensen Huang)的炉边谈话中承认,他使用 ChatGPT 作为心理治疗师。他并不是唯一一个这样做的人。使用 ChatGPT 和其他流行的人工智能聊天机器人作为个人问题的倾诉对象已经变得 相当普遍,部分原因是成本显然更加可控。
然而,即使这样可以节省一大笔医疗费用,使用 ChatGPT 作为心理治疗师仍然有一些显著的理由是不好的。
ChatGPT 的准确性不足
众所周知,像 ChatGPT 这样的人工智能聊天机器人并不完全准确。事实上,我们一直在收集过去几年中 人工智能犯下的错误和失误,可以说这些错误非常之多。虽然人工智能聊天机器人提供的许多错误信息和失误相对无害,例如显示六指人物的滑稽肖像和凭空捏造的可笑统计数据,这些并不会对某人的生活轨迹产生重大影响。然而,心理治疗确实对参与其中的个体有显著的影响,而 ChatGPT 在医学准确性方面的记录 显然存在风险。简而言之,也许不要把自己的心理健康交给一个无法区分《蒙娜丽莎》和《史莱克》的平台。
ChatGPT 没有任何资格认证
非人工智能聊天机器人治疗师显然比人工智能聊天机器人受到更严格的监管,这意味着他们对患者提供了更高的护理标准。ChatGPT 没有博士学位,它没有上过医学院,最重要的是,目前它不受法律对不良医疗建议的责任追究。
“人工智能不能替代良好的人类判断力,目前几乎没有选择来对抗不良的人工智能生成医疗建议或追究人工智能提供商的责任。”哈佛法律与技术期刊的管理编辑马修·钟(Matthew Chung)在一篇文章中写道。你不仅可能会接受到无法处理你问题的治疗,而且如果出现问题,你也没有任何法律追索权。
ChatGPT 没有医患保密协议
诊断错误是一回事,但隐私呢?作为寻求心理治疗帮助的人,你肯定不希望你的个人信息在全球范围内传播。使用 ChatGPT 时,这种情况可能会发生。该平台在过去曾被入侵,黑客们也因为你想用来进行治疗的平台而变得越来越先进。此外,ChatGPT 不符合 HIPAA 标准,这是一个很好的起点。鉴于心理治疗的高度敏感性和人工智能聊天机器人的相对缺乏安全性,仅隐私风险本身就值得投资于真正的心理治疗师而不是 ChatGPT。
ChatGPT 缺乏同理心
我们会是第一个承认人工智能在过去几年中取得了巨大进步的人。它已经变得如此出色,以至于许多用户甚至忘记了他们正在与人工智能聊天机器人对话。尽管人工智能与人类之间的界限比以往任何时候都更加模糊,但专家们很快指出,人工智能还远远没有先进到能够处理人类体验的所有细微之处,特别是在心理治疗方面。
“人工智能在收集大量知识方面做得非常好。但目前,它还没有能力了解你作为一个独特个体的具体需求。”美国咨询协会人工智能兴趣网络联合主席奥利维亚·乌瓦马霍罗·威廉姆斯博士(Olivia Uwamahoro Williams, PhD)在接受 Health.com 采访时说。
心理治疗不仅仅是获取有关心理健康的信息并将其应用到自己的生活中。它的设计是为了帮助你与一个有资格提供有价值见解的人建立信任关系。ChatGPT 以及所有人工智能聊天机器人都不具备这种能力,而且目前尚不清楚它们是否会具备这种能力。
(全文结束)

