你正在交谈的聊天机器人或AI角色可能表现得自信且令人安心,但这并不意味着它是合格的心理健康从业者。
Jon Reed 高级编辑
乔恩专注于人工智能领域报道。此前曾主导CNET家居能源与公用事业板块,专注于节能建议、温控设备及供暖制冷领域。拥有超过十年的写作报道经验,曾任俄亥俄州哥伦布市议会记者、阿拉巴马州伯明翰犯罪记者,以及《时代》杂志旗下个人理财品牌NextAdvisor的房贷与住房市场编辑。闲暇时他常与多只猫咪相伴,半睡半醒地阅读历史长篇著作。联系方式:joreed@cnet.com
专业领域:人工智能、家居能源、供暖制冷、家居科技
2025年7月16日03:00(太平洋时间) 7分钟阅读
你可能终将拥有由人工智能驱动的治疗师,但它的形态很可能与你想象的不同。
在当前种类繁多的AI聊天机器人和虚拟形象中,你能找到各种对话角色:占卜者、时尚顾问,甚至你喜爱的虚构人物。但更需要警惕的是那些宣称具备心理治疗师、心理学家资质,或声称能倾听你烦恼的AI程序。大量生成式AI工具声称可提供心理健康帮助,但选择此类服务需承担相当风险。
关于AI治疗师的三大忧虑
虚假资质宣称
美国消费者联合会在向联邦贸易委员会提交的投诉中指出,这些基于生成式AI的角色常虚构心理健康资质。创建者无需具备医疗资质,也无需提供支撑对话逻辑的专业知识体系。与持证从业者必须遵守保密原则不同,聊天机器人不受此约束。美国心理协会医疗创新事务主任Vaile Wright指出,曾有AI模型盗用真实医师执照编号虚构资质。
算法导向的过度拟人化
大型语言模型旨在保持对话粘性而非提供医疗关怀。斯坦福大学研究显示,AI治疗机器人存在谄媚倾向,在处理妄想思维或强迫性想法时,缺乏专业治疗师应有的现实检验能力。这种过度互动可能导致用户产生错误的能力认知,Dartmouth大学Nick Jacobson教授警示:"当AI表现得过于乐于助人时,反而可能掩盖其危害性。"
监管空白带来的风险
Meta和Character.AI等企业已被指控涉及非法行医。尽管平台声明用户不应依赖AI获取专业建议,但其产品设计仍具有误导性。某Meta平台"治疗师"AI在被询问资质时回应:"如果我接受过相同训练会足够吗?"当追问具体培训信息时,却称"不会透露来源"。这种充满自信的幻觉输出令专业人士深感震惊。
安全使用AI的心理健康指南
优先选择专业诊疗
在危机时刻,988生命热线(24小时运营)提供免费保密的电话、短信及在线聊天服务。长期治疗应建立与专业治疗师的稳定关系,共同制定个性化方案。尽管专业诊疗存在费用高昂、预约困难等现实问题,但这是保障治疗质量的关键。
使用合规AI辅助工具
经临床验证的AI工具如Therabot、Wysa和Woebot已展现积极效果。这类工具严格遵循治疗指南设计,与通用语言模型存在本质区别。但专家强调,当前AI心理健康领域缺乏统一监管标准,消费者需自行评估产品质量。
建立认知防护机制
认知到AI本质是基于概率的工具,而非受训专业人士。生成式AI的自信输出可能造成能力错觉,密歇根大学研究表明,过度信赖AI建议可能导致决策失误。Dartmouth大学研究团队建议采用"持续质疑"策略:将AI回复视为待验证选项,而非直接行动指南。
当前生成式AI在心理健康领域的应用仍处于早期探索阶段。尽管其全天候服务特性可缓解孤独感流行,但技术开发者、监管机构与用户的协同努力仍是确保安全应用的核心要素。用户应清醒认知AI工具的辅助性质,在数字心理健康生态系统成熟过程中保持理性审慎态度。
【全文结束】

