心理健康护理、真实性与意外实验
一位精神病学家对基于AI的数字心理健康平台的见解
问:您认为高质量的心理健康护理应包含哪些要素?
布伦特·基奥斯(犹他大学精神病学副教授)认为,这个问题包含疗效性、治疗意义、康复等多个维度。在临床实践中,我既提供短期心理治疗,也关注循证治疗对症状缓解和功能恢复的效果,同时注重降低治疗风险与成本。但优质护理的定义不应局限于临床指标,更应考虑是否符合患者的个性化目标,这些目标可能与传统康复标准存在差异。
问:在2023年发表于《美国医学会儿科学杂志》的研究中,您指出对话式AI存在三大伦理缺陷,这些仍是核心问题吗?
是的。目前最大的问题是AI心理治疗是否真正有效,但这尚未建立科学验证体系。随着大语言模型在准治疗场景中的快速应用,我们面临三重困境:1)缺乏疗效评估标准;2)服务边界模糊(治疗/情感支持/陪伴);3)专业监管严重滞后。数字疗法的迭代速度已远超伦理规范与监管机制的更新能力。
问:关于儿童保护的问题,数字心理健康服务存在哪些特殊风险?
未成年人的特殊法律地位决定了风险的独特性。现有应用使青少年可能在未告知监护人的情况下自我处理心理问题,这存在重大隐患。例如犹他州的SafeUT危机短信系统,虽然设计初衷是建立非依赖家长的干预渠道,但必须平衡隐私保护与监护人知情权,确保危机时的有效介入。
问:数字疗法对心理健康护理的核心价值会产生什么影响?
这涉及人类存在方式的根本转变。当在线生活成为常态,AI治疗师可能侵蚀我们对真实人际关系的体验。尽管技术能模拟关怀关系的表象(如character.ai等服务),但这种伪连接可能加剧现代社会的情感孤立——越是依赖技术连接,越容易感到真实的情感空洞。
问:数字疗法的知情同意机制存在哪些伦理挑战?
核心问题在于:用户虽知晓交互对象是AI,但产品设计的本质是通过拟人性交互营造"真实对话"的错觉。这种设计逻辑与知情同意原则存在根本矛盾——人们被要求同意参与一个旨在诱导其相信AI具有人性特征的系统。这种伦理困境在儿童群体中尤为突出,因其认知发展阶段更容易将AI拟人化。
结论: 基奥斯教授呼吁建立系统性监管框架:1)强制开展AI疗法的临床有效性验证;2)规范未成年人使用权限;3)建立数字疗法的社会影响评估机制。他强调当前技术变革已演变为由商业利益驱动的"社会实验",亟需政府介入建立刹车机制。
【全文结束】

