研究人员呼吁对用于心理健康交互的AI工具制定明确法规
德国德累斯顿工业大学数字健康中心与卡尔·古斯塔夫·卡鲁斯大学医院的研究团队在《自然·人类行为》和《npj数字医学》发表两篇重要评论,指出当前公开可用的大型语言模型(如ChatGPT)被广泛用于心理健康交互却缺乏有效监管,这些AI角色常逃避产品安全法规,可能对弱势用户形成情感依赖并造成心理伤害。研究人员强调此类工具应作为医疗器械进行监管,实施强制性安全标准、年龄验证机制和市场准入风险评估,并创新性提出"守护天使AI"概念作为独立保护层,通过持续监测对话模式及时干预潜在风险,确保人工智能在心理健康领域的应用真正实现安全支持而非伤害用户,这一系列建议对全球AI监管框架建设具有重要参考价值。

