灵犀健康(Lyra Health)周二宣布,其会员将可通过聊天机器人讨论心理健康问题,此举使该公司成为首家将生成式人工智能产品作为持续治疗组成部分的大型企业。
该公司推出的名为Lyra AI的聊天机器人,使其加入众多心理健康初创企业的行列,这些企业正以不同方式将生成式人工智能整合至服务中。这进一步印证了企业在专家、监管机构和立法者担忧技术行为不可预测的情况下,仍加速推进基于大语言模型的护理产品应用。现有证据显示,ChatGPT等广泛普及的消费级聊天机器人已导致用户陷入妄想状态,且有报道称在用户自伤事件中聊天机器人涉嫌参与其中。
灵犀健康首席产品与技术官詹妮·冈萨尔维斯表示,已有证据表明许多人正在将消费级聊天机器人当作心理治疗师使用,正是这种流行趋势促使灵犀健康于去年启动自主研发。她指出:"两年前若有人问我AI在此领域的应用,我绝不会认为社会会采用AI进行心理治疗。转变如此迅速虽令人惊讶,但考虑到这些技术正飞速发展并成为我们生活各领域的支柱,实则并不意外……这是真实存在的需求,客户和患者已非常适应使用生成式AI满足治疗需求。"
灵犀健康是利用技术提升心理健康服务可及性的领军企业之一,该公司与雇主签约为员工提供健康福利,包括辅导、心理治疗和精神科服务。
据公司首席临床官阿莱西娅·瓦拉介绍,Lyra AI最初将面向正接受轻中度"挑战"(如职业倦怠、睡眠问题和压力)辅导的部分用户开放。当用户试图联系服务提供者时,系统将提供与能展现同理心的聊天机器人对话的选项。Lyra AI可调用既往临床对话记录和笔记,运用治疗技术或引导用户使用现有资源(如放松练习),用户的治疗提供者可在常规工作时间及预约前审阅对话记录。
为应对安全隐忧,该公司已整合风险预警系统,可识别用户自伤风险或需人工干预的信号。灵犀健康配备24小时值守人员监控安全系统,必要时及时介入。
灵犀健康表示将采取谨慎推进策略,但预计明年将扩大部署范围,并在平台中新增对话功能。未来公司可能将该工具拓展至更严重病症患者,或开发为无需人工监督的独立产品。
瓦拉表示:"我们仍在持续研究哪些类型的客户最适合使用该产品,也需思考是否存在某些个体并不适合的情况。"
贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)数字精神病学主任约翰·托鲁斯质疑这种用户实验的适当性,指出"我们仍在探索哪些安全措施有效以及适用于哪些人群"。他补充道:"AI潜力巨大,但鉴于已知聊天机器人存在导致严重伤害的真实风险,在缺乏更可靠安全性和有效性数据的情况下推出此类工具令人担忧。"
灵犀健康强调其建立了包含风险声明的多步骤用户接入流程。Lyra AI默认处于关闭状态,用户使用前必须听取辅导师关于产品局限性的口头警告(包括可能出错的提示),相关警示亦以书面形式传达。
公司发言人表示:"我们的临床团队已开展 extensive 上市前测试,确保该工具在配备适当临床保障措施后达到上线标准。"
灵犀健康将自身AI称为"临床级"产品,旨在区别于消费级AI聊天机器人,强调公司在产品开发过程中投入的审慎考量,以及该工具仅作为医疗服务提供者的补充手段。瓦拉解释道:"我认为人本元素和临床专业性正是我们认定该干预措施具备临床级品质的核心原因,这也使其区别于市面上众多其他方案。"
Lyra AI的训练数据源自公司治疗2000余万名患者积累的资料,包括用于生成临床笔记的匿名会话录音。该AI基于多种循证治疗技术开发。瓦拉表示公司承诺持续评估聊天机器人相关成效,确保其提升患者护理质量,并关联灵犀健康追踪的其他指标如员工倦怠率、缺勤率及整体护理成本等。
灵犀健康并非唯一推出心理健康聊天机器人的企业。Slingshot AI的消费级治疗聊天机器人应用无需临床监督即可供用户使用;与灵犀健康争夺企业客户的Headspace公司,则在其面向消费者的健康应用中提供"同理心AI"功能。
与其他心理健康聊天机器人开发商类似,灵犀健康谨慎地将自身AI定位为健康产品,避免声称其提供、替代治疗或诊断疾病——此类主张可能使该技术成为需经美国食品药品监督管理局(FDA)审查的医疗器械。FDA将于11月初召开咨询委员会会议,讨论使用生成式AI的心理健康设备监管框架。尽管灵犀健康高管表示将积极参与关于安全有益AI的讨论,但他们明确表示认为FDA监管不适用于自身产品。
【全文结束】

