在新冠疫情之前,甚至在人工智能普及之前,中国的研究人员就发现了一种规律:人们在社交媒体上表达最深层的感受。研究人员发现,部分人表达的不仅是悲伤情绪,还公开流露结束生命的意愿。面对海量社交媒体帖子,研究人员开始构建计算机模型,以筛选数千条内容并标记出需转交临床医生的少数关键信息。
费尔菲尔德大学(Fairfield University)查尔斯·F·多兰商学院商业分析副教授、人工智能与技术研究所所长陶杰(Jie Tao)表示,尽管他的研究专长——机器学习、人工智能和自然语言处理——正变得日益重要,但他感到自己未能产生实际影响。“做研究确实能带来满足感,”他说,“但我在想,如果连我母亲都不会读的论文有什么意义?这太荒谬了。如果无人阅读,研究就毫无价值。”
自2015年加入费尔菲尔德大学以来,陶杰承诺运用自身技能造福社会。在新冠疫情期间封锁导致人们孤立之际,陶杰团队基于中国早期研究进行扩展,开发出一款AI模型,能够以惊人准确度识别社交媒体帖子中的自杀意念。该模型被编程用于扫描Reddit、X和新浪微博(Sina Weibo)等六个常用社交平台,搜寻特定短语及其组合,标记可能指向有自杀倾向用户的帖子,随后提醒人类临床医生跟进并在必要时干预。
中国研究人员最初对真正考虑自杀的社交媒体帖子识别准确率约为70%,陶杰指出这导致大量误报。陶杰使用相同社交数据池测试其AI模型,发现其对真实且紧迫的自杀意念识别准确率高于人工筛查。“我们通过该工具将准确率提升至80%多,接近90%。”他说。中国研究人员每周约向心理医生转介5例;而陶杰的工具“将数量提升至近25例”。
陶杰表示,该模型名为“基于知识增强的Transformer自杀意念检测方法”(Knowledge-Enhanced Transformer-Based Approach to Suicidal Ideation Detection from Social Media Content,简称KETCH),需对人工智能的“黑箱”进行所谓“脑外科手术”。“它实际上无法理解反讽或讽刺——这些是人类擅长的领域,”他说,“尽管有些人比其他人更擅长,但总体而言我们远胜于AI。”陶杰通过注入心理咨询师的规则和词典集,帮助AI判断某人是否在开玩笑表达。“我们要求AI自我评估决策的置信度,并以此作为控制依据,”他说,“若置信度不高,我们会弱化该决策的权重。”
伦理问题
纽约大学朗格尼医学中心医疗伦理部门创始人、里奇菲尔德镇(Ridgefield)居民亚瑟·卡普兰(Arthur Caplan)指出,自杀是“重大的公共卫生挑战”,主要障碍之一是心理健康服务提供者严重短缺。“如果康涅狄格州的家长说‘我孩子似乎有问题,想让他看治疗师’,可能会被告知等待名单长达一年,”卡普兰说,“处理青少年心理健康问题的心理学家和精神科医生实在不足。”因此,能扫描公开社交媒体帖子以定位严重心理健康问题人群的人工智能可能成为助力,但卡普兰也提出担忧:同意权问题值得关注。尽管该工具仅分析公开帖子,但他质疑用户是否应被要求授权AI扫描其内容。“任何成年人都可对TikTok等平台声明‘我不愿你转售我的信息,也不愿你提供给扫描心理健康数据的程序’,”他说,“若你我无此权利,立法机构需就此展开充分辩论。”卡普兰还追问:“若程序出错且处理不当,责任应由谁承担?”
心理健康服务提供商Spring Health首席产品官吉约·马修(Gijo Mathew)表示:“人工智能的发展速度已超过我们设定明确护栏的能力。”该公司于10月召集了专注于AI与心理健康安全的伦理委员会,成员包括保险公司、医疗从业者、研究团体及耶鲁医学院等机构的研究人员和临床医生。马修称,该委员会的首要任务是创建评估“心理健康领域AI工具安全性、伦理性和临床有效性”的框架,目标是“建立安全与性能的通用标准,使心理健康AI创新能负责任且自信地推进”。他强调:“在心理健康领域,技术失误不仅是系统故障,更是人性失误。”
陶杰不回避伦理质疑。例如,若患者被错误联系,可能引发足够骚动而诱发自杀意念,导致误报升级;或AI可能遗漏人类临床医生本可察觉的求助信号。但他认为模型越准确越好。“两类错误都极为可怕,”陶杰说,“尽管相信更高准确率是解决方案。系统的最终保障在于确保其过度全面——既不打扰无自杀意图者(即使只是玩笑),也不遗漏真正计划自杀者。”
马修认为人类干预至关重要:“AI不会取代治疗师或精神科医生,但将改变他们的工作方式。未来将是AI辅助的人类主导诊疗——提升治疗有效性、连续性和可及性的工具。”然而技术进步速度已超过相关伦理与法律框架。“诊断心理健康问题复杂且高度个人化,”马修指出,“我们正超前于监管,这使得负责任的自我治理至关重要。心理健康数据属于最敏感信息,而现行法律未针对学习适应型AI系统设计。在政策跟上之前,企业与临床领导者必须为安全性、问责制和可解释性设定高标准。”
陶杰强调,其AI模型并非旨在取代心理学家,而是临床医生使用的辅助工具。“医疗服务提供方可将这些工具整合至平台,确保其对终端用户——即消费者——可见且透明。”
下一步计划
陶杰团队正努力提升自杀意念检测模型的准确性,同时计划扩展其应用范围。“我们还面临抑郁症、注意力缺陷多动障碍(ADHD)和创伤后应激障碍(PTSD)等问题,能否将此模型推广至更广泛的心理健康领域?”他问道,并表示正将诊断模型延伸至脑科学之外。在父亲确诊癌症后,陶杰尝试自学相关知识却难以追踪最新研究,遂决定构建一款能搜索、验证并将发现转化为易懂语言的AI模型。“这款AI代理每天自主搜索互联网,了解今日新动态:新药物试验、实验性治疗、FDA新批准,”陶杰说,“实际上是多款AI协同工作——部分负责研究,部分验证成果,部分确保内容通俗易懂。”
任何有自残念头或寻求免费保密心理健康支持的人,均可拨打或发送短信至美国国家自杀预防热线988,或致电800-273-8255(西班牙语服务:888-628-9454;聋哑及听力障碍人士请先拨打711再转988)。
【全文结束】

