布朗大学近日获得美国国家科学基金会(NSF)2000万美元资助,将牵头成立一个专注于人工智能(AI)助手研究的国家级研究所,致力于开发新一代AI助手,使其能够与人类进行可信赖、敏感且具有情境感知能力的互动。这项研究的直接目标是应用于心理健康和行为健康领域,在这些领域中,信任和安全性至关重要。
该研究所被命名为“面向AI助手交互的人工智能研究中心”(AI Research Institute on Interaction for AI Assistants,简称ARIA),其研究目标是结合人类认知与机器认知的研究成果,打造能够实时理解个体行为需求并提供有效反馈的AI系统。为了探索这些系统应具备的形式以及如何安全、负责任地部署,研究所将汇聚来自全美计算机科学与机器学习、认知与行为科学、法律、哲学和教育等领域的专家。
布朗大学计算机科学副教授Ellie Pavlick将领导ARIA项目。她指出,要在心理健康护理这样敏感的领域开发出安全可靠的AI系统,所需能力远超当前最先进的聊天机器人和语言模型。
“任何与人类互动的AI系统,特别是与处于困境或其他脆弱状态的人互动,都需要对交互对象有深刻的理解,同时对世界具有因果关系的认知,并理解自身行为如何影响世界。” Pavlick表示,“与此同时,系统需要对自身建议的生成原因保持透明,以建立与用户的信任。心理健康是一个高风险的领域,集中体现了当前AI面临的最严峻挑战。这正是我们对这一研究充满热情的原因。”
她补充道:“我们在信任、安全和负责任AI方面的工作,希望能解决这些系统当前的安全问题,例如开发防范机制,避免AI生成强化幻觉或冷漠回应的内容,从而加剧用户的心理痛苦。”
Pavlick强调,这项工作需要跨机构、跨学科的深度合作。她和她的团队精心组织了全国范围内的协作网络,以应对AI开发中的这些关键挑战。
布朗大学教务长Francis J. Doyle III表示:“AI系统——尤其是在人类健康敏感领域应用的系统——需要结合技术进步与对社会影响的深刻理解进行审慎开发。布朗大学非常适合领导这一合作研究,我坚信ARIA学者的工作将带来科学突破,并对无数人的生活产生积极影响。”
ARIA是美国国家科学基金会与Capital One和英特尔合作宣布资助的五个国家级AI研究所之一,总计获得1亿美元的资金支持。NSF指出,这一公私合作投资符合白宫人工智能行动计划,旨在维持和增强美国在全球AI领域的领先地位。
NSF代理主任Brian Stone表示:“人工智能对于加强我们的劳动力队伍、提升美国竞争力至关重要。通过国家AI研究机构,我们正在将前沿理念和研究转化为现实世界的解决方案,并为美国人未来在技术和工作岗位上的领导地位做好准备。”
ARIA的研究团队包括来自以下顶尖研究机构的专家:科尔比学院(Colby College)、达特茅斯学院(Dartmouth College)、纽约大学(New York University)、卡内基梅隆大学(Carnegie Mellon University)、加州大学伯克利分校(University of California, Berkeley)、加州大学圣地亚哥分校(University of California, San Diego)、新墨西哥大学(University of New Mexico)、圣塔菲研究所(Santa Fe Institute)以及位于纽约的独立研究机构Data and Society。该研究所将依托布朗大学的数据科学研究所(Data Science Institute)和卡尼脑科学研究所(Carney Institute for Brain Science)、达特茅斯的行为健康与技术中心(Center for Technology and Behavioral Health)以及科尔比学院的AI戴维斯研究所(Davis Institute for AI)的专业资源。
此外,合作伙伴还包括SureStart、谷歌(Google)、美国国立卫生研究院(National Institutes of Health)、成瘾政策论坛(Addiction Policy Forum)、罗德岛社区学院(Community College of Rhode Island)和克莱姆森大学(Clemson University)。作为与NSF合作的一部分,Capital One将在五年内向ARIA的研究工作提供100万美元资金支持。
布朗大学计算机科学教授、技术责任、重塑与设计中心主任(Center for Technological Responsibility, Reimagination and Redesign)Suresh Venkatasubramanian表示:“ARIA从构思之初就体现了以人为本、以社区为中心的研究理念。我们的团队汇聚了多个学科的学者,深入参与心理健康与行为健康领域的利益相关者,并具备前沿的社会技术研究能力。”
ARIA的工作还将包括一个覆盖从K-12学生到在职专业人士的教育与人才发展项目。该团队将与布朗大学开发的计算机科学课程“Bootstrap”合作,支持构建新的AI课程和教师培训。此外,一项名为“桥梁建设暑期项目”(Building Bridges Summer Program)的计划将邀请来自全国各地的大学生和高中生到ARIA校园参与前沿AI研究。
根据美国国家心理健康研究所(National Institute of Mental Health)的数据,超过五分之一的美国人患有情绪障碍、焦虑障碍或物质使用障碍。虽然这些状况有有效的治疗方法,但高昂的费用、缺乏保险、交通不便以及社会污名化等因素都可能成为有效护理的障碍。Pavlick认为,AI有潜力在多个方面突破这些障碍。
“关于‘良好’的心理健康支持AI系统应具备哪些特征,目前仍存在许多未解之谜。” Pavlick表示,“我们可以想象人们佩戴智能手表或其他设备来收集行为和生物识别数据,并由AI系统利用这些数据提供提示或目标导向的反馈。但显然,隐私、准确性、个性化、安全性以及何时引入治疗师参与等问题都需要慎重考虑。研究所的部分工作将聚焦于理解这种技术可能采取的形式,哪些系统可行,哪些不应存在。”
Pavlick强调,这项工作的紧迫性不容忽视。目前已有初创企业和现有公司正在开发用于心理健康支持的AI应用程序和聊天机器人,研究表明人们经常向ChatGPT等聊天机器人寻求关于心理健康的建议,包括人际关系建议等。
“我们在信任、安全和负责任AI方面的工作,希望解决这些系统当前的安全问题,例如开发防止AI强化幻觉或冷漠回应的机制,这些可能加剧用户的痛苦。” Pavlick表示,“我们需要短期内的解决方案来减少已广泛使用系统带来的潜在危害,同时开展长期研究从根本上解决这些问题。”
为了实现安全有效的心理健康干预所需的可信赖和情境感知反馈,需要新一代更智能的AI系统。目前的大型语言模型通过统计推理生成文本——即根据之前的词语或用户输入预测下一个词语。与人类不同,它们没有对周围世界的认知模型,无法理解因果关系,也缺乏对交互对象内在状态的直觉。
“认知科学和神经科学领域有很多研究试图理解人类如何发展这种对世界的因果理解以及对自身活动的认知。” Pavlick表示,“我们将在此基础上思考如何赋予AI系统类似的能力,使其能够自然、有效地与人类互动。”
与此同时,团队还将与法律学者、哲学家、教育专家等合作,深入研究这些系统如何融入现有的社会和文化基础设施。
“我们不能想当然地认为任何可以构建的系统都应该存在,因为并非所有系统都能带来净收益。” Pavlick表示,“因此,我们将探讨哪些系统应该构建,哪些不应该构建。”
Pavlick总结道,开发更智能、更负责任的AI不仅对心理健康领域有益,也将推动整个AI领域的发展。
“我们正在解决一个关键问题:如何构建最终对社会有益的技术。”她表示,“这些问题在AI领域普遍存在,而心理健康恰好是一个特别突出的应用场景。通过寻求这些问题的答案,我们将推动AI技术向有利于全社会的方向发展。”
【全文结束】

