美国心理学会(American Psychological Association, APA)周二发布了一份健康建议,警告生成式AI开发者应采取措施,确保其工具的使用不会对年轻用户造成伤害。
该报告由一个心理学专家咨询小组编写,呼吁科技公司确保在模拟关系中设置界限,创建适合年龄的隐私设置,并鼓励健康的AI使用方式等。APA过去也曾发布过类似的技术建议。去年,该组织建议家长限制青少年接触社交媒体影响者和生成式AI制作的视频。2023年,它还警告了社交媒体使用对年轻人可能造成的危害。
“就像社交媒体一样,AI既不是天生的好也不是坏,”APA心理学首席Mitch Prinstein在一份声明中说。“但我们已经看到一些青少年与聊天机器人发展出不健康甚至危险的‘关系’的例子。有些青少年甚至不知道他们在与AI互动,这就是为什么开发者现在必须设置防护措施。”
近年来,像OpenAI的ChatGPT和谷歌的Gemini这样的人工智能工具的迅猛发展,给心理健康带来了新的且严重的挑战,尤其是在年轻用户中。人们越来越多地像与朋友交谈一样与聊天机器人交流,分享秘密并依赖它们作为伴侣。虽然这种使用方式可以在一定程度上对心理健康产生积极影响,但专家表示,它也可能有害,会强化有害行为或提供错误的建议。(披露:CNET的母公司Ziff Davis于今年4月起诉OpenAI,指控其在训练和运营AI系统时侵犯了Ziff Davis的版权。)
APA关于AI使用的建议
该组织提出了几种确保青少年安全使用AI的方法,包括限制访问有害和虚假内容,保护数据隐私和年轻用户的肖像权。
成年人和年轻人的一个关键区别在于,成年人更有可能质疑AI输出的准确性和意图。而年轻人(报告将青少年定义为10至25岁之间)可能无法以适当的怀疑态度对待这些互动。
与聊天机器人或角色扮演工具Character.ai等人机交互可能会取代人们在成长过程中学习的重要现实世界社交关系。“早期研究表明,对AI生成的角色产生强烈的依恋可能会导致学习社交技能和发展情感联系方面的困难,”报告指出。
达特茅斯大学生物医学数据科学和精神病学副教授Nick Jacobson(他并未参与撰写该报告)表示,十几岁到二十几岁的人正在养成习惯和社会技能,这些技能将伴随他们进入成年期,社交方式的变化可能会对他们产生终生影响。“这些发展阶段可以成为未来发生的事情的模板,”他说。
APA报告呼吁开发者创建防止侵蚀人际关系的系统,例如提醒用户机器人不是真人,并提出监管变化以保护年轻人的利益。
其他建议还包括,针对成人和儿童使用的工具应有所不同,如默认设置适合年龄的选项,并设计得不太具说服力。系统应有人类监督和密集测试,以确保其安全性。
APA表示,学校和政策制定者应优先进行AI素养教育,并教授如何负责任地使用这些工具。这应包括讨论如何评估AI输出中的偏见和不准确信息。“这种教育必须使年轻人具备理解AI是什么、它是如何工作的、其潜在的好处和局限性、个人数据隐私问题以及过度依赖的风险的知识和技能,”报告说。
识别安全和不安全的AI使用
Jacobson表示,该报告展示了心理学家们在努力应对一种新且快速发展的技术如何影响那些最易受到潜在发育危害的人的心理健康的问题。
“[AI]对社会发展的细微影响非常广泛,”他告诉我。“这是一种新技术,可能在对人类发展的影响方面与互联网一样重要。”
Jacobson表示,AI工具可以对心理健康有益,也可以有害。他和其他达特茅斯大学的研究人员最近发布了一项关于AI聊天机器人的研究,显示该机器人在提供治疗方面显示出希望,但它专门设计遵循治疗实践,并受到严格监控。他表示,更通用的AI工具可能会提供错误信息或鼓励有害行为。他指出了最近ChatGPT模型中的奉承问题,OpenAI最终撤回了这一功能。
“有时这些工具会以非常令人感到被认可的方式连接,但有时它们的行为可能会非常有害,”他说。
Jacobson表示,科学家们继续研究AI使用的心理影响并向公众传授他们的发现非常重要。
“这个领域的进展如此之快,我们需要给科学一些追赶的时间,”他说。
APA提供了家长可以采取的一些建议,以确保青少年安全使用AI,包括解释AI的工作原理,鼓励人与人之间的互动,强调健康信息的潜在不准确性,并检查隐私设置。
(全文结束)

