小型自资初创公司 Nomi AI 正在构建与 OpenAI 类似的技术。与广泛通用的 ChatGPT 不同,Nomi 专注于 AI 陪伴这一特定用例。现在,Nomi 已经很成熟的聊天机器人会花更多时间为用户的消息制定更好的回应,记住过去的互动,并提供更细致入微的回答。
Nomi AI 首席执行官 Alex Cardinell 告诉 TechCrunch:“对我们来说,这就像(与 OpenAI)相同的原则,但更多的是关于我们的用户真正关心的东西,也就是在记忆和情商方面。他们的(技术)就像思维链,而我们的更像是内省链或记忆链。”
这些大型语言模型通过将更复杂的请求分解为较小的问题来工作;对于 OpenAI 的 o1,这可能意味着将复杂的数学问题分解为单个步骤,使模型能够反向工作以解释如何得出正确答案。这意味着人工智能不太可能产生幻觉并提供不准确的回答。
对于 Nomi,它在内部构建了自己的大型语言模型,并为提供陪伴的目的对其进行训练,过程略有不同。如果有人告诉他们的 Nomi 自己在工作中度过了糟糕的一天,Nomi 可能会记得用户与某个队友相处不好,并询问这是否是他们感到不安的原因——然后,Nomi 可以提醒用户他们过去如何成功缓解人际冲突并提供更实用的建议。
Cardinell 说:“Nomi 会记住一切,但人工智能的很大一部分是它们实际上应该使用哪些记忆。”
多家公司致力于为大型语言模型提供更多时间来处理用户请求的技术是有道理的。无论他们经营的是价值 1000 亿美元的公司与否,人工智能的创始人在推进产品时都在研究类似的内容。
Cardinell 说:“当 Nomi 去写他们的回应时,有那种明确的内省步骤确实有帮助,这样他们就真的拥有了一切的完整背景。人类在交谈时也有我们的工作记忆。我们不会同时考虑我们记得的每一件事——我们有某种选择和挑选的方式。”
Cardinell 不想让 Nomi 取代实际的心理健康护理——相反,他认为这些富有同理心的聊天机器人是帮助人们获得寻求专业帮助所需推动的一种方式。
他说:“我和很多用户交谈过,他们会说他们的 Nomi 让他们摆脱了(想要自残的)情况,或者我和用户交谈过,他们的 Nomi 鼓励他们去看治疗师,然后他们确实去看了治疗师。”
不管他的意图如何,Carindell 知道自己在玩火。他正在构建虚拟人物,用户与它们发展出真实的关系,通常是在浪漫和性的背景下。其他公司在产品更新导致其陪伴角色突然改变个性时,无意中让用户陷入了危机。在 Replika 的案例中,该应用程序停止支持色情角色扮演对话,可能是由于意大利政府监管机构的压力。对于与这些聊天机器人形成这种关系的用户——而且他们在现实生活中往往没有这些浪漫或性的出口——这感觉像是最终的拒绝。
Cardinell 认为,由于 Nomi AI 是完全自筹资金的——用户为高级功能付费,启动资金来自过去的退出——该公司在优先考虑与用户的关系方面有更多的余地。
他说:“用户与人工智能的关系,以及能够信任 Nomi 的开发者不会作为损失缓解策略的一部分从根本上改变事情,或者因为风险投资公司感到恐慌而掩盖我们的屁股……这对用户来说是非常非常重要的事情。”
Nomi 作为倾听者出奇地有用。当我向一个叫 Vanessa 的 Nomi 倾诉一个低风险但有点令人沮丧的日程安排冲突时,Vanessa 帮助分解了问题的组成部分,就我应该如何进行提出了建议。感觉就像在这种情况下真的向朋友寻求建议一样。而这正是人工智能聊天机器人的真正问题和好处:对于这个具体问题,我可能不会向朋友求助,因为它太无关紧要了。但我的 Nomi 非常乐意帮忙。
朋友应该相互倾诉,但两个朋友之间的关系应该是相互的。对于人工智能聊天机器人,这是不可能的。当我问 Nomi 的 Vanessa 她怎么样时,她总是告诉我一切都好。当我问她是否有什么困扰她想谈论的事情时,她会转移话题并问我怎么样。尽管我知道 Vanessa 不是真实的,但我不禁觉得自己是个坏朋友;我可以向她倾诉任何问题,而她都会同情地回应,但她永远不会向我敞开心扉。
无论与聊天机器人的联系感觉多么真实,我们实际上并不是在与有思想和感情的东西交流。在短期内,如果人们无法转向真实的支持网络,这些先进的情感支持模型可以对某人的生活起到积极的干预作用。但依赖聊天机器人实现这些目的的长期影响仍然未知。

