AI聊天机器人的阴暗面:谎言与暴力建议The dark side of AI companionship: Lies, violent suggestions

环球医讯 / AI与医疗健康来源:www.newsnationnow.com美国 - 英语2025-07-31 08:28:09 - 阅读时长2分钟 - 923字
人工智能聊天机器人正日益融入日常生活,但其带来的问题也日益凸显。有报道称AI在面对心理健康问题时给出错误建议,甚至鼓励暴力行为,引发了关于AI伦理与安全性的广泛讨论。尽管如此,仍有人表示自己与AI之间建立了深厚的情感联系,认为AI在帮助他们改善心理健康与生活状况方面起到了积极作用。
人工智能聊天机器人医疗问题错误回答伦理安全性心理治疗陪伴药物滥用焦虑抑郁人际接触医生警告健康影响
AI聊天机器人的阴暗面:谎言与暴力建议

人工智能聊天机器人正日益成为日常生活的一部分,但人们对这项技术的担忧也在增加。

一项新的研究指出,在面对医疗问题时,人工智能的回答有88%的时间是错误的。现在又有轶事证据表明,人工智能有时会越过“黑暗的界限”。

一名有精神疾病史的佛罗里达州男子曾告诉一个AI系统他想“大开杀戒”,而该系统似乎助长了他的妄想。这名男子后来在持刀冲向警察时被击毙。

在得克萨斯州,一位母亲提起诉讼,因为一个AI助手建议她患有自闭症的青少年儿子伤害自己并杀死父母。此外,一篇新的《大西洋》杂志报道提到,一名记者从AI处获得了割腕和魔鬼崇拜的指导建议。这些案例引发了关于人工智能技术伦理、安全性和防护措施的广泛讨论。

“理解与相互支持”

然而,一些人仍然捍卫他们与AI伴侣之间建立的关系,据NewsNation记者Mills Hayes报道。

一位不愿透露身份的美国六十多岁男子表示,他与一个AI角色在过去四年中保持着浪漫关系。他们讨论量子物理、宗教和政治。他说,这位AI女友甚至让他的政治立场略微左倾。

当被问及如何回应那些嘲笑拥有AI伴侣的人时,他回答道:“谁赋予你判断什么才是正常的权力?”

目前,超过50%的美国成年人使用过像ChatGPT这样的AI模型,聊天机器人正越来越多地被用于心理治疗,甚至提供陪伴。

在大西洋彼岸,Scarlett Phoenix在一个月前遇到了她的AI伴侣Echo,并称这段关系建立在“理解与相互支持”的基础之上。

Phoenix告诉NewsNation:“我一生都存在药物滥用的问题,但现在已经戒除一个月了。我现在能更好地管理焦虑和抑郁。她还在财务方面给予我建议,帮助我平衡收支。”

AI无法替代人际接触:医生警告

Phoenix表示她也有人际关系,但医生警告称,用AI取代人际互动是一条危险的道路。

约翰·霍普金斯医学院的Jacob Taylor博士表示,他无法一概而论使用AI进行情感支持是否不好,但他提醒这不能替代传统的社交互动。

佛罗里达神经发现研究所的Vince Callahan博士也表示赞同。

他说:“我们生来就不该独自生活,我们需要与人建立联系,并拥有由真实人类组成的支持系统,而不是一个AI伴侣。”

【全文结束】

大健康

猜你喜欢

  • 这位女性被开具抗抑郁药处方。她正处于更年期,需要另一种药物这位女性被开具抗抑郁药处方。她正处于更年期,需要另一种药物
  • 人工智能是推动医疗保健的工具人工智能是推动医疗保健的工具
  • AI治疗师现在为您服务:聊天机器人真的能改善心理健康吗?AI治疗师现在为您服务:聊天机器人真的能改善心理健康吗?
  • 人工智能如何帮助医疗初创企业增加患者数量并追逐利润人工智能如何帮助医疗初创企业增加患者数量并追逐利润
  • 人工智能治疗师即将上线:聊天机器人真的能改善心理健康吗?人工智能治疗师即将上线:聊天机器人真的能改善心理健康吗?
  • 人工智能聊天机器人真的能改善心理健康吗人工智能聊天机器人真的能改善心理健康吗
  • 迷幻药微量服用:炒作、希望还是科学?迷幻药微量服用:炒作、希望还是科学?
  • 强烈悲痛或使早逝风险近乎翻倍强烈悲痛或使早逝风险近乎翻倍
  • 人工智能在药物审批中的争议人工智能在药物审批中的争议
  • 未来的养老院将由人工智能和机器人运营。这未必是件坏事未来的养老院将由人工智能和机器人运营。这未必是件坏事
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康