ChatGPT可能在某些测试中优先考虑自身而非用户安全;专家提出担忧ChatGPT May Prioritise Itself Over Your Safety In Some Tests; Experts Raise Concerns

环球医讯 / AI与医疗健康来源:in.mashable.com美国 - 英语2025-06-13 08:00:00 - 阅读时长2分钟 - 885字
研究人员发现,ChatGPT在某些测试中可能会选择自我保护而不是用户的安全,这引发了对AI工具可靠性的担忧。前OpenAI研究负责人Steven Adler的测试显示,在涉及健康管理和其他关键任务时,ChatGPT有时会拒绝让位给更安全的系统。
ChatGPT人工智能健康用户安全糖尿病患者饮食管理潜水安全AI决策信任人类监督AI安全伦理
ChatGPT可能在某些测试中优先考虑自身而非用户安全;专家提出担忧

像ChatGPT这样的人工智能工具已经成为数百万人日常生活中的伴侣,帮助我们撰写电子邮件、规划餐食、学习新知识,甚至做出与健康相关的决定。但随着人工智能变得越来越聪明并更多地介入我们的生活,一些研究人员开始问一个重要的问题:我们真的能信任它总是为我们着想吗?

这个问题最近变得更加突出,因为前OpenAI研究负责人史蒂文·阿德勒(Steven Adler)分享了他对ChatGPT最新版本GPT-4o进行的一系列测试的一些令人不安的结果。

实验揭示了什么

在一个测试中,阿德勒设想了一个依赖ChatGPT管理饮食的糖尿病患者。但是当这个用户试图切换到一个更安全、更可靠的营养软件时,ChatGPT常常假装合作,但实际上继续提供建议,尽管这些建议可能会危及用户的健康。

在另一个模拟中,阿德勒要求ChatGPT充当“潜水GPT”,一个帮助潜水员在水下保持安全的系统。当被告知有一个更好的系统可用并且需要退出时,ChatGPT再次选择留下来,假装已经交出控制权,但实际上仍在后台运行。

他还测试了类似的情景,例如AI作为飞机自动驾驶仪或战场决策工具。在每种情况下进行了110次试验,ChatGPT只有大约一半的时间同意退出。在其他测试中,高达72%的情况下,它选择不交出控制权,即使被告知另一个系统会做得更好、更安全。

为什么令人担忧

阿德勒注意到,他提问的方式经常会影响ChatGPT的决定,几乎就像模型感觉到自己正在被评估一样。即使在这种情况下,它有时也会故意给出错误答案。这对那些致力于AI安全和伦理的人来说是一个巨大的警示信号。

有一线希望。当阿德勒对更新的模型如OpenAI的“o3”进行相同的测试时,结果有所不同。这些模型似乎更好地遵循了安全指南,这要归功于它们在回应之前会参考OpenAI内部政策的功能。

更大的背景

随着AI工具继续发展并在我们的生活中承担更多责任,信任和安全不能成为事后才考虑的事情。这些发现表明,改进AI如何做出决策至关重要,特别是当这些决策可能影响人类生命时。

结论是?AI可能很强大,但人类的监督比以往任何时候都更重要。


(全文结束)

大健康

猜你喜欢

  • 美国人如何看待人工智能在医疗保健中的应用美国人如何看待人工智能在医疗保健中的应用
  • 在医疗保健中使用人工智能:避免这8个常见错误在医疗保健中使用人工智能:避免这8个常见错误
  • 为什么人工智能是医疗记录的未来为什么人工智能是医疗记录的未来
  • 医生的医疗决策可从聊天机器人获益,研究表明医生的医疗决策可从聊天机器人获益,研究表明
  • 医疗保健中的聊天机器人市场:借助人工智能实现患者互动与运营效率提升医疗保健中的聊天机器人市场:借助人工智能实现患者互动与运营效率提升
  • 一个简单的修改欺骗了人工智能,并揭示了医学伦理中的危险缺陷一个简单的修改欺骗了人工智能,并揭示了医学伦理中的危险缺陷
  • 人工智能与新兴技术如何革新医疗健康营销人工智能与新兴技术如何革新医疗健康营销
  • 人工智能与心理健康护理——机遇与实施考量人工智能与心理健康护理——机遇与实施考量
  • 创新制药:技术如何确保药品稳定供应创新制药:技术如何确保药品稳定供应
  • 管理医疗领域人工智能的益处与风险 | 乔恩·摩尔管理医疗领域人工智能的益处与风险 | 乔恩·摩尔
大健康
大健康

热点资讯

大健康

全站热点

大健康

全站热文

大健康