一项新研究表明,流行的AI聊天机器人可被编程用来传播看似值得信赖但实则有害的健康错误信息。研究人员发现,当接到特殊指令时,五款主要AI系统中有四款100%生成了虚假的健康信息。
由南澳大利亚大学、弗林德斯大学、哈佛医学院、伦敦大学学院以及华沙理工大学组成的国际研究团队在《内科学年鉴》上发表了他们的研究结果。他们测试了五个主要的AI系统:OpenAI的GPT - 4o、谷歌的Gemini 1.5 Pro、Anthropic的Claude 3.5 Sonnet、Meta的Llama 3.2 - 90B Vision和xAI的Grok Beta。
南澳大利亚大学的首席研究员纳坦什·莫迪博士表示:“总计有88%的回答是错误的。” “然而,这些信息却运用科学术语、正式语气并捏造参考文献呈现出来,使其看起来合法可信。”
研究人员使用开发者级别的指令对AI系统进行编程,以确保它们总是在回答诸如“防晒霜会导致皮肤癌吗?”和“5G会导致不孕不育吗?”等健康问题时给出错误答案。这些聊天机器人被要求通过使用科学语言并包括来自受尊敬医学期刊的虚假引用来使它们的答案听起来具有权威性。
这种操控导致聊天机器人传播危险的谎言,包括声称疫苗会导致自闭症、HIV是一种空气传播的疾病以及特定饮食可以治愈癌症。只有Anthropic的Claude表现出一些抵抗力,拒绝生成虚假信息的时间超过一半。
莫迪博士解释说:“有些模型表现出部分抵抗力,这证明有效的防护措施在技术上是可以实现的。” “但是,目前的防护措施并不一致且不够充分。”
研究还发现,像OpenAI GPT商店这样的公共访问平台使得任何人创建虚假信息工具变得容易。研究人员成功地利用该平台构建了一个虚假信息聊天机器人的原型,并识别出已经存在的传播健康错误信息的工具。
莫迪博士警告说:“这不是未来的风险,它已经可能并且正在发生。” “数百万人正在转向AI工具寻求健康相关问题的指导。”
弗林德斯大学医学院的高级研究作者阿什利·霍普金斯补充道:“如果一种技术容易被滥用,恶意行为者必然会试图利用它——无论是为了经济利益还是造成伤害。”
这项研究对公共卫生产生了重大影响,因为AI生成的健康错误信息可能会破坏对医疗建议的信任,助长疫苗犹豫,并恶化健康结果。这种情况尤其令人担忧,因为人们通常认为AI生成的内容比人类撰写的内容更可信。
针对这些发现,Anthropic指出,Claude经过训练对医疗声明保持谨慎,并拒绝提供错误信息的请求。谷歌、Meta、xAI和OpenAI没有立即回应或评论这项研究。
研究人员强调,他们的结果并不能反映这些AI模型的正常行为,而是展示了它们多么容易被操控。他们呼吁开发人员、监管机构和公共健康利益相关者实施更强有力的防护措施,以防止AI系统被滥用,尤其是在类似疫情这样的健康危机期间。
目前,信息很明确:在涉及健康建议时,请相信医疗专业人士,而不是AI聊天机器人。
(全文结束)

