堪萨斯大学生命跨度研究所的一项新研究揭示了人工智能生成的错误信息的一个关键漏洞,以及一个可能的应对模型。该研究发表在《儿科心理学杂志》上,揭示了当作者身份未知时,家长在寻求儿童医疗信息时更信任AI而非医疗专业人士,并认为AI生成的文本具有可信度、道德性和可信赖性。
“当我们开始这项研究时,正值ChatGPT刚刚推出,我们担心家长会如何利用这种新的、简便的方法来收集儿童的健康信息,”主要作者、堪萨斯大学临床儿童心理学博士生Calissa Leslie-Miller说。“家长们经常上网寻求建议,所以我们想了解使用ChatGPT会是什么样子,我们应该担心什么。”
Leslie-Miller及其同事对116名年龄在18至65岁的家长进行了横断面研究,这些家长被提供了与婴儿睡眠训练和营养等相关的健康文本。他们审阅了由ChatGPT和医疗专业人士生成的内容,但参与者并未被告知作者身份。
“参与者根据感知的道德性、可信度、专业知识、准确性和他们依赖信息的可能性对这些文本进行了评分,”Leslie-Miller说。
据堪萨斯大学的研究人员称,在许多情况下,家长们无法区分由ChatGPT生成的内容和专家生成的内容。当评分有显著差异时,ChatGPT被评为比专家生成的内容更可信、准确和可靠。
“这一结果让我们感到惊讶,尤其是因为这项研究是在ChatGPT可用的早期进行的,”Leslie-Miller说。“我们开始看到AI正在以不那么明显的方式融入人们的生活中,人们甚至可能无法辨别自己阅读的是AI生成的文本还是专家内容。”
Leslie-Miller表示,这些发现令人担忧,因为生成式AI现在支持看起来来自应用程序或互联网的回应,但实际上是在与AI对话。
“在研究期间,一些早期版本的AI输出包含了错误信息,”她说。“这令人担忧,因为我们知道像ChatGPT这样的AI工具容易出现‘幻觉’——即系统因缺乏足够背景而产生的错误。”
尽管ChatGPT在许多情况下表现良好,Leslie-Miller表示,AI模型并不是专家,可能会生成错误信息。
“在儿童健康领域,后果可能是严重的,我们必须解决这个问题,”她说。“我们担心人们可能会越来越多地依赖AI获取健康建议,而没有适当的专家监督。”
Leslie-Miller的合著者包括科罗拉多州奥罗拉市科罗拉多儿童医院和科罗拉多大学医学院的Stacey Simon;密苏里州堪萨斯城儿童慈悲医院健康生活方式和营养中心的Kelsey Dean;Overland Park的Altasciences Clinical Kansas的Nadine Mokhallati博士;以及堪萨斯大学临床儿童心理学副教授兼生命跨度研究所副科学家Christopher Cushing。
“研究结果表明,经过提示工程的ChatGPT能够影响药物、睡眠和饮食决策的行为意向,”作者报告称。
Leslie-Miller表示,儿科健康信息的重要性突显了这一问题,但生成式AI可能出现错误且用户可能不具备识别不准确性所需的专业知识,这一可能性延伸到所有主题。
她建议AI信息的消费者需要谨慎,只依赖于与非生成式AI来源的专业知识一致的信息。
“信息源的可信度仍然存在差异,”她说。“寻找集成了一层专业知识的AI系统,就像我们一直被教导要谨慎使用维基百科一样,因为它并非总是经过验证。同样的原则现在也适用于AI——寻找更有可能值得信赖的平台,因为它们并不都是平等的。”
确实,Leslie-Miller表示,只要家长明白需要咨询医疗专业人士,AI可以成为家长寻找健康信息的有益工具。
“我相信AI有很大的潜力可以被利用。特别是,它可以以前所未有的速度生成信息,”她说。“但重要的是要认识到AI不是专家,它提供的信息并非来自专家来源。”
(全文结束)

