新的研究令人担忧地揭示,寻求孩子医疗信息的父母更信任人工智能,而不是真正的人类专业人士。这是非常危险的。
这项来自堪萨斯大学生命跨度研究所的研究发表在《儿科心理学杂志》上,指出即使技术提供的信息来源未知,父母也更信任AI而非人类专家。更令人担忧的是,父母还评定AI生成的文本具有可信度、可靠性和道德性。
“ChatGPT和其他大型语言模型有潜力彻底改变在线健康信息的格局,”该研究表示,“然而,缺乏特定领域的专业知识和已知的大型语言模型错误引发了人们对这些工具生成的内容被广泛用于父母为孩子做出医疗决策的担忧。”
据首席作者Calissa Leslie-Miller介绍,研究人员希望了解使用ChatGPT会是什么样子,以及行业专业人士应该担心什么。研究始于OpenAI的病毒式机器人首次于2022年底推出之后。
“我们担心父母会如何使用这种新的、简便的方法来收集孩子的健康信息。父母经常上网寻求建议,”Leslie-Miller说,她是堪萨斯大学临床儿童心理学的博士生。
研究过程如下:116名父母被提供了由ChatGPT或人类医疗专业人士生成的健康相关文本,例如关于婴儿睡眠训练和营养的信息。父母事先不知道文本的作者是谁,他们需要评估这些信息的道德性、可靠性、专业性、准确性以及他们依赖这些信息的可能性,Leslie-Miller解释道。
不幸的是,在许多情况下,父母无法区分AI生成的内容和专家生成的内容。此外,ChatGPT的评分甚至高于真正的专家。
鉴于父母会信任并依赖ChatGPT生成的信息,将特定领域的专业知识应用于最终呈现给他们的医疗信息至关重要,研究强调。
这是因为依赖生成式AI获取重要的健康信息是非常危险的。早在一年前,牛津大学的一项研究就警告称,AI幻觉可能会用有偏见和虚假的伪数据污染科学。
AI幻觉表现为模型生成了一些看起来非常有说服力但没有现实依据的内容。由于大型语言模型是使用不一定包含事实正确信息的在线资源进行训练的,因此虚假或虚构的陈述可能会泛滥。
Leslie-Miller对此表示赞同,并指出在儿童健康领域,后果可能非常严重,因此解决这一问题并利用AI在医疗保健中的应用至关重要。幸运的是,她提供了一些建议。
“寻找集成到具有专业知识层系统的AI——就像我们一直被告知要谨慎使用维基百科一样,因为它并不总是经过验证。同样适用于现在的AI——寻找更有可能值得信赖的平台,因为它们并非都是平等的,”她说。
(全文结束)

