一项新研究表明,人工智能工具的使用可能是导致潜在误导性健康研究文章急剧增加的原因。
阿伯里斯特威斯大学(Aberystwyth University)和萨里大学(University of Surrey)的研究人员分析了过去十年中发表的341项研究,这些研究利用了一个大型公开可用的美国数据集,将个体预测因子(如饮食、生活方式或环境暴露)与特定健康结果联系起来。
调查发现,许多此类研究采用了几乎相同的结构:孤立一个变量,测试其与某种健康状况的关联,并发布结果,通常未考虑混杂因素或对多重比较进行校正。
这种方法虽然易于自动化,却增加了假阳性和误导性结论的风险,并未能达到科学严谨性的基本标准。
研究人员注意到,基于美国国家健康与营养检查调查(NHANES)数据集的出版物在2024年激增,在短短九个月内发表了190篇论文,而2014年仅有四篇。
阿伯里斯特威斯大学计算机科学系教授、威尔士健康与护理研究高级研究负责人雷尔·茨维格尔拉尔(Reyer Zwiggelaar)表示:“我们看到了一种令人担忧的趋势,即AI辅助论文数量优先于质量。这些研究往往采用公式化且简单的方法论,忽视统计学最佳实践。这导致过于简化的结论,并增加了错误发现的风险。我们的研究结果引发了对人工智能在科学出版中滥用的严重担忧。”
该研究强调了“论文工厂”如何利用AI工具——这些组织为了利润大规模生产学术论文。此类公司可以通过将变量插入预写模板快速生成手稿,通常只有极少的人工监督或科学依据。
另一个担忧是选择性使用NHANES的数据——这项调查发布来自美国各地人群的健康、营养和行为数据。许多研究仅分析了狭窄的时间段或特定的亚组,却没有明确的理由。这种做法被称为“数据挖掘”,可能会导致挑选出看似具有统计显著性但缺乏现实相关性的结果。
阿伯里斯特威斯大学计算机科学系的合著者查理·哈里森(Charlie Harrison)表示:“人工智能可以是一个强大的工具,但如果被滥用,它会破坏科学诚信,并用不可靠的发现充斥文献。这不仅是一个学术问题——当有缺陷的研究进入文献时,它可能误导临床医生、混淆政策制定者,并最终损害公众对科学的信任。它还将被用来训练下一代AI模型,因此问题会被固化。”
在《PLOS生物学》上发表其研究结果时,作者为研究人员、数据保管人、出版商和同行评审员提出了改进建议,以提高统计实践、确保透明度并防范不道德的出版行为。建议包括鼓励多因素分析、透明的数据选择和更强的编辑监督。
阿伯里斯特威斯大学的雷尔·茨维格尔拉尔教授补充道:“随着使用大型数据集和AI工具的研究变得越来越普遍,保护研究诚信至关重要。审稿人在识别薄弱或误导性研究方面发挥着关键作用,使其在发表前被阻止。为了帮助保护科学质量,我们建议采取几个重要步骤:数据提供者应跟踪其数据的使用情况,期刊应尽早拒绝低质量论文,统计学专家应协助审查复杂研究。我们还鼓励在论文发表后进行公开讨论,以便迅速解决错误或问题。这些措施不仅是保障措施,而且是在大数据时代维护科学发现可信度和价值的关键步骤。”
(全文结束)

