科学网—隔行不再隔山,AI正在撕碎学术造假的内行保护伞
精选
已有 192 次阅读
2026-5-10 17:56
| 个人分类: 学术生态 | 系统分类: 观点评述
2026年4月,一个自称“耿同学”的博主,把中国学术界搅了个天翻地覆。他接连举报了好几位重量级人物发表在顶刊上的文章。比这些重量级人物被拉下神坛更让人震惊的,是耿同学用的方法,简单到超乎想象。
他没有什么内部消息,也没有什么特殊资源,他只是下载了这些论文的补充材料,用几个网上能搜到的AI工具,配合一些数据分析软件,找出了无数隐藏多年的造假痕迹。正如他在视频中反复强调的,这些事情没有任何技术门槛,任何人只要会用电脑,都能做到。这句话,才是真正的革命宣言!
以前的学术打假,是少数人的苦行
在AI出现之前,学术打假是一场极不对称的战争。造假者占尽了所有便宜,打假者举步维艰。为什么?因为有三道铜墙铁壁挡在前面。
第一道墙,专业壁垒。隔行如隔山这句话,在学术界就是真理。一篇生物学论文,满篇都是HDAC6、癌症干细胞、免疫荧光染色,别说普通人了,就是隔壁化学系的教授看了都一头雾水。你怀疑它造假?但是你连从哪里看起都不知道。
而真正看得懂的内行呢?大多是同一个圈子里的人。抬头不见低头见,谁愿意得罪人?搞不好自己以后还要靠人家审稿、拿项目呢。
第二道墙,人类的注意力极限。一个审稿人看一篇论文,撑死了也就几个小时。他要理解研究思路,要评估实验设计,要分析结果意义。他根本不可能记住作者过去几十年发表的所有论文里的每一张图片,也不可能去核对论文里的每一个数字。
那些明显到离谱的造假,为什么能通过顶刊的严格评审?不是审稿人傻,是他们根本没有时间和精力去做这种找茬的工作。更何况,学术出版的基石是对同行的基本信任,没有人会默认每一篇投稿都是造假。
第三道墙,证据难题。就算有专家真的看出了问题,他也很难拿出铁证。很多时候他只能说我感觉这篇论文不对劲,但这种主观判断在学术调查里根本不算数。没有确凿的证据,最后只能不了了之。
所以这么多年来,学术造假一直是一门低风险、高回报的好生意。只要骗过几个审稿人,就能换来终身教职、千万经费、各种荣誉。而被发现的概率,微乎其微。
当然,也有例外。像Elisabeth Bik这样的传奇打假人,凭借惊人的记忆力和专业素养,在没有强大AI的年代,靠肉眼和基础软件识别出了数千张问题图片。但这样的人,全世界屈指可数。她一个人穷尽一生,也只能检查几十万篇论文中的极小一部分。
AI来了,一切都变了
AI的出现,把这三道墙砸得粉碎。它不需要懂什么专业知识,不需要有什么学术背景,也不需要有什么人脉关系。它只需要数据和逻辑,就能让所有造假无所遁形。
文字抄袭?再怎么改头换面都没用
以前的查重工具,只能查复制粘贴。你把同义词换一换,语序调一调,它就认不出来了。现在的AI不一样了。它已经进化到了“思想指纹”的阶段。
它不看你用了什么词,也不看你怎么组织句子。它看你文章里的核心思想和逻辑结构。哪怕你把一篇中文论文翻译成德文,再翻译成法文,最后再翻回中文,AI还是能一眼认出它的“亲生父母”。
图片造假?AI是显微镜级的火眼金睛
这是AI最厉害的地方,也是造假者最害怕的地方。
生命科学领域,一图胜千言。以前图片造假几乎是零风险,因为人眼根本看不出来那些经过精心处理的图片。
但现在不行了。AI能看到像素级的细节。它能发现WB条带边缘那一点点不自然的拼接痕迹,能认出同一张图旋转90度、裁剪掉90%、调完亮度对比度之后的样子,能在几亿张学术图片里找到任何一张图的所有分身。
有个数据特别震撼:Elisabeth Bik曾和团队在2016年发表了一项里程碑式的研究,他们用人工筛查结合基础软件辅助的方式,扫描了1995-2014年间发表的2万多篇涉及WB的学术论文,发现近4%的论文都存在至少一张数据图的不恰当复制和使用。而这些论文,当年人工审查的时候全部通过了。
耿同学发现的那些问题,什么同一张小鼠图用在不同实验组,什么同一个条带复制粘贴好几次,对AI来说都是小儿科。它几分钟就能扫完一个教授一辈子发表的所有论文里的所有图片,找出所有重复的地方。
数据造假?数学不会骗人
这是最让大家觉得解气的部分。很多造假者觉得,我只要把数据编得像那么回事就行了。但他们不知道,真实的实验数据有它自己的规律,假的永远真不了。
AI能发现所有这些规律的异常。它能看出你的数据是不是“过于完美”,完美到不符合自然规律;能看出你的p值是不是刚好都卡在0.05以下,巧得不像话;能看出不同实验的数据序列是不是长得太像了,像是复制粘贴的。
历史上最著名的数据造假案,当属日本麻醉学家藤井善隆。他在20多年间发表的论文中,大规模伪造临床实验数据,最终导致183篇论文被撤稿,曾创下单人撤稿数的世界纪录。他的数据“完美”到不符合统计学规律,在被揭穿前欺骗了学术界整整二十年。这种大规模的数据造假,如果放在今天,AI只需要几分钟就能通过统计异常检测全部发现。
耿同学发现同济大学高绍荣团队那篇论文里,64个核心数据的小数点后两位居然全都是".48"。这种事情发生的概率,比你连续抛64次硬币全是正面还要低。
现在的AI也能分析你上传的原始Excel文件。它能读取文件的元数据,发现创建时间、修改时间的异常;也能对数值分布进行统计检验,找出不符合自然规律的地方。虽然它还不能像"法医"一样精确区分每一个数据的输入时间,但它能清晰地标记出哪些数据批次存在明显的异常模式。
AI的终极杀招:跨模态交叉验证
这才是真正的大杀器,人类永远也无法高效做到的事情。
我们看论文的时候,都是先看文字,再看图片,最后看表格。很少有人会把这三者逐字逐句地对应起来核对。但AI会。
它会自动检查:你文字里说的实验温度是250度,为什么图里的温度曲线最高只有200度?你图片里显示有12个样本,为什么表格里只有10个数据?你A实验得到了这个结果,为什么B实验的结果和它完全矛盾?
当AI在文字、图片、数据这三个完全独立的地方都发现了矛盾的时候,那就不是什么“无心之失”了。那就是主观造假,板上钉钉。
最革命性的变化:从少数人的苦行到普通人的权利
这才是AI带来的真正革命。以前,学术打假是少数天才专家的特权。现在,它变成了每一个普通人都能参与的事情。
当然,这并不是说会点鼠标就行。耿同学本人也会使用Matlab等工具进行数据分析,也需要阅读和理解网友提供的专业线索。他能从海量论文中锁定关键疑点,离不开一定的逻辑推理和数据分析素养。
但这个门槛,已经从需要深耕该领域十年以上的专家,降低到了任何一个受过基本高等教育的普通人。
你不需要是博士,不需要是教授,甚至不需要是生物学专业的。你只要会用电脑,会下载文件,会使用那些免费的AI工具,就能发现很多明显的造假痕迹。
当AI告诉你这两张图有99%的相似度时,你不需要任何专业知识就能判断这是图片重复;当AI告诉你这组数据的小数点后两位全部相同时,你不需要任何统计学知识就能判断这是数据造假。
这些证据,都是客观的、铁一般的事实。任何人看了,都能得出同样的结论。
所以,耿同学不是因为他比那些审稿人更聪明,也不是因为他比那些专家更专业。而是因为他手里有了AI这个前所未有的武器。
学术造假的成本,已经变得无限高
在过去,造假者只需要骗过3个审稿人就行了。现在,他们需要骗过全世界所有会用AI的人。
一篇论文发表之后,可能会被成千上万的人用AI工具检测。任何一个人,在任何时候,都可能发现其中的问题。而且一旦被发现,证据确凿,根本无法抵赖。你今天造的假,可能明天就会被一个千里之外的、和你素不相识的普通人给揭穿。
无论你是多大的学术大牛,无论你的论文发表在多高影响因子的期刊上,都没用。AI不认头衔,不认关系,只认事实和逻辑。
结语
科学的本质是求真。但这么多年来,我们的学术界却被一群造假者搞得乌烟瘴气。他们拿着国家的科研经费,做着虚假的实验,发表着垃圾的论文,然后踩着这些垃圾爬上高位。真正踏踏实实做研究的人,反而得不到应有的回报。
现在,AI来了。它就像一道光,照进了这个黑暗的角落。它不是来取代科学家的,它是来守护科学的。它没有否定Elisabeth Bik等前辈打假人的贡献,而是把他们那种极少数人才能拥有的能力,普及给了每一个普通人。
它撕碎了学术造假的内行保护伞,让学术监督从少数人的苦行变成了全民的权利。
耿同学的打假风暴,只是一个开始。当越来越多的普通人拿起AI这个武器,当学术造假的成本变得无限高的时候,那些投机取巧的人终将无处遁形。而科学,也终将回归它本来的样子。
你怎么看AI打假这件事?你觉得它真的能终结学术造假吗?欢迎在评论区留下你的看法。
转载本文请联系原作者获取授权,同时请注明本文来自赵斌科学网博客。 链接地址: https://blog.sciencenet.cn/blog-502444-1534249.html
上一篇: 能否把“有效失败”纳入科研评价体系
主题:造假|一个|隔行|AI正在撕碎学术造假