“天临七年”,毕业论文除了查重之外又多了一道关卡——AIGC检测(人工智能生成内容检测)。
为了避免学术不端,不少高校开始把AIGC检测结果作为论文能否通过的要求之一。
作为一名刚刚结束答辩的毕业生,前一段时间可是和AIGC检测周旋了许久。经历了“检测—修改—再检测—再改”的痛苦循环后,终于从61.7%降到0%。
这个过程之所以这么让人崩溃,是因为AIGC检测真的不讲武德:
有些明明是自己一个字一个字敲下的,也会被整段标红,判定为AI生成;在这一个平台上测出的10%,换个平台又可能测出100%;而哪怕是在同一个平台,同一个段落这次测是0%,下次可能就变成100%。
这不禁让我深深怀疑,当前的AIGC检测和它最初的目的是否已经偏离?从更大的层面来讲,它会对我们的写作和思考方式造成怎么样的影响?
在“降AI”的过程中,为了降低那个数字,内容好坏变成了次要的事。论文被改得七零八落、面目全非只为了证明“我不是AI”。与此同时,我还额外支付了不少AIGC检测费用。
证明自己没用AI,成为学生新的噩梦
上网一搜,发现一样被AIGC检测折磨的毕业生不在少数,大家都叫苦不迭。
23岁的美国大学生Burrel,在一门写作必修课的期末测试中得了0分,教授给出的理由,是怀疑她这篇作文是由AI代笔的。
“我的心跳都快停了。”Burrel认为,这个指控既荒谬又可怕。
Burrel称这份模拟求职信的作业完全没依赖AI,她给《纽约时报》展示了Google文档的编辑历史记录,她表示花了整整两天时间来起草和修改这份作业。
不过全球知名查重公司Turnitin所提供的AI检测结果显示,这篇文章有AI写作的痕迹。
为了证明自己的清白,Burrel向英语系主任提交了一份长达15页的PDF文件,里面包含了她写作过程中所有带时间戳的屏幕截图和笔记。最终,她的成绩被恢复了。
最终,她的成绩被恢复了。但这次经历给Burrel留下了不小的阴影。
在那次被指控后,当Burrel再次提交作业时,她上传了一段长达93分钟的YouTube视频,完整记录了她的写作全过程。
“我很害怕会因为一件自己没做过的事而影响成绩。”
Turnitin尚未回应这一报道,但其首席产品官Annie Chechitelli曾在2023年的一篇博客文章中指出,AI检测分数不应被用作判断学生是否滥用AI的唯一决定性因素。
现在美国已经有一些高校学生在网上发起请愿,要求他们所在的大学停止使用类似的AI检测工具,随着AI工具的渗透,可以预见这样的矛盾将在学生和老师之间愈发频繁出现。
搞懂AIGC检测的基本逻辑
AIGC检测结果为什么总像是随机生成的?它的检测逻辑究竟是什么?毕竟只有理解它的原理,才能在“降AI”时对症下药。
传统的论文查重主要是与已有文献数据库进行比对,查重报告会明确告诉你是哪些段落和哪篇文献重复了。
所以对于传统“降重”,前人已经摸索出一套有效的“打法”,比如改写句子结构、同义词替换、翻译成小语种再翻译回中文……总之,只要能避开与已存在文献的重复,就能过关。
但到了“降AI”这里,这些已有的经验似乎都失灵了:
AIGC检测更像一个黑箱,标准不明。目前任何一种检测手段都无法保证100%判定哪个是AI写的,哪个是人类写的。因此,检测系统通常都会给出一个AIGC疑似值。
虽然说这只是“疑似度范围”,系统也声明“检测结果与论文质量无关”,但一旦超过某个数值,论文就会实打实地不通过啊,让人有种无处申诉的无力感。
就连人大新闻学院副教授董晨宇也要在AIGC检测中被迫“自证清白”:他的研究团队的一篇耗时三年、基于真实案例撰写的关于直播产业的研究论文,却被某论文检测平台标注为“高度疑似AI生成”。
\_id\_from=333.337.search-card.all.click&vd\_source=2304bb3a0ff80390775707914f5ee0ed
所以,AIGC检测真的就是“黑箱”吗?它的基本逻辑究竟是什么?
Chat GPT是这样说的:
另外,基于知网在2023和2024年发布的两个专利,我们也可以总结目前知网AIGC检测的底层逻辑和流程:
第一阶段:信息量差值检测(基于2023年专利)
第二阶段:多特征分析(基于2024年专利)
第三阶段:最终判定
既然如此,似乎有标准可循。那依据这个标准,让AI拟人化改写文章,以此增加“人味”、降“AI味”,岂不是可以用魔法打败魔法?
用AI降AI?真的有用吗?
我试过市面上流传的两类“用AI降AI”的方法:
拿我的论文当小白鼠,将几段文字(人工撰写+ChatGPT润色共972字)丢进一个大学生常用的免费AI查重平台“PaperYY”平台进行AIGC检测,检测结果AIGC疑似率为61.7%。
接下来依次使用下面表格中的几种“用AI降AI”的方法分别改写这段文本,并再次放入同一检测平台PaperYY上进行检测。
同时,作为对照,将购买检测平台PaperYY上自带的“降AI”服务进行测试。
笔栈:;
SpeedAI:;
PaperYY:
方法一:人工指令
分别喂给GPT、DeepSeek和Grok一段相同的“降AI”指令:
但结果仿佛养蛊,三个AI各自一顿操作之后,AIGC率全都成功从61.7%升到100%……
不过,接收同样的prompt,GPT和Grok改写的文本风格比较相似,语言较平实,但DeepSeek却出现了明显的“AI幻觉”,开始变得不像人话……
如原文在描写摄影技法的时候,仅仅提到“色彩反转、低角度构图、光源的超现实处理”等,但DeepSeek却自行发明了“放射性构图”、“异色温处理”、“钨丝灯频闪”等,并存在堆砌复杂词汇的现象,使得与原文有较大偏离。
方法二:“一键降AI”工具
我选取了两款市面上专门的论文写作与查重网站中的“降AI”工具——“笔栈”和“SpeedAI”进行测试。
笔栈改写后AIGC率飙升至91.5%,似乎已经没有什么好意外的了。
但神奇的是,SpeedAI的改写文本居然测出了0%,反倒令人大跌眼镜。
对照测试:检测平台PaperYY上的付费降AI服务
在付了“降AI”费之后,PaperYY“自己答题自己改卷”的测试结果倒不出意外的是0%。
测试结果:初始文章AIGC检测结果:61.7%
除了在PaperYY平台的对照测试外,真正能较好完成“降AI”任务的,竟只有SpeedAI。
然而,这一结果并不能证明SpeedAI在“降AI”方面表现出色,反而使整个测试显得更加扑朔迷离。
于是,我们进一步选取了两个极端案例——ChatGPT改写后被判定为100%AIGC的“文本一”与SpeedAI改写后被判定为0%的“文本二”,让Grok对其进行详细的对照分析。
乍一看似乎有点道理,然而回到具体文本,我们会发现Grok不过是照着已有结论套说辞,“锤子找钉子”罢了,实际上:
但话说回来,如果论文中都是充满“人味”的口语表达,而缺少专业理论词汇,还能叫学术论文吗?逻辑清晰、条理分明的表达方式,什么时候变成AI专属了呢?
写作本该是思考与表达,而非证明“我不是AI”
筋疲力竭地“降AI”之后,尽管我的论文顺利通过了系统检测,但很多地方也变成了我不认识的样子。
在这个过程中,最终的论文质量似乎不再是衡量的标准,关键变成了如何向系统证明我不是用AI写的。
这种本末倒置的操作消耗了我很多本该投入在论文思考、打磨和创新中的时间、精力和金钱。
更加可怕的是,对于学生而言,这种章法不明的“标准”可能会变成一个无形的框架,窄化我们的语言表达,甚至约束我们的思维。
当我们不再专注于深入思考问题,而是不断琢磨如何迎合这一“标准”,就会逐渐失去写作应有的创造力、想象力和自我表达的功能。
对此,人大副教授董晨宇表示:
“AI其实在倒逼学术生产进行重新布局,适应这种布局,需要进行非常整体性的调整,但在这一切之前,应激式的防火防盗防AI一定是我们最开始的反应。但AI不是现代人的旁门左道,而是现代人的生存之道。AI提高了底线,但是人仍然决定的是上限。”
所以,真正决定论文价值的,不该是系统判定的一个数值,而是其中凝结的思考深度与写作诚意。
尽管AI提高了写作的底线,但人类不必与工具对抗,而应在理解它、驾驭它之后,继续追求属于人的表达上限。
还没有评论,来说两句吧...