AI论文审核靠谱吗?这会影响学术研究吗?
AI降重和AI判定靠谱吗?
在被AIGC检测系统折磨得走投无路之时,郝奇奇想到了寻求另一个AI的帮助。
她把那句无论怎么修改都无法通过AIGC检测的句子,交给了另一个AI,得到了这样的修改方案:“斯奈德在里德学院就读人类学本科课程之时,接触到了,韦利和庞德翻译的一些,中国文学相关的译本,例如《孔子》,与《道德经》之类的著作,而且还有其他一些,中国、印度的佛教文学作品。”
你没有看错,这是一个不恰当地使用标点符号,以致无法正常阅读和理解的病句,但它神奇地通过了AI的检测。
另一件让郝奇奇匪夷所思的事情是,在未降论文AI率之前,郝奇奇将论文传至知网AIGC检测系统,显示AI率为20%。随后,郝奇奇将论文传至维普AIGC检测系统,AI率升至70%。
郝奇奇的情况不是孤例。一名学生告诉我,她的朋友将论文传至维普AIGC检测系统,显示AI率为90%,后将论文传至知网AIGC检测系统,显示AI率为30%多。
事实上,不仅不同的AI会给出不同的检测结果,而且相同的AI在不同时间段也可能给出不同的结果。一位新闻学专业的应届生告诉我,他的论文用同一个检测系统检测AI率,两次检测大约间隔了27个小时,相同的一段文字,前一次还没有被判定为AI生成,后一次就是了。
AI变来变去的心思令人焦灼。教师周扬说,校方规定论文AI率必须30%以下,但是学生自己检测和校方二次检测存在波动情况,所以为了求稳,她的同事要求学生将AI率压到5%到10%,否则不允许上交论文,让学生主动延期答辩。
AIGC检测系统仿佛一个巨大的黑箱,学生摸不清算法的规律,往往要检测很多次,“非常贵,对学生负担很大”。江泽康说,他使用某论文检测系统每次检测AI率需花费16元,如果同时检测重复率和AI率就要购买45元套餐,而他一共检测了十来次,花费了三百多元。
AIGC检测的底层逻辑是什么
试图理解AIGC检测系统的高误判率现象,以及人为什么需要故意犯错才能逃过AI的检测,都指向同一个问题——AIGC检测的底层逻辑是什么。
目前,国内主流的AIGC检测平台对其大模型的原理的公开表述比较模糊。企查查平台显示,同方知网数字出版技术股份有限公司在2025年1月24日申请了一项名为《AI生成学术文本的判断方法、装置及相关产品》的专利,其检测系统判定原理如下:首先“利用大模型对‘待判断’学术文本进行改写”,再通过对比改写前后的文本,判断该学术文本是否由AI生成。
而维普官网显示,维普AIGC检测系统“能分析文本的语法模式、逻辑连贯性等特征,区分人工与AI创作”。
7月4日,我联系了知网和维普希望进一步了解AI检测的原理,截止目前还未得到回应。
Leo是硅谷大厂的AI研究员,她认为弄清楚AIGC检测系统的底层逻辑,前提是弄清楚AI写作和人写作的区别:从词语上来看,AI大模型是以概率的形式生成字词的。比如说下一个字大于80%的概率是某个字,它就选择这个字。因此,AI生成的论文较多使用高频词汇,句子长短也是比较均匀分布的,AI会使用相同的模板,比如说“主定从”句式。
而AIGC检测系统的高误判率正是和AI的标准化学习流程有关。Leo说,当论文写作使用了标准化的语言表达、高度专业化的术语,就被会被误判成AI生成内容。毕竟,论文标准化的写作风格是最容易模仿的。
至于将句子改成病句可以降低AI率,Leo说,是因为这种做法干扰了句子的输入分布,比如,“你吃饭了”,这是一个固定的句式,AI可以理解,但如果中间加了一个逗号,或者加了几个不相关的字,那么,输入分布就改变了。这时,大模型在理解的时候就可能产生偏差。
而一些学生用AI生成工具写论文,却逃过了AIGC检测系统的检查。简单地说,就是这名学生使用的AIGC检测系统没有他所使用的AI生成工具聪明。
赵宣栋是加州大学伯克利分校计算机领域的博士后研究员。在他看来,人和AI写的内容很难完全区分开来。他介绍,当下主流的AIGC检测系统的工作原理主要是“分类器”:通过搜集各大AI生成的数据和人写的数据,将两类数据集训练成一个二分类器,据此区分人写的内容和AI生成的内容。
但人写的内容和AI生成的内容,两者的特征很大一部分是重合的,比如人和AI都可以擅用破折号,无法据此判定谁是AI,谁是人。同时,人类可以发布指令,让AI故意犯错,以逃避AIGC的检测。赵宣栋认为AIGC检测系统很难做出准确的判断——检测的假阳性和假阴性很高,即误判率高。
回到问题的本质,当下的AI大模型,训练目标之一就是让其趋近于人类的表达,比如模仿人类的语气,增加人性化的输出。2023年10月,赵宣栋及其团队成员在《Provable Robust Watermarking for AI-Generated Text(生成式AI时代的水印技术)》中提到,“这种检测 AIGC 与人类自然文本近似度的思路存在理论上的冲突,因为人工智能本身就是在模仿人类智能,AIGC 与人类自然文本的近似,本身就是该项技术的终极目标。”
用AI查AI,就此构成了悖论。赵宣栋说,AI智能正在发展,当更加智能的模型出来后,将更难以区分两者的区别。
不过,赵宣栋所在的团队提出了一个解决办法,也就是“水印”技术。可以理解成,每个大语言模型都有自己的个性,而“水印”就代表了其中的某一个属性,就像密钥。“比如生成《西游记》,实际上它行文思路有千百种,我使用这个水印之后,相当于我选择了这几百条路径中的某一条路。那么只要知道密钥,就知道我选择了(哪条)独特的一条路。如果不知道密钥,看起来就像我从几百条里面随机选了一条路。”
“水印”像是为AI生成内容植入了专属的身份识别芯片,获得密钥的人,便能够轻松地识别它是否是AI生成内容。每一家大模型提供商都有自己的“水印”,但各家只能识别自己的,不能识别别家的。
赵宣栋说,国家可以设立法律法规,强制要求大模型提供商添加“水印”,再由政府部门统一管理,对内容统一检测。在这种管理下,或许AI生成的滥用问题会缓解很多。
不过,赵宣栋也表示,水印技术无法百分之百识别AI生成内容——如果一个人执意对抗AIGC的检测,即便在有“水印”的情况下,他也可以再做额外的修改,直到把“水印”完全抹去。所以,识别AI生成,总体而言是一个很困难的场景。
作为一个试图驯化计算机的研究者,赵宣栋依然对人类保有信心,他说,人类高度创造性的思维,是人工智能无法企及的。
而AI将成为人类智识的延展,基于AI大模型,新的研究方法正在各行各业被创造出来,说到底,都是人类与AI的结合。可能在不远的将来,人类与AI将变得如此密不可分,区分何为AI生成何为人工,将变得不再那么重要。
但对于正处于AI困境的人们来说,硅基智能已经开始困扰人类自身。一名英语专业本科生就说,当她一遍遍地修改论文,一次次地揣摩AI的检测逻辑,仿佛在与一个看不见的对手博弈,这种压力让她感到前所未有的疲惫。