ACL 2025论文战况激烈?哪些高分研究最终没被采用?
顶会竞争白热化,ACL 2025录用结果引发热议
最近,ACL组委会向所有投稿者公布了最终录用决定。作为人工智能领域最具影响力的会议之一,ACL 2025的录用结果再次引发广泛关注。今年会议将于7月27日至8月1日在奥地利维也纳举行,与会者将共同探讨最新研究成果。
从投稿数据来看,今年的参赛规模创下新纪录。据内部统计,今年总投稿量突破8000篇,较去年增长超过100%。相比之下,2024年总投稿量为4407篇。虽然具体录用率尚未公布,但参赛者普遍反映今年的竞争比以往更加激烈。
高分被拒,ACL争破头
在实际评审过程中,不少高质量论文遭遇了意想不到的挫折。亚利桑那州立大学CS助理教授Vivek Gupta团队的论文获得了3、3.5、4分的审稿人评分,元评审(Meta-Reviewer)给出3.5分,勉强达到录取标准。然而最终结果却显示,这篇论文被拒收,甚至未能进入Findings环节。
UT Austin博士生Anuj Diwan也经历了类似困境。他的论文获得3、3、3.5分,元评审给出3.5分,并建议可以被主会议接收。但最终结果依然被拒。这种现象在Reddit机器学习子板块引发热议,不少网友表示,明明成绩达标却未能入选。
谷歌DeepMind科学家Ahmad Beirami指出,当前评审体系存在两个关键问题。首先是元评审意见与最终决策脱节。负责监督AC元评审的高级区域主席(SAC)与最终决策的SAC并非同一人,导致评审标准出现偏差。
其次是决策评分体系存在逻辑断层。当前评分标准难以处理「证据不足但创新性强」的特殊情况。例如,核心论文主张未得到充分验证,本应评2分,但因创新性突出被推荐至主会,通常对应4分。现行制度却要求此类论文折中评3分(Findings档),这与科学评审的精确性原则存在矛盾。
ACL评审标准
根据ACL Rolling Review公布的评审表,审稿人需根据以下标准对论文技术严谨性进行评估:
· 5= Consider for Award:认为这篇论文可以考虑在ACL会议上获得杰出论文奖(最多前2.5%论文)。
· 4.5 = Borderline Award
· 4 = Conference:认为这篇论文可以被ACL会议接受。
· 3.5 = Borderline Conference
· 3 = Findings:认为这篇论文可以被ACL的Findings接受。
· 2.5 = Borderline Findings
· 2 = 下个周期重新提交:认为这篇论文需要大幅修改,可以在下一个ARR周期完成。
· 1.5 = 下下个周期重新提交:认为这篇论文需要大幅修改,无法在下一个ARR周期完成。
· 1 = 不建议重新提交:认为这篇论文需要完全重写,或者与ACL社区无关
网友晒出成绩单
在如此激烈的顶会评选中,同样有不少出彩论文拔得头筹。不少网友晒出了自己的成绩单,展现出激烈竞争下的丰硕成果。
来自阿里千问团队的郑楚杰激动地表示,清华博士期间的最后3篇论文全部中榜。约翰霍普金斯大学的黄任泽则大获全胜,博士期间所有论文都被接受,其中ACL中了4篇,ICML中了2篇。
微软研究科学家Xiaoyuan Yi也有三篇论文被接收。谷歌高级研究科学家Raj Dabre提交了6篇论文,共有4篇被录用。他特别指出,今年论文筛选变得非常困难,甚至在过程中还存在人为失误的因素。
这场激烈的评审竞争,不仅考验着科研人员的学术能力,也暴露出当前评审体系的诸多问题。如何在保证公平性的同时提升评审效率,将是未来需要持续优化的方向。