2025 年 11 月,机器学习领域大佬吴恩达团队正式发布免费 AI 论文评审智能体(paperreview.ai),这款工具源于一位学生 3 年投稿 6 次被拒、每次等待反馈长达半年的经历,旨在解决学术投稿反馈周期长、修改建议模糊的痛点,其评审一致性已接近人类水平。
该 AI 评审智能体的核心优势在于高效与精准。用户上传论文 PDF 并可选目标会议 / 期刊(涵盖 ICLR、NeurIPS、CVPR 等顶会及多个领域期刊)后,系统会自动转换文档格式、提炼核心关键词,通过检索 arXiv 平台最新相关研究,结合学术标准生成评审意见。测试数据显示,在 ICLR 2025 审稿数据集上,AI 与人类审稿人的斯皮尔曼相关系数达 0.42,略高于两位人类审稿人之间的 0.41,意味着其评审判断与人类一致性相当。
与传统人类评审相比,AI 评审智能体更注重实用导向。它不仅会从原创性、研究问题重要性、结论依据等 7 个维度给出 1-10 分的量化评分,还能提供具体可操作的修改建议,而非仅评判 “是否值得发表”。此外,人类评审预测论文录用的准确率为 0.84,AI 虽略低(0.75),但评分趋势与人类高度契合 —— 随着人类评分升高,AI 给出≤5.5 分的比例显著下降,能有效帮助科研人员预判投稿成功率。
这款工具的推出引发学术圈广泛关注。有网友调侃 “与其等 6 个月被人类拒稿,不如 2 分钟被 AI 拒稿”,直言快速反馈能让科研人员更早迭代修改;也有科研团队表示,已在与部分期刊探讨合作,希望缩短投稿 – 反馈 – 重投的周期。值得注意的是,AI 评审目前主要基于 arXiv 开放研究成果训练,在相关领域表现更优,且反馈生成需一定时间,并非即时可得。
据介绍,该 AI 评审智能体由吴恩达最初以 “周末项目” 形式搭建,后经斯坦福大学博士 Yixing Jiang(曾任职于谷歌 DeepMind)优化升级。作为免费工具,它面向全球科研人员开放,体验地址为https://paperreview.ai/。吴恩达表示,这一实验性工具希望为科研人员提供高效迭代支持,未来或将进一步优化跨领域适配能力与评审精准度,为学术出版行业注入新活力。