可验证性不对称与“验证者法则” 文章提出“可验证性不对称”是 AI 时代的关键规律:任务是否容易被验证,直接影响其被 AI 解决的速度与上限。核心概念某些任务求解难、验证易,形成显著不对称。可验证性越高,越容易形成高质量 RL 训练环境。验证者法则AI 学会任务的难易程度与任务可验证性成正比。关键特征包括:客观真值、秒级验证、并行验证、低噪声、连续奖…
转载提示:本文转载自 原文。原作者:Jason Wei。原文发布日期:2025-07-15。本文已按站点规范移除推广/导流内容,仅保留核心观点、论证链路与示例。可验证性不对称与“验证者法则” “可验证性不对称”指的是:有些任务求解很难,但验证结果却很容易。随着通用意义上的强化学习(RL)开始真正有效,这个概念正成为 AI 里最关键的底层原则之一。通过例子理解“可验证性不对称” 只要留意,就会发现这种不对称无处不在:数独、填字等题目,求解需要反复试错,但验证一个候选解是否正确往往很快。像 Instagram 这类网站,开发可能需要多年工程投入,但验证“网站是否正常工作”很多时候连非工程背景用户都能快速完成。解决 BrowseComp 题目可能要浏览大量网页,但验证答案是否满足约束通常更快。 也有“接近对称”的任务:验证耗时与求解耗时差不多。例如大整数加法结果核验,或某些数据处理程序的正确性确认。 此外,还有“验证更难”的任务:比如一篇文章可能很快写完,但全面事实核查可能更慢(Brandolini 定律:反驳胡说八道的成本通常高一个量级)。科学假设也类似,提出一个新饮食法很容易,验证其群体有效性却可能需要多年。如何改善可验证性不对称 一个重要观察是:我们可以通过前置研究,主动“改造”验证难度。 例如:竞赛数学若有标准答案,候选答案的核验会非常快;代码任务若有覆盖充分的测试集,验证速度也会显著提升(LeetCode 正是这种机制)。 但并非所有任务都能被改造成“近乎秒验”。像“说出一名荷兰足球运动员”这类任务,即便有候选名单,验证仍需要一定人工判断。 Figure验证者法则(Verifier’s rule) 为什么这件事重要?从深度学习发展史看,凡是能被稳定衡量的能力,最终都可能被优化出来。在 RL 语境下,“能否验证解”基本等价于“能否构造训练环境”。由此可得: 验证者法则:AI 学会解决某类任务的难易程度,与该任务的可验证性成正相关。凡是可解且易验证的任务,都会被 AI 攻克。 更具体地,任务越满足以下性质,越容易被高效训练:客观真值:什么是好答案有共识。验证快:单个候选解可在秒级验证。可并行验证:可同时评估大量候选解。低噪声:验证信号与真实质量高度相关。连续奖励:可对多个候选解进行细粒度排序。 这也解释了为什么主流 benchmark 往往集中在 #1-4 条件较强的任务上;不满足这些条件的评测,很难形成规模化迭代。 Figure 可验证性之所以关键,本质在于它决定了学习信号密度与迭代速度。验证越快越准,梯度步骤就越多、反馈越有效,进步就越快。AlphaEvolve 公开案例里,最具代表性的之一是 Google 的 AlphaEvolve。它本质上是一个高效“猜测-验证-优化”系统,通过强验证闭环推动目标函数极限优化。 例如“求可容纳 11 个单位六边形的最小外六边形”这类问题,几乎完美满足验证者法则的五条特征,因此非常适合被系统化搜索优化。 AlphaEvolve 也揭示了一个差异:它更像对“单一高价值问题”的极致优化(train=test),与传统机器学习强调泛化到未见样本的逻辑不同。与 P = NP 的关系 可验证性不对称与 P=NP 都关注“验证和求解之间的差距”,但两者并不等价。验证者法则并不声称“AI 会在多快时间内解出问题”,也不要求求解复杂度本身降低。 在很多任务中,求解依然可能远比验证昂贵;但只要验证可规模化,系统仍可在大量尝试中实现强优化。 而且验证者法则覆盖面更广,不只限于传统计算问题。它也适用于材料、化学、空气动力等可测量可反馈的非纯计算任务。启示 当你理解可验证性不对称后,会开始在许多领域看到同一规律:可验证任务会更早进入 AI 的“高能力区”。AI 能力边界可能呈锯齿状,不同任务进展并不均匀。未来竞争重点之一,是谁能把任务重新设计为“更易验证、可并行验证、低噪声验证”。 延伸阅读可参考 Alperen Keles 的这篇文章:[this blog post]。
本应用需要启用 JavaScript。
正在初始化 WebAssembly 引擎…
首次编译原生模块可能需要数秒
就绪后,页面交互将以接近原生的速度运行