PRISM:用过程奖励模型为DeepThink系统装上"导航仪"
一句话总结:PRISM把过程奖励模型(PRM)嵌入DeepThink推理的每一步,通过类MCMC的"评分-重采样-随机精炼-冲突仲裁"循环,让20B小模型在数学和科学推理上追平甚至超越120B大模型。
论文标题:PRISM: Pushing the Frontier of Deep Think via Process Reward Model-Guided Inference
作者:Rituraj Sharma, Weiyuan Chen, Noah Provenzano, Tu Vu
论文链接:arXiv:2603.02479
1. 这篇论文在解决什么问题?
2025年以来,"让模型想得更深"成为推理能力提升的主旋律。OpenAI的o1/o3、DeepSeek-R1这类DeepThink系统,核心思路是在推理时投入更多计算——生成多个候选答案,反复精炼,最后投票选出最优解。这套流程确实有效,但存在一个让研究者头疼的瓶颈:精炼阶段(Population Enhancement)越深入,效果反而可能变差。
为什么?问题出在精炼过程缺乏可靠的正确性信号。现有方法(比如SciMaster的迭代重写、多智能体辩论)在精炼时,模型只能依赖自身的"直觉"判断哪个方向是对的。当初始群体中正确答案占少数时,多数票的"群体压力"反而会把正确解挤出去——辩论越激烈,错误放大得越厉害。论文把这个现象称为群体增强瓶颈(Population Enhancement Bottleneck)。
具体来说,这个瓶颈表现为三个症状:
- 错误放大:精炼过程中,错误推理链被反复"加强",正确的少数派被淹没
- 正确解抑制:当初始群体只有1-2个正确答案时,迭代精炼后正确答案可能被彻底清除
- 边际收益递减:增加精炼轮数,准确率先升后降,呈现"倒U型"曲线
PRISM的核心洞察是:既然精炼过程缺乏方向感,那就给它装一个"导航仪"——过程奖励模型(PRM)。PRM不是在最终答案层面打分,而是在推理的每一步给出评分,告诉系统"这一步走对了"还是"这一步走偏了"。有了步级别的正确性信号,精炼过程就能从盲目搜索变成有方向的优化。
2. PRISM方法总览
PRISM的全称是 Process reward model-guided Refinement, Iteration, and Selection Mechanisms。它将DeepThink系统拆解为三个阶段,并在每个阶段引入PRM的指导:
图:PRISM框架。上半部分是高层流水线(群体创建→群体增强→解聚合),下半部分是群体增强阶段的MCMC风格循环。
阶段一:群体创建(Population Creation)
并行采样N条独立的推理轨迹 \(\{\tau_1, \tau_2, ..., \tau_N\}\)。每条轨迹是模型对问题的一次完整求解尝试。这一步和传统的Best-of-N采样一致,没有特别之处。
阶段二:群体增强(Population Enhancement)——PRISM的核心战场
这里是PRISM和其他方法拉开差距的地方。PRISM设计了一个类MCMC(马尔可夫链蒙特卡洛)的迭代循环,每轮包含四个步骤:评分→重采样→随机精炼→冲突仲裁。整个循环执行T轮。
阶段三:解聚合(Solution Aggregation)
最终答案不再用简单多数投票,而是用PRM分数加权投票——PRM-Score Vote。
下面逐一拆解每个关键组件。
3. PRM评分机制:步级别的"裁判"
PRISM的地基是过程奖励模型V。给定一条推理轨迹 \(\tau = (s_1, s_2, ..., s_K)\)(K个推理步骤),PRM对每个步骤 \(s_k\) 打标签:\(\{+1, 0, -1\}\),分别表示"正确"、"中性"、"错误"。
这些步级标签被汇总为一个标量连贯性分数 \(s(\tau) \in [0, 1]\),表示整条轨迹的推理质量。具体汇总规则有一个关键设计:
- 如果最终答案错误,无论中间步骤多漂亮,分数上限卡在0.3
- 如果最终答案正确,分数下限保底0.5
这个设计非常务实——它确保了"结果导向"和"过程导向"之间的平衡。一条推理过程完美但答案算错的轨迹,不应该获得高分;反过来,一条答案碰巧正确但推理粗糙的轨迹,也不应该被过度惩罚。
在此基础上,每条轨迹的重要性权重为:
其中 \(T_{smc}\) 是温度参数,控制探索-利用的权衡。\(T_{smc}\) 越小,高分轨迹的权重优势越明显(利用优先);\(T_{smc}\) 越大,权重分布越均匀(探索优先)。
4. 四步MCMC循环:精炼的核心引擎
4.1 评分(Scoring)
每轮迭代开始时,PRM V对群体中所有轨迹进行步级评估,更新每条轨迹的连贯性分数 \(s(\tau_i)\) 和对应的重要性权重 \(w(\tau_i)\)。
4.2 重采样(Resampling)
这一步的触发条件是有效样本量 ESS 过低。ESS的定义是:
当ESS/N低于预设阈值时,说明群体中权重分布严重不均——少数轨迹占据了绝大部分权重,群体多样性告急。此时触发重采样:按权重比例复制高分轨迹,淘汰低分轨迹。
但这里有一个精巧的设计——克隆上限(Clone Cap)。任何单条轨迹被复制的次数不能超过上限,防止某条"明星轨迹"霸占整个群体,导致多样性坍塌。这个机制借鉴了粒子滤波中的经典技巧。
论文Table 2展示了重采样动态的演化过程:
| 精炼轮次 | ESS/N (AIME25) | 触发率 (AIME25) | ESS/N (GPQA) | 触发率 (GPQA) |
|---|---|---|---|---|
| t=0 | 0.47 | 79% | 0.55 | 62% |
| t=1 | 0.68 | 26% | 0.72 | 23% |
| t=2 | 0.78 | 11% | 0.79 | 11% |
| t=3 | 0.82 | 6% | 0.84 | 7% |
| t=4 | 0.85 | 3% | 0.88 | 4% |
一个清晰的趋势:初始群体(t=0)权重分布极不均匀,ESS/N只有0.47-0.55,50%-79%的问题需要触发重采样。但随着精炼推进,群体质量趋于均匀,到t=4时ESS/N达到0.85-0.88,几乎不再需要重采样。这说明PRISM的精炼过程确实在让群体收敛到高质量区域。
4.3 随机精炼(Stochastic Refinement)
这是最核心的一步。对群体中的每条轨迹,迭代器模型I提出改进方案。改进提案来自混合分布:
- \(q_{local}\):局部修正——针对PRM标记为有问题的步骤进行定点修复
- \(q_{explore}\):全局探索——尝试完全不同的求解路径
是否接受改进提案,采用Metropolis-Hastings风格的判定:
如果 \(r_w \geq 1\)(新方案分数更高),无条件接受。如果 \(r_w \lt 1\)(新方案分数更低),以概率 \(r_w\) 接受——这就是所谓的"下坡移动"(downhill move)。
为什么要接受更差的方案?因为这是避免陷入局部最优的经典手段。在优化理论中,纯贪心策略容易卡死在局部峰值,适度的随机扰动能帮助跳出陷阱。
论文Table 3给出了提案接受的统计数据:
| 数据集 | 接受提案均分 | 拒绝提案均分 | 下坡接受率 | 上坡接受率 |
|---|---|---|---|---|
| AIME25 | 0.79 | 0.023 | 10% | 74% |
| HMMT25 | 0.69 | 0.045 | 18% | 68% |
| GPQA Diamond | 0.72 | 0.032 | 12% | 72% |
几个关键观察:
- 被接受提案的平均分数(0.69-0.79)远高于被拒绝提案(0.023-0.045),说明PRM确实在有效过滤低质量修改
- 下坡接受率维持在10%-18%,不高也不低——足够保持探索多样性,又不至于引入太多噪声
- 上坡接受率68%-74%(不是100%),说明即使分数更高的提案也不会被无条件接受——温度参数 \(T_{smc}\) 在这里起到了正则化作用
4.4 冲突仲裁(Conflict Arbitration)
当群体中出现多个高分但答案不同的轨迹时,仅靠PRM分数无法决出胜负。PRISM引入比较器模型C来处理这种情况:
- 识别得分相近但答案冲突的轨迹对
- 比较器C对冲突对进行直接比较
- 败者的分数被钳制到较低值(c=0.3)
这个设计处理的是一个微妙但重要的边缘情况:两条推理路径都"看起来很对",PRM给了相近的高分,但它们指向不同的最终答案。纯靠PRM分数无法区分,需要一个"仲裁者"做最终判断。
5. PRM-Score Vote:加权投票替代多数投票
传统DeepThink系统的最后一步是多数投票(Majority Vote):数一数哪个答案出现次数最多,选它。这个方法简单粗暴,但有一个致命缺陷——它假设所有候选轨迹的可信度相同。
PRISM用PRM分数加权投票替代:
直觉很简单:一条经过严密推理、PRM给了0.9分的轨迹,它的"投票权"应该远大于一条推理粗糙、PRM只给0.3分的轨迹。这种加权机制让少数高质量的正确答案能够压过大量低质量的错误答案。
6. 主实验结果分析
6.1 核心性能对比
论文在三个高难度基准上评测:AIME 2025(数学竞赛)、HMMT 2025(数学竞赛)、GPQA Diamond(研究生级科学问答)。
| 方法 | AIME25 | HMMT25 | GPQA Diamond | 成本 |
|---|---|---|---|---|
| gpt-oss-120b zero-shot | 77.8% | 68.9% | 69.7% | $0.20 |
| gpt-oss-20b zero-shot | 58.9% | 44.4% | 59.7% | $0.08 |
| gpt-oss-20b + SciMaster + MV | 84.4% | 70.0% | 63.4% | $6.60 |
| gpt-oss-20b + Agentic Debate + MV | 85.6% | 72.2% | 65.0% | — |
| gpt-oss-20b + Recursive Self-Agg + MV | 87.8% | 77.8% | 68.6% | $4.03 |
| gpt-oss-20b + PRISM (PRM-score Vote) | 90.0% | 75.4% | 71.4% | $6.76 |
MV = Majority Vote
图:gpt-oss-20b在不同DeepThink方法下的表现。红色虚线为gpt-oss-120b零样本基线。
几个值得深挖的发现:
20B追平120B。 gpt-oss-20b + PRISM在AIME25上达到90.0%,大幅超过gpt-oss-120b的77.8%;在GPQA Diamond上达到71.4%,超过120B的69.7%。一个6倍小的模型,通过更聪明的推理时计算分配,实现了对大模型的超越。这对实际部署有直接意义——在推理成本敏感的场景下,小模型+PRISM可能比直接上大模型更划算。
GPQA Diamond上的差距最显著。 在数学竞赛题(AIME、HMMT)上,各方法差距相对较小(84-90%区间)。但在GPQA Diamond这种跨学科科学推理任务上,PRISM(71.4%)对SciMaster(63.4%)的优势达到8个百分点。这暗示PRM在需要跨步骤一致性验证的复杂推理中,优势更为明显。
HMMT25上PRISM略输Recursive Self-Aggregation。 PRISM的75.4%低于Recursive Self-Aggregation的77.8%。论文没有深入解释这一点,但可能的原因是HMMT25的题目结构更适合层次化聚合(Recursive Self-Aggregation的核心机制),而不是迭代精炼。
6.2 计算-精度帕累托前沿
图:GPQA Diamond上的计算-精度散点图。X轴为每题平均token数(对数尺度),Y轴为准确率。
这张图传达了一个重要信息:PRISM位于帕累托前沿上。它不只是准确率最高,而是在"花的token"和"获得的准确率"之间取得了最优权衡。MAD Conformist虽然token消耗少(约30k/题),但准确率只有约67%;PRISM消耗更多token(约270k/题),但换来了71.4%的准确率。在帕累托前沿上,没有其他方法能在同等token预算下达到更高的准确率。
7. 精炼动态分析:为什么PRISM不会"想多了反而变笨"?
7.1 精炼深度与群体准确率
图:GPQA Diamond上精炼深度 vs 群体准确率(PopAcc)。
这张图是论文中最有说服力的实验之一。纵轴PopAcc衡量的是群体中正确答案的比例。
- PRISM(蓝线):从初始约66%稳步上升到约71%,5轮精炼中始终保持上升趋势
- SciMaster:在2轮精炼后开始下降
- Agentic Debate:同样在早期达到峰值后回落
- MAD Follower:几乎持平,精炼深度对其没有帮助
这正是"群体增强瓶颈"的直观展示。没有PRM指导的方法,精炼到一定深度后就开始"自我污染"——错误推理在反复迭代中被强化,正确答案被边缘化。PRISM因为每一步都有PRM提供方向信号,能够持续把群体推向正确方向。
7.2 NetFlip:精炼的"净收益"
图:GPQA Diamond上各方法的NetFlip值。
NetFlip是论文提出的一个很直观的指标:
正值表示精炼过程在"净纠错",负值表示精炼在"净添乱"。
PRISM的NetFlip约为95,远超其他方法。MAD Conformist约85,MAD Follower约50,Agentic Debate约32。而Recursive Self-Aggregation和SciMaster几乎为零——它们的"纠错"和"添乱"基本抵消了。
这个指标揭示了一个深层规律:不是所有的"深度思考"都是有效的。 如果精炼过程没有可靠的正确性信号,它可能只是在做随机扰动,纠正的错误和引入的新错误数量相当。PRM的价值在于将随机扰动变成有方向的优化。
7.3 低初始正确数下的韧性
图:GPQA Diamond上,不同初始正确答案数(0-10)下各方法的最终准确率热力图。
这张热力图展示了一个极端场景:当初始群体中正确答案极少时,各方法的表现如何?
| 初始正确数 | PRISM | MAD Conformist | MAD Follower | Agentic Debate |
|---|---|---|---|---|
| 0 | 5% | 0% | 0% | 0% |
| 1 | 4% | 0% | 0% | 0% |
| 2 | 30% | 7% | 0% | 7% |
| 3 | 71% | 24% | 24% | 38% |
当初始正确数为0时,PRISM仍然能在5%的情况下"从零创造"正确答案——这得益于随机精炼中的探索组分 \(q_{explore}\),即使当前群体全部错误,PRM仍可能引导出全新的正确路径。
当初始正确数为2-3时,差距更为惊人。PRISM在初始正确数=3时达到71%,而MAD Conformist只有24%。这意味着PRISM能够识别并放大少数派中的正确答案,即使它们在数量上处于绝对劣势。
这个能力的实际意义重大:现实中的困难问题,模型首次尝试的正确率往往不高。如果DeepThink系统只能在"多数已经对了"的情况下才有效,那它的价值就大打折扣。PRISM在"少数正确"甚至"全部错误"的极端情况下仍能发挥作用,这才是真正的鲁棒性。
8. Qwen3模型族实验:跨规模验证
论文不只在gpt-oss系列上验证了PRISM,还在Qwen3模型族(1.7B、4B、8B、14B、30B)上进行了系统实验。几个关键发现:
小模型受益更大。 在Qwen3-1.7B上,PRISM对比zero-shot的提升幅度最为显著。这符合直觉——小模型的单次推理能力弱,但通过PRM引导的多次精炼,能够弥补模型能力的不足。
强验证器指导弱生成器,效果优于自我验证。 实验中,用Qwen3-14B或30B作为PRM(验证器),指导Qwen3-1.7B(生成器),效果好于让1.7B自己既当运动员又当裁判。这是一个有实际价值的发现——在部署时,可以用一个中等规模的PRM模型搭配一个小型生成模型,在控制计算成本的同时获得更好的效果。
更强的PRM带来更好的收益。 在固定生成器的情况下,PRM从8B升级到14B再到30B,PRISM的最终准确率持续提升。PRM的质量是整个系统的上限——如果PRM本身判断不准,再精巧的MCMC循环也无济于事。
9. 与相关方法的对比定位
PRISM所处的研究领域可以用一张谱系图来理解:
推理时计算扩展(Inference-Time Compute Scaling)的谱系:
- Best-of-N采样:最简单的基线——生成N个候选,选最好的。没有精炼过程。
- MCTS(蒙特卡洛树搜索):将推理过程建模为树搜索,用价值函数指导搜索方向。AlphaGo的核心技术。PRISM和MCTS共享"用奖励信号指导搜索"的思路,但PRISM操作在完整轨迹层面而非步级别的树节点上,计算开销更可控。
- SciMaster:迭代重写——让模型反复修改自己的解答,期望越改越好。但缺乏外部正确性信号,精炼深度受限。
- 多智能体辩论(Agentic Debate / MAD):让多个模型实例互相辩论,通过"辩论出真知"的方式提升质量。但辩论容易陷入"声音大的赢"的困境——更有说服力的论证不一定更正确。
- Recursive Self-Aggregation:层次化聚合——先两两比较,再逐层汇总。在HMMT25上效果不错,但缺乏迭代精炼能力。
PRISM的独特定位在于:它是第一个在DeepThink的群体增强阶段引入步级过程奖励信号的方法。 SciMaster和辩论方法都在"盲目"精炼,Recursive Self-Aggregation只在聚合阶段做文章,而PRISM在精炼的每一步都有PRM提供反馈。
10. 局限性讨论
论文在最后坦诚地列出了几个局限:
PRM的实现方式。 当前实验中,PRM是用同系列的LLM实现的(prompt-based),而非专门训练的外部奖励模型。这意味着PRM的评分质量受限于LLM本身的判断能力。如果用专门在过程监督数据上训练的PRM,效果可能进一步提升。
步骤分割假设。 PRISM假设推理轨迹可以被自然地分割为离散的"步骤"。这在数学推理中通常成立(每一步计算是一个自然分割点),但在连续性文本流(比如开放式写作或复杂的多步逻辑链)中,步骤边界可能不那么清晰。
计算成本。 PRISM的成本(\(6.76/题)远高于零样本推理(\)0.08-0.20/题)。虽然它在帕累托前沿上,但对于成本极度敏感的场景,这个开销可能不可接受。
11. 个人思考与工程启示
11.1 PRM是推理系统的"类型检查器"
PRISM的核心贡献可以用一个软件工程类比来理解:PRM之于推理系统,就像类型检查器之于编程语言。没有类型检查,程序员可以写出任何代码,但错误只能在运行时发现(对应:没有PRM的DeepThink,推理错误只能在最终答案处暴露)。有了类型检查,大量错误在编译阶段就被拦截(对应:有了PRM,错误推理步骤在精炼过程中就被识别和修正)。
这个类比的推论是:PRM的质量决定了系统的天花板,就像类型系统的表达能力决定了它能捕获的错误范围。如何训练更好的过程奖励模型,可能是比优化MCMC循环更重要的研究方向。
11.2 "少数正确"场景才是真正的试金石
论文中最打动我的实验是图x12的热力图。在"初始群体多数正确"的easy模式下,各方法差距不大——只要别把对的改成错的就行。真正拉开差距的是"初始正确数=0-3"的hard模式。
这对应的现实场景是:真正困难的问题,模型第一轮采样的正确率可能只有10-30%。如果一个DeepThink系统在这个区间无法有效工作,它的实际价值就很有限——因为简单的问题本来就不需要DeepThink。
PRISM在这个困难区间的表现(初始正确数=3时71% vs MAD Conformist的24%)说明了PRM引导的精炼确实在做"有信息量"的优化,而不只是"投票放大"。
11.3 验证器-生成器分离的架构启示
Qwen3实验中"强验证器+弱生成器"优于"自我验证"的发现,对系统架构设计有直接指导意义。在生产环境中,可以考虑这样的部署策略:
- 生成器:用小型、快速的模型(如7-8B参数),负责快速产生候选推理轨迹
- 验证器(PRM):用中等规模的专用模型(如14-30B参数),负责评估每个步骤的质量
这种分离架构的好处是:生成阶段可以大规模并行(因为模型小,单次推理成本低),验证阶段只需要对已生成的轨迹做评估(输入固定,不需要自回归生成),计算模式更适合批处理优化。
11.4 MCMC框架的理论意义
PRISM把DeepThink的精炼过程形式化为MCMC采样,这不只是一个工程技巧,而是建立了一个有理论根基的框架。MCMC的收敛性理论(在满足遍历性条件下,采样分布会收敛到目标分布)为PRISM提供了理论保障——只要PRM足够准确,且精炼轮数足够多,群体的分布会收敛到"高质量推理轨迹"的分布。
当然,现实中的PRM不是完美的,精炼轮数也是有限的,所以收敛只是渐近意义上的。但这个理论框架的价值在于:它把DeepThink精炼从"启发式调参"提升为"有原则的优化"。未来的改进可以在这个框架内进行,比如改进提案分布、调整接受准则、优化温度退火策略等,每一步都有理论依据。
11.5 开放问题
论文留下了几个值得继续探索的方向:
- 专用PRM训练:当前用prompt-based方式让通用LLM充当PRM,如果用专门的过程监督数据训练一个dedicated PRM,能带来多大提升?
- 自适应计算预算:能否根据问题难度动态调整精炼轮数和群体大小?简单问题1-2轮就够了,困难问题可能需要10轮以上。
- 非数学领域推广:PRISM在代码生成、定理证明、规划等需要多步推理的任务上表现如何?步骤分割假设在这些领域是否成立?
- PRM与RL的结合:PRISM是纯推理时的方法,不涉及模型权重更新。如果把PRM信号也用于训练时的RL反馈,能否同时提升模型的基础能力和推理时的精炼效果?
12. 总结
PRISM的贡献可以浓缩为一句话:给DeepThink系统的精炼过程装上了过程奖励模型这个"导航仪",把盲目的迭代搜索变成了有方向的优化。
技术层面,PRISM设计了一个类MCMC的四步循环(评分-重采样-随机精炼-冲突仲裁),每一步都由PRM提供步级反馈信号。实验层面,20B模型+PRISM在三个高难度基准上追平甚至超越120B模型,并在精炼深度、NetFlip、低初始正确数等维度展现了对基线方法的系统性优势。
更深层地看,PRISM指出了推理系统中"验证信号"的核心价值——不是"想得更多"就能想得更好,关键是在"想"的过程中有一个可靠的裁判来纠偏。这个洞察对推理系统的设计哲学有着持久的影响。