如今,以 DeepSeek-R1 为代表的深度思考大模型能够处理复杂的推理任务,而DeepSearch 作为深度思考大模型的核心搜索器,在推理过程中通过迭代调用外部搜索工具,访问参数边界之外的最新、领域特定知识,从而提升推理的深度和事实可靠性。
然而,现有的 RL 驱动的深度思考大模型系统常常面临准确率与效率的「跷跷板」困境:频繁调用搜索工具提升准确性,却带来计算开销和效率低下。具体而言,高频调用外部搜索工具虽能补充实时信息、提升推理准确率,但使得推理延迟大幅升高,等待时间可达几十秒至几分钟。从用户体验角度来看,若信息加载时间超过 10 秒,50% 的移动用户会放弃访问。
北邮百家 AI 团队提出 LightSearcher 框架,首创基于经验记忆的高效 RL 优化技术,通过引入文本化经验记忆和自适应奖励塑造机制,巧妙解决了这一痛点。
在保持与 SOTA 基线 ReSearch 相当准确率的同时,搜索工具调用和模型回复时间显著缩短,搜索工具调用次数减少 39.6%,推理时间缩短 48.6%,Token 消耗降低 21.2%,在保持模型效果的同时显著提升了工具调用效率。
引言
如何教会深度思考大模型策略性地控制搜索工具的使用,优化何时以及如何查询外部知识源,是深度思考大模型亟待解决的问题。现有方法存在以下显著缺陷:
这些问题导致现有模型要么答案不准、可靠性差,要么工具调用过多、效率低下,难以同时满足推理准确和高效执行的核心需求。
LightSearcher 框架
为解决上述缺陷,北邮百家 AI 团队提出基于经验记忆的高效 DeepSearch 框架(LightSearcher),核心思路是在大模型强化推理过程中,通过「对比经验学习」将隐性推理轨迹转化为显性指导经验,并结合自适应奖励优化工具调用,具体包含三大关键组件:
模型最终优化目标为多目标奖励函数的加权和,确保工具调用精简与答案质量的协同提升。
实验
研究团队在四个多跳 QA 基准数据集(NQ、HotpotQA、Musique、2WikiMultihopQA)上进行了全面评估,对比了多种主流 DeepSearch 方法。
3.1 主实验结果
实验结果显示:
3.2 消融实验
移除经验导致 F1 下降 7.2%,证明其核心作用。
LightSearcher 框架通过「经验记忆」这一核心理念,为构建高效、可靠的深度推理系统提供了新路径。尽管目前限于多跳 QA,未来可扩展到代码合成、策略规划等领域。论文成功解决了现有 DeepSearch 的关键痛点:
最后,大模型的 DeepSearch 能力需设计有效的经验机制。相比于复杂的手动标注,LightSearcher 通过其「对比经验」的设计思想,在推理过程依赖可靠的外部知识调用,为构建更加高效、可靠的 AI 深度思考系统提供了重要的技术路径。



































