递归多智能体协同框架
基本信息
- ArXiv ID: 2604.25917v1
- 分类: cs.AI
- 作者: Xiyuan Yang, Jiaru Zou, Rui Pan, Ruizhong Qiu, Pan Lu
- PDF: https://arxiv.org/pdf/2604.25917v1.pdf
- 链接: http://arxiv.org/abs/2604.25917v1
摘要
背景
近年来,递归或循环的语言模型通过在隐状态上迭代精炼计算,实现深度推理的新 scaling 轴。本文将这一思想从单模型扩展到多智能体系统,提出“能否通过递归本身提升 agent 协作的规模?”
RecursiveMAS 框架
RecursiveMAS 将整个多智能体系统视为统一的隐空间递归计算。通过轻量级 RecursiveLink 模块把异构 agent 连接成协作循环,实现:1)同分布隐式思维生成;2)跨 agent 隐状态传递。系统每次迭代既在单 agent 内部进行递归,又在 agent 之间进行状态传递,形成递归的全局计算。
训练与优化
为实现整体协同优化,提出内层‑外层循环学习算法。内部循环在每个 agent 内部更新递归参数;外部循环跨递归轮次共享梯度,进行信用分配。通过共享梯度信息,实现递归训练过程中的梯度稳定性和收敛加速。
理论分析
对运行时复杂度和学习动力学进行形式化分析,证明RecursiveMAS 在递归深度增加时仍保持线性‑对数级别的推理成本,并且梯度方差在递归过程中呈下降趋势,避免了传统文本式多智能体的梯度爆炸/消失问题。
实验结果
在 4 种典型协作模式(顺序、并行、分层、混合)下,RecursiveMAS 在数学、科学、医学、搜索、代码生成等 9 项基准上取得了平均准确率提升 8.3%;端到端推理速度提升 1.2×‑2.4×;令牌使用量下降 34.6%‑75.6%。与当前最先进的单/多智能体以及递归计算基线相比,始终保持优势。
资源
代码与数据已公开于 https://recursivemas.github.io。
技术分析
研究背景
- 来源:摘要指出递归语言模型通过在隐状态上迭代实现深度推理,成为新的 scaling 轴。将递归思想从单模型拓展至多智能体系统,探讨“递归本身能否提升 agent 协作的规模”。
- 推断:该问题对应当前多智能体协同在任务分解、信息共享、并行计算等方面遇到的瓶颈——随着 agent 数量增多,交互成本与信息噪声呈指数增长,传统的文本式交互难以保持一致的推理链路。递归隐空间计算或能提供统一的表示层面,使协作在更紧凑的向量空间内完成,从而缓解上述问题。
核心方法
- RecursiveMAS 框架:将整个多智能体系统视为统一的隐空间递归计算,利用轻量级 RecursiveLink 模块把异构 agent 连接成协作循环。
- 同分布隐式思维生成:每个 agent 在内部进行递归精炼(内部循环),产生一致的隐状态分布。
- 跨 agent 隐状态传递:RecursiveLink 负责在不同 agent 之间传递并融合隐状态,实现外部递归。
- 训练与优化:提出内层‑外层循环学习算法。内层在单 agent 内部更新递归参数;外层跨递归轮次共享梯度,实现信用分配与梯度稳定。
- 来源:上述要点均直接出自摘要,可视为可确认事实。
理论基础
- 运行时复杂度:形式化分析表明,递归深度 L 增加时,总推理成本仍保持 线性‑对数 级别(O(L log L)),体现了递归链路在计算层面的可扩展性。
- 梯度动力学:证明递归过程中梯度方差呈下降趋势,规避传统文本式多智能体的梯度爆炸/消失问题。
- 推断:该分析暗示递归结构天然具备正则化效应,使跨轮次的误差累积得到抑制,但该结论在极端噪声或高度异构 agent 场景下仍需实验验证。
实验与结果
- 实验设置:在顺序、并行、分层、混合四种协作模式下,对数学、科学、医学、搜索、代码生成等 9 项基准进行评测。
- 关键指标(均来自摘要):
- 平均准确率提升 8.3%;
- 端到端推理速度提升 1.2×‑2.4×;
- 令牌使用量下降 34.6%‑75.6%。
- 推断:速度提升与令牌削减表明递归链路在信息压缩与并行计算之间取得平衡;准确率提升说明隐式思维共享对任务理解有正向帮助。
应用前景
- 领域拓展:代码自动生成、科学假设检验、医学诊断推理等需要多步骤、跨知识源的复杂任务。
- 推断:RecursiveMAS 的统一隐空间表示为跨模态(如文本、图像、表格)协作提供基础,可进一步探索在多模态 Agent 系统中的应用。
研究启示
- 递归协作的统一视图:将多智能体视为同一隐空间的递归计算,可简化系统设计并统一训练目标。
- 梯度共享的正则化价值:外层循环共享梯度不仅提升收敛速度,还能抑制噪声累积,为大规模多智能体训练提供可行的信用分配机制。
- 线性‑对数成本的可扩展性:为增加递归深度提供了计算资源上的保障,推动更深层次的任务分解与推理。
相关工作对比
| 工作 | 递归方式 | 多智能体协作 | 隐空间统一 | 成本/梯度特性 |
|---|---|---|---|---|
| Chain‑of‑Thought / ReAct | 文本级递归 | 单 agent | 否 | 梯度爆炸/消失 |
| MAVIN / ChatEval | 多 agent 并行交互 | 文本/对话共享 | 否 | 通信开销大 |
| RecursiveLM(单模型) | 隐状态递归 | 单 agent | 是 | 梯度平稳 |
| RecursiveMAS | 隐状态递归 + RecursiveLink | 统一隐空间 | 是 | 线性‑对数成本、梯度方差下降 |
- 推断:RecursiveMAS 在保持单模型递归优势的同时,通过 RecursiveLink 实现跨 agent 隐状态共享,兼顾了可扩展性与梯度稳定性。
关键假设、潜在失效条件与可证伪方式
关键假设
- 同分布隐式思维:所有 agent 在递归后产生的隐状态具有相似分布,便于跨 agent 融合。
- RecursiveLink 的表达能力:轻量模块足以捕捉 agent 间的关键依赖而不丢失重要信息。
- 梯度共享的正向效应:跨递归轮次的梯度共享能够实现有效信用分配而不产生干扰。
潜在失效条件
- 当 agent 功能极度异构(如视觉 vs. 语言),隐空间分布差异大,导致 RecursiveLink 难以对齐,产生信息瓶颈。
- 递归深度过高时,实际通信与同步开销可能突破线性‑对数模型,使计算成本上升。
- 梯度共享在噪声极大的环境下可能导致误差放大,产生模式崩溃或任务退化。
可证伪方式
- 异构实验:引入不同模态或完全不同的任务类型(如图像生成)agent,验证隐空间对齐是否失效。
- 深度扩展实验:将递归深度从 2 增至 10+,观察实际运行时间是否符合理论线性‑对数增长;若出现指数增长,则证伪成本可扩展性假设。
- 噪声注入实验:在输入或中间层加入高斯噪声,检查梯度方差是否仍保持下降趋势;若出现梯度爆炸,则表明假设不成立。
总结:RecursiveMAS 将递归计算从单模型提升至多智能体层面,通过统一的隐空间与轻量级跨 agent 连接,实现了推理成本的可扩展、梯度的稳健收敛以及显著的任务性能提升。若在实际部署中面对极端异构或极深递归场景,仍需进一步的理论细化与实验验证。
学习要点
- 抱歉,我这边没有看到您想要总结的具体内容。请您提供需要概括的文本或段落,我再为您提炼出 5‑7 条关键要点。
引用
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。