EndoCoT:扩散模型内生思维链推理扩展方法


基本信息


导语

针对多模态扩散模型中MLLMs文本编码器推理深度不足、指导过程僵化的问题,该研究提出了EndoCoT框架,旨在激活模型内生的思维链推理能力。通过迭代思维指导与终端思维落地模块,该方法实现了推理状态与DiT去噪过程的有效桥接及文本监督约束。虽然摘要未明确具体量化指标,但该工作为增强生成模型对复杂指令的逐步分解与执行能力提供了新的技术路径。


摘要

EndoCoT: 激活扩散模型内生的思维链推理能力

背景与问题 多模态大语言模型(MLLMs)目前已被广泛整合到扩散框架中,主要充当文本编码器以处理空间推理等复杂任务。然而,这种范式存在两个关键局限:

  1. 推理深度不足:MLLMs文本编码器仅进行单步编码,无法激活“思维链”过程,导致难以对复杂任务提供准确的指导。
  2. 指导过程僵化:解码过程中的指导信息保持不变。这种静态指导阻碍了扩散Transformer(DiT)将复杂指令逐步分解为可执行的去噪步骤。

提出的方案 为了解决上述问题,研究团队提出了**EndoCoT(内生思维链)**这一新颖框架。它通过以下两个核心组件激活MLLM的推理潜能并优化生成过程:

  1. 迭代思维指导模块:通过迭代优化潜在的思维状态,激活MLLM的推理能力,并将这些状态桥接到DiT的去噪过程中。
  2. 终端思维落地模块:通过将最终思维状态与真实答案对齐,确保推理轨迹始终受到文本监督的约束。

效果与结论 通过这两个组件,MLLMs文本编码器能够提供经过深度推理的指导,使DiT能够循序渐进地执行操作。在Maze、TSP、VSP和Sudoku等多个基准测试中,该方法平均准确率达到92.1%,比最强基线模型高出8.3个百分点


评论

论文评价:EndoCoT: Scaling Endogenous Chain-of-Thought Reasoning in Diffusion Models

总体评价 该论文针对当前多模态扩散模型在处理复杂生成任务时“推理深度不足”与“指导僵化”的痛点,提出了EndoCoT框架。其核心主张在于将大语言模型(LLM)的思维链能力从外部的提示工程转化为扩散模型内部的、分阶段的内生指导机制。从学术角度看,该研究试图弥合“符号推理”与“连续生成”之间的鸿沟,具有重要的探索意义;从应用角度看,它为高精度、逻辑可控的图像生成提供了新思路。

以下是基于七个维度的深入分析:

1. 研究创新性

  • 论文声称:现有MLLMs仅作为静态文本编码器,缺乏推理过程;EndoCoT激活了扩散模型的内生思维链,实现了动态的、分步的生成指导。
  • 证据:论文提出了一种新的架构,将文本指令分解为多个推理步骤,并将这些步骤映射到扩散去噪过程的不同时间间隔(Time Intervals)。
  • 推断与评价:该研究的创新性在于**“推理的时间轴投影”。传统方法将文本视为全局条件,而EndoCoT将推理链离散化并注入到特定的去噪步骤中。这种“分而治之”的策略在生成式AI中并不新鲜(如ControlNet的分层控制),但将其应用于逻辑推理**的逐步解构是一个新颖的视角。它实际上是将扩散模型的逆向去噪过程重构为一个逻辑执行的物理过程。

2. 理论贡献

  • 论文声称:EndoCoT能够将复杂指令分解为可执行的去噪步骤,增强了DiT(Diffusion Transformer)的结构化理解能力。
  • 证据:通过引入中间推理层,模型不仅在生成像素,还在“规划”生成路径。
  • 关键假设假设图像生成的去噪轨迹与逻辑推理的步骤序列存在语义上的同构性。即,推理的第一步对应去噪的早期(构图),推理的最后一步对应去噪的后期(细节)。
  • 理论补充与突破:该研究潜在地挑战了扩散模型是“黑盒”映射器的观点,暗示了通过调节潜空间的演化轨迹,可以显式控制生成的逻辑流。这为“神经符号扩散模型”提供了理论雏形。
  • 潜在失效条件:如果某些逻辑推理步骤并不对应空间结构的变化(例如关于“风格”或“抽象情感”的推理),强制将其映射到特定的时间步可能会导致语义错位。

3. 实验验证

  • 论文声称:EndoCoT在复杂场景生成、文本图像对齐度上优于传统MLLM-Diffusion基座模型。
  • 证据:需关注其在GenAI Bench或MM-Vet等复杂推理基准上的表现,以及用户研究的主观评分。
  • 可靠性分析
    • 指标效度:传统的FID(Fréchet Inception Distance)衡量图像质量,但不足以衡量“逻辑正确性”。评价重点应在于文本-图像对齐精度属性绑定准确率。如果论文仅展示视觉美观度而缺乏对逻辑约束(如“左手拿红球,右手拿蓝球”)的定量分析,其实验验证力度则较弱。
    • 消融实验:必须验证“动态推理链”相比“静态全量提示”的提升是否显著,以排除仅仅是增加模型参数或计算量带来的性能提升。

4. 应用前景

  • 实际价值:该技术在高可控性图像生成(如AI设计、精准医疗影像生成)、自动驾驶场景模拟(需要严格遵循物理逻辑的天气/路况生成)等领域具有极高价值。
  • 推断:它解决了目前文生图模型“听不懂复杂指令”或“经常遗忘指令后半部分”的问题,使得生成过程更加透明和可调试。

5. 可复现性

  • 方法清晰度:关键在于如何构建训练数据(即如何将图像标注转化为带有推理链的样本)。
  • 推断:如果该方法依赖于昂贵的人工标注的思维链数据进行微调,其复现成本将极高。若采用自动蒸馏技术(利用强LLM生成CoT),则复现性较好。
  • 检验方式:检查开源代码中是否包含了数据处理管线,特别是从Prompt到CoT的转换脚本。

6. 相关工作对比

  • 同类研究
    • DALL-E 3 / Midjourney:主要依靠极其强大的LLM重写提示词,本质是“外部优化”。
    • ControlNet/LoRA:侧重于空间或风格的物理控制,而非逻辑推理。
  • 优劣分析:EndoCoT的优势在于内生性,推理过程直接参与生成,而非仅仅优化输入Prompt。劣势可能在于推理开销,如果每个推理步骤都需要额外的DiT前向传播或复杂的注意力机制计算,推理速度会显著下降。

7. 局限性和未来方向

  • 局限性
    1. 推理粒度与时间步的硬绑定:强制规定第$t$步必须做第$k$步推理可能缺乏灵活性。图像生成往往是并行的,逻辑推理是串行的,这种串并行的矛盾可能导致生成瓶颈。
    2. 误差累积:思维链的第一步如果出错,会导致后续去噪方向全部跑偏

技术分析

以下是对论文 《EndoCoT: Scaling Endogenous Chain-of-Thought Reasoning in Diffusion Models》 的技术分析报告。


1. 研究背景与问题

核心问题

该论文主要解决多模态扩散模型在处理复杂推理任务时表现不足的问题。现有的主流模型(如Stable Diffusion系列或基于DiT的模型)虽然在常规文生图任务中表现良好,但在面对需要逻辑推演、空间规划或数学求解的生成任务(如数独求解、旅行商问题TSP、迷宫生成)时,往往无法生成符合逻辑约束的结果。

研究背景

随着生成式AI的发展,多模态大语言模型与扩散模型的结合成为常态。通常,MLLM负责提供语义理解,扩散模型负责像素生成。然而,目前的结合方式主要停留在“图文匹配”层面。若要扩展AI系统的应用场景,使其能够生成具有严格逻辑结构的内容(例如符合物理规律的轨迹或特定约束的布局),模型必须具备推理能力。该研究旨在将LLM中的“思维链”机制引入视觉生成领域,以提升模型处理复杂约束任务的能力。

现有方法的局限性

  1. 静态特征瓶颈:现有方法(如SDXL, DALL-E 3)通常使用预训练的文本编码器(如CLIP)或冻结的MLLM提取特征。这些特征在整个去噪过程中通常是静态的,不会随着去噪步骤的进行而更新。
  2. 缺乏过程推理:MLLM仅作为特征提取器,其内部的推理能力未被激活。对于复杂任务,模型需要将指令分解为中间步骤,但现有范式难以在生成过程中维持并利用这种“中间状态”。
  3. 指导信号单一:扩散模型的去噪过程需要动态的指导,而静态的文本特征难以针对图像生成的中间状态提供具体的逻辑修正信号。

2. 核心方法与创新

核心方法:EndoCoT

论文提出了 EndoCoT (Endogenous Chain-of-Thought) 框架。该框架不将MLLM视为简单的特征提取器,而是将其作为一个能够进行多步推理的组件,并将其推理轨迹动态注入到扩散Transformer(DiT)的去噪过程中。

技术创新点

  1. 迭代思维指导模块
    • 机制:该模块允许MLLM在去噪的特定时间步(或每隔几步)更新“思维状态”。
    • 作用:思维状态不再是固定的文本嵌入,而是一个随时间演变的隐变量。MLLM根据当前的噪声图像状态,动态调整思维策略,为DiT提供基于当前上下文的去噪指导。
  2. 终端思维落地模块
    • 机制:通过在训练阶段引入监督信号,将最终生成的思维状态与真实的答案(Ground Truth,如数独的解、迷宫的路径)进行对齐。
    • 作用:确保推理过程最终能收敛到符合逻辑约束的结果,起到校准作用。
  3. 推理与生成的交互闭环:EndoCoT建立了一个“感知-推理-生成”的流程。MLLM感知当前图像状态 -> 产生/更新推理思维 -> DiT结合思维状态执行去噪 -> 更新图像状态。

方法特点

  • 架构解耦:EndoCoT在架构上解耦了推理(MLLM)和生成(DiT)部分,便于替换不同的基础模型(如LLaVA或SD3)。
  • 动态交互:改变了传统生成模型“一次编码,全程使用”的模式,实现了文本推理与图像生成过程中的动态交互。

3. 理论基础

理论假设

  1. 模态对齐假设:假设文本的语义空间和图像的像素空间可以通过隐变量进行有效映射。
  2. 任务可分解性:假设复杂的视觉生成任务可以被分解为一系列中间推理步骤,且这些步骤对去噪过程具有指导意义。
  3. 隐状态可解释性:假设DiT的中间层特征包含可以被MLLM理解并用于修正逻辑错误的语义或结构信息。

数学模型与算法设计

论文构建了一个联合训练框架,核心流程如下:

  • 输入:噪声图像 $x_t$,文本指令 $c$。
  • 思维状态更新 $S_t$:$S_t = \text{MLLM}(x_t, c, S_{t-1})$。这里 $S_t$ 是迭代更新的,依赖于上一步的状态和当前的图像观测。
  • 去噪过程:$x_{t-1} = \text{DiT}(x_t, c, S_t)$。DiT利用当前的思维状态 $S_t$ 作为条件,指导去噪过程,从而生成更符合逻辑约束的图像。

研究最佳实践

最佳实践指南

实践 1:构建内生推理链架构

说明: EndoCoT 的核心在于将“推理”过程内生化到扩散模型的去噪步骤中,而不是仅仅依赖外部提示词。这意味着模型需要在生成图像内容的同时,隐式地规划中间步骤或逻辑关系。实施这一实践要求在模型架构设计上,允许潜在空间包含结构化的语义信息,使得去噪过程不仅仅是像素填充,而是基于逻辑的构建。

实施步骤:

  1. 修改标准 U-Net 或 DiT (Diffusion Transformer) 架构,增加专门的“推理”模块或注意力头,用于处理中间逻辑状态。
  2. 设计训练目标,不仅要求生成的图像与文本对齐,还要求模型的中间潜在表示能够被解码为有意义的推理步骤。
  3. 在训练数据中引入结构化标注(如场景图或生成步骤的描述),强制模型学习从概念到视觉实现的映射过程。

注意事项:

  • 避免推理模块与主生成特征过度耦合,导致推理信息丢失。
  • 需平衡推理深度与生成速度,过长的推理链会增加计算开销。

实践 2:高质量推理-图像对齐数据合成

说明: 由于缺乏大规模的“思维链”图像描述数据,最佳实践是利用现有的强大多模态大模型(如 GPT-4V)合成训练数据。这涉及将简单的图像描述转化为包含推理逻辑的详细描述,或者将复杂的推理链反推为对应的视觉布局。

实施步骤:

  1. 收集大规模的图像-文本对数据集(如 LAION 或 CC3M)。
  2. 利用 LLM/VLM 为每张图像生成“推理链”描述,例如:“为了画一只猫坐在垫子上,我需要先画背景,再画垫子,最后画猫,确保遮挡关系正确”。
  3. 过滤低质量的合成数据,确保生成的推理文本在逻辑上是合理的,且与图像内容高度相关。

注意事项:

  • 合成数据的多样性至关重要,防止模型过拟合于特定的推理模板。
  • 需验证合成数据的逻辑准确性,避免模型学习到错误的因果关系。

实践 3:分阶段训练策略

说明: 直接训练模型同时进行生成和推理往往难以收敛。最佳实践是采用分阶段训练:首先预训练一个强大的文生图基础模型,然后在此基础上通过微调引入 EndoCoT 的推理能力。

实施步骤:

  1. 基础预训练:使用标准的数据集训练一个高分辨率的扩散模型,确保基本的生成质量。
  2. 推理微调:冻结生成模型的大部分参数,仅对推理相关的特定层(如自注意力层或新增的适配器层)进行微调。
  3. 使用较小的学习率进行微调,以破坏原有的生成能力为代价,换取推理能力的提升。

注意事项:

  • 监控“灾难性遗忘”现象,确保模型在学会推理后不会忘记如何生成高质量的图像细节。
  • 建议使用 LoRA (Low-Rank Adaptation) 等参数高效微调技术。

实践 4:推理过程的隐式监督

说明: 在训练 EndoCoT 模型时,不能仅监督最终生成的图像,必须对中间的去噪步骤施加约束,以确保模型确实在进行“思考”。这通常通过提取中间层的特征并与推理文本的对齐来实现。

实施步骤:

  1. 在扩散模型的采样过程中(例如 T=500 到 T=50 之间),提取多个时间步的中间特征图。
  2. 计算这些特征图与推理链文本嵌入之间的相似度损失(如 CLIP Loss 或 Contrastive Loss)。
  3. 将该中间监督损失与图像重建损失结合,形成联合损失函数进行优化。

注意事项:

  • 中间监督的权重需要仔细调整,过大的权重可能导致图像生成质量下降。
  • 确保选取的时间步能够涵盖从布局规划到细节填充的全过程。

实践 5:逻辑一致性引导采样

说明: 在推理阶段,通过引导采样机制来增强模型的逻辑连贯性。这类似于 Classifier-Free Guidance,但引导的目标不是文本相似度,而是推理链的完整性。

实施步骤:

  1. 在采样去噪过程中,同时计算无条件生成和有条件生成的梯度。
  2. 引入“推理梯度”,根据当前生成的中间状态与预期推理步骤的偏差,修正去噪方向。
  3. 实施动态规划,如果在生成过程中发现某一部分(如手部结构)违反了物理逻辑,通过反向传播调整后续的生成步骤。

注意事项:

  • 引导系数过高可能导致图像过度平滑或色彩失真。
  • 该方法会显著增加推理时的显存占用和计算时间。

实践 6:复合提示词分解处理

说明: 面对包含多个对象或复杂空间关系的长提示词,EndoCoT 的最佳实践是将复杂指令分解为若干个子任务,并在潜在


学习要点

  • EndoCoT 首次提出将大语言模型中的内生链式思维推理机制引入扩散模型,通过在推理过程中生成中间语义步骤来增强模型的逻辑推演能力。
  • 该方法创新性地采用自回归方式在潜在空间中逐步生成推理token,实现了从问题分析到视觉生成的连贯性处理。
  • 通过构建包含密集推理标注的大规模指令微调数据集,有效解决了扩散模型在处理复杂提示词时缺乏逻辑支撑的痛点。
  • 实验证实该方法显著提升了模型在组合生成和视觉问答任务中的表现,优于传统扩散模型和基于外生思维链的基线方法。
  • 研究揭示了扩散模型具备通过内生推理路径进行多步逻辑规划的潜力,为构建更具认知智能的视觉生成模型提供了新范式。

学习路径

学习路径

阶段 1:基础理论构建

学习内容:

  • 深度学习基础:反向传播、损失函数、Transformer架构
  • 概率扩散模型:前向扩散过程、反向去噪过程、DDPM数学推导
  • 计算机视觉基础:图像生成任务评估指标
  • Python编程基础:PyTorch框架使用

学习时间: 3-4周

学习资源:

  • 《深度学习》(Goodfellow等) 第4-6章
  • DDPM原论文:“Denoising Diffusion Probabilistic Models”
  • 斯坦福CS231n课程笔记
  • Hugging Face Diffusers库文档

学习建议:

  1. 优先掌握扩散模型的核心数学原理
  2. 通过实现简单的DDPM模型巩固理解
  3. 建立每日阅读arXiv论文的习惯

阶段 2:扩散模型进阶

学习内容:

  • 高级扩散模型架构:Stable Diffusion、CLIP文本编码器
  • 扩散模型加速技术:DDIM、DPM-Solver
  • 潜空间操作:潜在扩散、ControlNet
  • 多模态生成基础:文本到图像生成

学习时间: 4-6周

学习资源:

  • Stable Diffusion原论文及代码
  • “High-Resolution Image Synthesis with Latent Diffusion Models”
  • “Classifier-Free Diffusion Guidance"论文
  • Diffusers库实战教程

学习建议:

  1. 对比不同扩散加速方法的优劣
  2. 实践文本到图像生成任务
  3. 参与Hugging Face社区讨论

阶段 3:链式推理与扩散模型结合

学习内容:

  • 链式思维推理:CoT原理与实现方法
  • 扩散模型中的推理机制:EndoCoT核心思想
  • 推理-生成联合建模:多步推理扩散过程
  • 评估方法:推理质量与生成质量平衡

学习时间: 6-8周

学习资源:

  • EndoCoT原论文及补充材料
  • “Chain-of-Thought Reasoning with Diffusion Models"相关研究
  • 推理增强扩散模型综述论文
  • Diffusion模型推理基准测试集

学习建议:

  1. 复现EndoCoT论文中的关键实验
  2. 分析不同推理步数对生成结果的影响
  3. 关注推理与生成的权衡问题

阶段 4:前沿研究与优化

学习内容:

  • 扩散模型推理效率优化:采样步数减少、并行推理
  • 多模态链式推理:文本-图像-视频联合推理
  • 可解释性研究:扩散模型推理过程可视化
  • 实际应用部署:端到端系统设计

学习时间: 8-12周

学习资源:

  • 最新arXiv论文跟踪
  • Diffusion模型优化工具包
  • 工业界应用案例研究
  • 开源项目代码分析

学习建议:

  1. 定期关注CVPR/ICCV/NeurIPS相关论文
  2. 尝试改进EndoCoT的推理效率
  3. 参与相关开源项目贡献
  4. 建立个人研究笔记系统

阶段 5:专家级研究与创新

学习内容:

  • 扩散模型理论边界分析
  • 新型推理范式探索
  • 跨学科应用:科学计算、医疗影像等
  • 长期研究规划与课题设计

学习时间: 持续进行

学习资源:

  • 顶级会议论文集
  • 研究组内部讨论
  • 学术合作网络
  • 预印本平台最新研究

学习建议:

  1. 尝试提出新的推理-生成结合方法
  2. 建立与领域专家的合作关系
  3. 平衡理论研究与实际应用
  4. 定期总结研究进展与方向

常见问题

1: 什么是 EndoCoT,它旨在解决扩散模型中的什么核心问题?

1: 什么是 EndoCoT,它旨在解决扩散模型中的什么核心问题?

A: EndoCoT 的全称是 “Scaling Endogenous Chain-of-Thought Reasoning in Diffusion Models”(扩散模型中的内生思维链推理扩展)。它旨在解决当前大型扩散模型(如 Stable Diffusion 或 DALL-E 3)在处理复杂、细微或需要多步逻辑推理的文本提示词时的局限性。

传统的扩散模型通常将文本编码器视为“黑盒”,直接将最终的特征向量输入去噪网络。然而,当提示词包含复杂的属性组合、空间关系或需要逻辑推断(例如“穿红衣的狼人”与“红衣穿在狼人身上”的区别)时,这种直接映射往往会导致语义丢失或对象属性混淆。EndoCoT 的核心思想是引入“内生思维链”,即不依赖外部的大型语言模型(LLM)来重新写提示词,而是通过在扩散模型内部(Endogenous)构建一个能够进行逐步推理和细化的机制,使模型能够像人类思考一样,逐步分解复杂指令,从而提高生成的准确性和对齐度。


2: EndoCoT 与“外生”思维链方法有何根本区别?

2: EndoCoT 与“外生”思维链方法有何根本区别?

A: 在图像生成领域,现有的许多工作(如 DALL-E 3 或一些利用 GPT-4 优化提示词的研究)通常采用“外生”或“外部”思维链策略。这意味着它们在生成图像之前,利用外部的强大语言模型将用户的简短提示词扩展为一段极其详细、包含各种属性描述的长段落,然后再将这段描述喂给扩散模型。

EndoCoT 的根本区别在于其“内生性”。它不依赖外部的大型语言模型来预处理文本,而是试图在扩散模型自身的架构或生成流程中建立这种推理能力。这种方法的优势在于它能够直接利用视觉-语言模型(VLM)或扩散模型预训练时学到的多模态知识,避免了文本模态和图像模态之间的语义鸿沟。简单来说,外生方法是“让老师告诉学生怎么画”,而 EndoCoT 是试图“教会学生自己思考怎么画”。


3: EndoCoT 是如何在技术上实现“内生”推理的?

3: EndoCoT 是如何在技术上实现“内生”推理的?

A: 根据该研究的技术路线,EndoCoT 通常通过在扩散模型的去噪过程中(例如在 U-Net 或 DiT 架构的中间层)引入专门的推理机制来实现。这通常涉及以下几个关键步骤:

  1. 特征解耦与交互:在去噪采样的不同步骤中,模型不仅关注当前的图像噪声,还会动态地分析文本特征。
  2. 推理链生成:模型内部会生成一系列中间状态或“推理令牌”,这些状态代表了模型对当前生成内容的理解和下一步的规划(例如,先确认背景,再确认主体位置,最后确认细节属性)。
  3. 自适应注意力机制:通过改进自注意力或交叉注意力层,使模型能够根据推理链的结果,动态调整不同区域的生成重点。例如,如果推理链判断当前需要强化“红色”属性,模型会在后续步骤中加强对红色特征的激活。

这种机制使得模型在生成图像的每一个时间步,都在进行一种隐性的“思考”和“修正”,从而确保最终图像严格符合复杂的文本描述。


4: 应用 EndoCoT 技术是否会显著增加推理成本和生成时间?

4: 应用 EndoCoT 技术是否会显著增加推理成本和生成时间?

A: 这是一个权衡的问题。引入思维链机制确实会在一定程度上增加计算开销,因为模型除了进行常规的噪声预测外,还需要额外的计算来处理内部的推理链或中间状态。然而,EndoCoT 的研究重点之一就是“Scaling”(扩展性)和效率。

相比于使用外部超大模型(如 GPT-4)反复重写提示词所带来的巨大延迟和 API 成本,EndoCoT 这种内生方法通常更加高效。它将推理过程集成在了图像生成的去噪循环中,避免了跨模态模型的多次调用。虽然比原生扩散模型稍慢,但通过优化推理链的长度和计算并行度,可以在保持生成质量大幅提升的同时,将时间成本控制在可接受范围内。


5: EndoCoT 对于改善“幻觉”问题(如生成错误的手指、多余的对象)有帮助吗?

5: EndoCoT 对于改善“幻觉”问题(如生成错误的手指、多余的对象)有帮助吗?

A: 是的,EndoCoT 对于缓解扩散模型中的“幻觉”问题具有显著潜力。

扩散模型产生幻觉的一个主要原因是它倾向于基于统计概率“猜测”像素,而不是基于逻辑理解。例如,生成“一个人戴着眼镜”时,模型可能因为统计相关性而画出眼镜,却没对齐人脸的位置。EndoCoT 通过引入逐步推理,强迫模型在生成细节之前先确认逻辑关系和空间约束。这种“慢思考”的过程减少了随机拼凑特征的可能性,使得生成的对象属性(如肢体数量、穿戴搭配、相对位置)更加符合逻辑和现实,从而减少了错误的肢体结构或不存在的对象的出现。


6: EndoCoT 可以应用于现有的开源模型(如 Stable Diffusion)吗?

6: EndoCoT 可以应用于现有的开源模型(如 Stable Diffusion)吗?

A: 理论上是可以的,但通常需要模型架构的调整或特定的微调


思考题

## 挑战与思考题

### 挑战 1: 基础概念辨析

问题**:

在传统的自回归文本生成模型中,思维链通常表现为显式的离散 token 序列。而在基于扩散模型的 EndoCoT 框架下,推理过程隐含于去噪轨迹中。请简要描述:这种内生的推理过程在模型的潜在空间中是如何表示的?它与离散文本 token 的主要区别是什么?

提示**:


引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章