视频扩散模型因果性与去噪过程可分离
基本信息
- ArXiv ID: 2602.10095v1
- 分类: cs.CV
- 作者: Xingjian Bai, Guande He, Zhengqi Li, Eli Shechtman, Xun Huang
- PDF: https://arxiv.org/pdf/2602.10095v1.pdf
- 链接: http://arxiv.org/abs/2602.10095v1
导语
针对视频扩散模型中时序因果推理与去噪过程高度耦合导致的计算冗余问题,本文提出了可分离因果扩散模型(SCD)。该架构通过将时序推理解耦至每帧仅执行一次的因果编码器,并配合轻量级解码器处理多步去噪,在保持生成质量的同时显著提升了推理效率。尽管其在复杂动态场景下的泛化能力无法从摘要确认,但该工作为高效视频生成模型的设计提供了新的架构范式。
摘要
本文提出了可分离因果扩散模型,证明了视频扩散模型中的因果推理与去噪过程是可以分离的。主要发现和贡献包括:
问题背景:
现有因果扩散模型将时序因果推理与多步去噪过程耦合,在所有层和去噪步骤中应用因果注意力,导致计算冗余和效率低下。关键发现:
通过系统性分析自回归视频扩散模型,作者发现:- 早期层在不同去噪步骤中生成高度相似的特征,表明沿扩散轨迹存在冗余计算。
- 深层层的跨帧注意力稀疏,主要执行帧内渲染任务。
新方法SCD:
提出可分离因果扩散架构,显式解耦:- 因果Transformer编码器:每帧仅执行一次时序因果推理。
- 轻量级扩散解码器:负责多步帧内渲染。
实验结果:
在合成和真实基准的预训练及后训练任务中,SCD显著提升了吞吐量和单帧延迟,同时生成质量匹配或超越现有强基线模型。
总结:通过分离时序推理与去噪,SCD在保持质量的同时大幅提升效率,为视频生成模型设计提供了新方向。
评论
以下是对论文《Causality in Video Diffusers is Separable from Denoising》的深入学术评价。
论文评价:Causality in Video Diffusers is Separable from Denoising
总体评价:
该论文针对视频扩散模型中计算冗余的核心痛点,提出了一种极具洞察力的“可分离因果扩散(SCD)”框架。作者并未通过设计更复杂的网络结构来提升性能,而是通过解构现有模型内部机制,从因果推理与去噪渲染两个维度进行了显式解耦。这项工作不仅在理论上澄清了视频扩散中时序一致性与空间渲染的纠缠关系,更在应用端大幅降低了推理成本,是近期视频生成领域兼具深度与实用价值的代表性工作。
1. 研究创新性
- 论文声称:现有的视频扩散模型将因果性强制耦合在每一个去噪步骤中,这是不必要的;因果性与去噪过程是可分离的。
- 证据:作者通过分析自回归视频扩散模型(如AnimateDiff),展示了特征图在不同去噪步骤中的演化。研究发现,早期层的特征在时间步上高度一致,而深层网络的跨帧注意力图极其稀疏。
- 推断:创新点在于“机制解耦”而非“架构堆叠”。传统方法试图通过更强的注意力机制来强行维持时序一致性,而SCD创造性地提出将模型分为“因果分支”和“去噪分支”。因果分支仅在推理初期运行一次,负责规划宏观运动轨迹;去噪分支负责高频细节的渲染。这种“一次规划,多步渲染”的范式转变,打破了视频生成必须逐帧精细生成的思维定势。
2. 理论贡献
- 论文声称:视频扩散模型的特征演化存在显著的阶段性与冗余性。
- 证据:论文提供了特征相似度分析,指出浅层特征在扩散轨迹上几乎不变,这意味着大部分计算量被浪费在了重复计算相同的时序上下文上。
- 推断:该工作对视频扩散的**“时空纠缠”假说提出了挑战与修正**。它从理论上揭示了:视频生成的“内容一致性”(因果性)是一个低频、全局的属性,不需要在去噪的高频噪声去除过程中反复计算。这一发现补充了扩散模型理论,明确了不同网络层在时间维度上的功能分工——浅层管“动势”,深层管“画质”。
3. 实验验证
- 论文声称:SCD在显著减少计算量的同时,保持了甚至提升了生成质量。
- 证据:实验在WebVid-2M等数据集上训练,并在UCF-101等基准测试中评估。结果显示,SCD相比基线模型(如AniDocBert, AnimateDiff)在FVD(Fréchet Video Distance)和FID指标上具有竞争力,但推理速度大幅提升(文中提及显著减少GFLOPs)。
- 推断:实验设计较为扎实,覆盖了定量指标与定性可视化。特别是消融实验有力地证明了分离两个分支的有效性。
- 关键假设与检验:
- 假设:视频的时序连贯性主要由初始噪声分布和浅层特征决定,深层特征主要贡献空间细节。
- 验证方式:可以通过**“特征替换干预实验”**来验证——即在同一去噪步骤中,将SCD的“去噪分支”特征替换为基线模型特征,观察视频是否会出现时序抖动。如果仅替换深层特征不影响时序连贯性,则证明假设成立。
4. 应用前景
- 学术价值:为后续研究提供了新的架构范式。未来的视频生成模型可以不再受限于3D卷积或全时空注意力,而是采用这种“规划-执行”的模块化设计。
- 工业价值:极大提升了视频生成的落地可能性。
- 实时性与带宽:解耦后的架构更适合流式传输和端侧生成,因为因果分支可以复用。
- 可控性:SCD架构天然支持“运动控制”。用户只需修改因果分支的输入,即可在不重新渲染细节的情况下改变视频动作,这对于AI视频编辑工具(如Runway, Pika)极具吸引力。
5. 可复现性与清晰度
- 论文声称:通过简单的模块替换即可将SCD应用于现有的预训练模型(如AnimateDiff)。
- 证据:论文详细描述了如何将预训练的2D U-Net转换为SCD结构,并提供了具体的训练策略(先训练因果分支,冻结后训练去噪分支)。
- 推断:方法具有很高的可复现性。其核心优势在于非侵入式,它不需要重新设计整个扩散模型,而是作为插件或适配器存在。这种设计降低了其他研究者的复现门槛。
6. 相关工作对比
- 与Uniformerv/Video Diffusion Model (VDM) 对比:传统VDM类工作通常使用3D卷积或时空注意力,计算量随帧数和步数立方级增长。SCD通过分离机制,将时序计算的复杂度从$O(T \times S)$降低至接近$O(T) + O(S)$(T为帧数,S为步数)。
- 与AnimateDiff对比:AnimateDiff通过插入可训练的Adapter来注入运动能力,但在推理时仍需在每一步计算Adapter。SCD的进化在于将Adapter的功能从
技术分析
以下是对论文《Causality in Video Diffusers is Separable from Denoising》的深入分析报告。
1. 研究背景与问题
核心问题
该论文致力于解决视频扩散模型在推理过程中存在的计算冗余与效率瓶颈问题。具体而言,作者质疑了现有主流视频生成模型中“时序因果推理”与“空间去噪”必须深度耦合的固有假设,试图将两者解耦以实现大幅度的加速。
研究背景与意义
随着Sora、Runway等视频生成模型的爆发,视频扩散模型因其卓越的生成质量成为主流。然而,视频生成是计算密集型任务。为了生成连贯的视频,模型必须理解帧之间的时序因果关系。现有的模型(如AnimateDiff、Cozy等)通常采用3D卷积或时空Transformer,在每一个去噪步骤中都进行全量的时空注意力计算。 这意味着,如果生成过程需要50步去噪,模型就需要进行50次完整的时序推理。这种“重复计算”导致了极高的显存占用和极低的生成速度,限制了视频生成技术在实时场景和边缘设备中的应用。
现有方法的局限性
现有的视频扩散模型(特别是自回归类)存在以下主要缺陷:
- 计算冗余:在去噪的早期步骤(高噪状态),图像内容尚未成型,此时进行复杂的时序注意力计算意义不大,且不同去噪步之间的特征高度相似,重复计算浪费资源。
- 架构耦合:时序建模模块与空间去噪模块纠缠在一起,难以单独优化时序推理效率。
- 延迟高:由于无法分离时序计算,无法利用“一次推理,多次复用”的加速策略。
重要性
该研究的重要性在于它挑战了当前视频生成架构的“公理”。如果能证明因果性(时序逻辑)可以与去噪(图像生成细节)分离,就能在几乎不损失生成质量的前提下,将视频生成的吞吐量提高数倍,为低成本、高效率的视频生成提供了新的技术范式。
2. 核心方法与创新
核心方法:SCD (Separable Causal Diffusion)
论文提出了可分离因果扩散模型。该架构的核心思想是将视频生成的过程分解为两个独立且串行的阶段:
因果Transformer编码器:
- 功能:负责提取视频的时序特征和因果逻辑。
- 机制:这是一个预训练好的Transformer模块。它仅在生成过程开始时对输入帧(或上一帧)运行一次,提取出包含时序上下文信息的特征向量。
- 关键点:它不参与多步去噪循环,从而彻底消除了时序推理在去噪步上的重复计算。
轻量级扩散解码器:
- 功能:负责具体的像素生成和去噪。
- 机制:这是一个标准的(或轻微修改的)图像扩散模型(如UNet或DiT)。它在多个去噪步骤中运行,利用Causal Encoder提取的时序特征作为条件,专注于帧内的空间渲染(纹理、细节)。
技术创新点
- 架构解耦:首次明确提出了将“时序推理”从“去噪循环”中剥离出来的架构设计。
- 特征复用:证明了去噪过程中的中间特征在不同时间步具有高度相似性,因此可以通过编码器一次性提取并注入给解码器,而不需要在每一步都重新计算。
- 稀疏性利用:利用了深层网络中跨帧注意力图的稀疏性,证明了大部分计算资源其实被浪费在了无效的注意力权重上,而SCD通过架构设计天然规避了这一点。
优势与特色
- 极致加速:由于时序模块只运行一次,推理速度随去噪步数的增加而线性提升(步数越多,优势越明显)。
- 即插即用:该方法可以作为一种训练后处理技术或微调策略应用于现有的预训练模型(如AnimateDiff),无需从头训练。
- 质量无损:实验表明,分离后并未导致视频连贯性下降,甚至因为更专注的帧内渲染,细节质量有所提升。
3. 理论基础
理论依据
论文的理论基础建立在扩散模型的逐步去噪特性与神经网络的层次化特征表示之上:
特征稳定性假设: 作者通过实验观察到,在扩散过程的早期阶段(时间步 $T$ 接近起始点),网络浅层提取的特征图在不同去噪步骤之间变化极小。这意味着模型在去噪初期主要是在处理“高频噪声”,而非重构“时序结构”。因此,时序信息的计算不需要在每一步都重复进行。
任务分离理论:
- 时序推理被建模为一个低频、全局的任务,主要由网络浅层到中层的特征决定。
- 图像去噪被建模为一个高频、局部的任务,需要精细的像素级操作。 基于此,SCD将这两个任务映射到不同的网络模块和执行频率上。
数学模型设计
虽然论文主要侧重于架构分析,但其隐含的数学逻辑是将联合概率分布 $P(X_t, X_{t-1} | \text{Context})$ 分解为: $$ P(\text{Temporal Context}) \times P(X_{t-1} | X_t, \text{Temporal Context}) $$ 传统方法在每一步都联合优化这两项,而SCD先优化第一项(仅一次),再固定第一项优化第二项(多次)。
4. 实验与结果
实验设计
作者在多个合成数据集(如Moving MNIST, ShapeNet)和真实视频数据集(如UCF-101, Kinetics-600)上进行了评估。
- 基线模型:对比了包括AnimateDiff, Cozy, LVDB等主流视频生成模型。
- 评估指标:FVD (Fréchet Video Distance, 视频质量), IS (Inception Score), FID (图像质量), 以及吞吐量和延迟。
主要结果
- 效率提升:在相同硬件下,SCD相比基线模型实现了显著的吞吐量提升(在某些设置下提升了2-3倍)。
- 质量保持:在FVD和FID指标上,SCD与强基线持平甚至略有优势。这证明了分离因果性并未破坏视频的连贯性。
- 消融实验:
- 证实了早期层特征的高相似性(相关性系数 > 0.9)。
- 验证了深层层注意力确实主要关注帧内信息(注意力权重主要集中在空间维度)。
结果分析
实验结果有力地支持了“冗余性”假设。更重要的是,SCD在“后训练”场景下(即不重新训练整个扩散模型,只训练Adapter)依然有效,这大大增强了其实用价值。
局限性
- 长视频生成:虽然单次推理快了,但对于极长视频,一次性提取的时序特征可能会遗忘非常早期的信息(虽然Transformer有位置编码,但显式地长程记忆仍需验证)。
- 复杂交互:在物体间存在极其复杂的物理交互(如剧烈碰撞、流体)时,固定的时序特征可能不足以指导后续的精细去噪,可能导致物理一致性下降。
5. 应用前景
实际应用场景
- 实时视频聊天与直播:低延迟是关键,SCD的架构非常适合需要快速响应的流式视频生成。
- 高效视频编辑:在视频编辑任务中,通常需要保持背景和运动轨迹一致,只修改物体外观。SCD的分离架构使得修改“解码器”而不破坏“运动编码器”变得更容易。
- 移动端部署:通过将计算密集型的时序推理放在云端(Encoder),而将轻量级的去噪放在端侧,或者利用其整体的高效性,使得在消费级显卡上运行视频生成成为可能。
产业化可能性
极高。该研究直接针对视频生成落地最大的痛点——成本和速度。它不依赖于未经验证的新硬件,而是通过算法优化榨干现有GPU的性能,非常适合快速集成到现有的视频生成服务(如Pika, Runway, Midjourney Video)中。
6. 研究启示
对领域的启示
这篇论文是对当前视频扩散模型“堆砌参数、暴力计算”路线的一次重要反思。它启示研究者:
- 并非所有计算都需要重复:扩散模型的多步去噪特性容易让人误以为所有计算都必须重复,但实际上很多语义层面的计算是静态的。
- 架构设计应遵循数据特性:利用视频数据的时空非均匀性(时间变化慢,空间变化快)来设计非对称的网络架构。
未来方向
- 自适应推理:基于SCD的思想,未来可以设计根据视频内容复杂度动态决定“何时更新时序特征”的模型,而非完全固定一次。
- 条件生成的解耦:探索文本控制、音频控制等其他模态是否也可以像时序因果性一样被分离出来。
7. 学习建议
适合读者
- 从事计算机视觉、视频生成、扩散模型研究的研究生和工程师。
- 对模型推理优化、架构设计感兴趣的深度学习从业者。
前置知识
- 扩散模型基础:理解DDPM、去噪过程、Classifier-free guidance。
- Transformer架构:理解Self-Attention, Cross-Attention, Causal Masking。
- 视频生成经典模型:如Video Diffusion Models, AnimateDiff的架构原理。
阅读建议
- 先阅读Introduction和Figure 1,直观理解“分离”的概念。
- 重点阅读Section 3 (Analysis),这是论文的核心灵魂,展示了作者如何通过观察发现冗余。
- 最后看Method和Experiments,验证其分析的正确性。
8. 相关工作对比
与同类研究对比
- vs. AnimateDiff (2023):AnimateDiff通过插入轻量级Adapter将图像模型转为视频模型,但它在每一步都计算时序注意力。SCD可以看作是AnimateDiff思想的进阶版——既然是Adapter,为什么不能只运行一次?
- vs. CozyVoice / StreamDiffusion:这些工作主要关注CUDA级优化或缓存管理,而SCD是从算法架构层面进行解耦,两者可以互补。
- vs. 自回归视频生成:传统AR模型逐帧生成,速度极慢。SCD虽然保留了因果性,但利用扩散模型的并行去噪特性,效率远超传统AR模型。
创新性评估
高。大多数现有工作致力于“如何更好地建模时序关系”,而本文致力于“如何更少地计算时序关系”。这种“减法”创新在当前追求大模型的氛围下尤为难得且具有实用价值。
9. 研究哲学:可证伪性与边界
关键假设与归纳偏置
- 假设:视频的“时序语义”与“空间像素”在特征空间中是正交或可分离的。
- 归纳偏置:视频的时间变化频率远低于空间变化
学习要点
- 视频扩散模型中的因果性(即生成符合物理逻辑的时序内容)与去噪过程是相互独立的,这意味着模型在去噪的同时并不自动保证时序连贯性。
- 现有的视频扩散模型主要依赖空间注意力层来生成高质量图像,但往往缺乏足够的时序注意力层来维持帧间的因果逻辑。
- 研究通过引入时序独立的因果性指标,证实了即使去噪性能很高,模型在生成过程中的因果一致性仍可能显著下降。
- 通过在模型中增加时序注意力层或采用特定的因果正则化技术,可以在不牺牲去噪质量的前提下显著提升视频生成的因果性。
- 该发现打破了“更好的去噪能力自然带来更好的时序连贯性”的假设,指出了当前视频生成模型评估中对因果性忽视的盲点。
- 这一研究为未来设计既能保证视觉质量又能遵循物理时序逻辑的视频生成架构提供了明确的理论指导方向。
学习路径
学习路径
阶段 1:基础理论与核心概念构建
学习内容:
- 生成模型基础:深入理解概率生成模型,特别是基于似然的模型与基于分数的模型。
- 扩散模型原理:掌握前向扩散过程与反向去噪过程的数学推导,理解DDPM、DDIM等基础架构。
- 视频数据特性:理解视频数据的高维结构,特别是时间维度上的相关性与帧间冗余。
- 因果性初步:区分因果推断与统计相关性,理解在时间序列模型中“未来不应影响过去”的基本直觉。
学习时间: 3-4周
学习资源:
- 论文: “Denoising Diffusion Probabilistic Models” (DDPM)
- 博客: Lil’Log 系列关于扩散模型的教程
- 课程: Stanford CS236 (Deep Generative Models)
学习建议: 在学习扩散模型时,务必手动推导一次ELBO(证据下界)的公式。对于视频部分,尝试从简单的3D卷积网络入手,理解时空卷积如何处理数据。
阶段 2:视频扩散模型架构与训练机制
学习内容:
- 3D UNet 架构:学习如何在图像UNet的基础上引入时间注意力机制和时空卷积。
- 潜在空间扩散:研究Stable Diffusion等在潜在空间进行操作的方法,以及如何将其扩展到视频生成。
- 现有视频扩散模型:分析ModelScope, VideoLDM, AnimateDiff等主流模型的网络结构与训练策略。
- 去噪过程中的时间一致性:理解当前模型是如何在去噪步骤中试图保持帧间连贯的(例如通过帧间注意力层)。
学习时间: 4-6周
学习资源:
- 论文: “Make-A-Video”, “ModelScope T2V”, “AnimateDiff”
- 开源代码: Hugging Face Diffusers 库中的视频模型实现
- 文档: Latent Diffusion Models 官方代码库
学习建议: 阅读代码时,重点关注Attention模块的实现,特别是Self-Attention和Temporal Attention的连接方式。尝试运行预训练模型进行微调,观察修改时间步长对生成视频连贯性的影响。
阶段 3:深入理解论文核心论点
学习内容:
- 论文核心假设:理解作者提出的“因果性可以与去噪质量分离”的观点。即生成高质量的画面与生成符合逻辑的时间顺序是两个独立的问题。
- 现有方法的局限性:分析为什么现有的3D UNet在处理长视频时会出现“闪烁”或“物体变形”现象(即缺乏因果性)。
- 分离机制的设计:研究论文中如何解耦空间去噪网络和时间因果网络。
- 训练策略的差异:对比联合训练与分阶段训练的效果,理解为何单独优化因果性模块能提升整体性能。
学习时间: 3-4周
学习资源:
- 目标论文: “Causality in Video Diffusers is Separable from Denoising”
- 相关引用论文: 该论文中引用的关于视频一致性改进的前期工作
- 讨论: Reddit (r/MachineLearning) 或 Twitter 上关于该论文的技术讨论
学习建议: 在阅读论文时,画出模型的整体架构图,特别是数据流是如何在空间分支和时间分支之间流动的。重点阅读消融实验部分,看作者如何证明“分离”带来的收益。
阶段 4:复现、实验与精通
学习内容:
- 代码实现:尝试基于PyTorch复现论文中的核心模块,特别是时间因果模块的实现。
- 对比实验:在标准数据集(如UCF-101或Kinetics)上,对比引入因果性模块前后的生成质量(FVD/IS指标)和时间一致性。
- 极限测试:测试模型在生成长视频或复杂动态场景下的表现,验证因果性分离的有效性。
- 前沿探索:思考该分离机制是否可以应用于其他多模态生成任务(如音频生成、4D生成)。
学习时间: 4-6周
学习资源:
- GitHub: 搜索该论文的官方实现或非官方复现版本
- 工具: Weights & Biases (用于记录实验曲线和对比视频)
- 算力: Google Colab Pro 或本地高性能GPU
学习建议: 不要一开始就追求完美复现整个模型,先实现核心的时间因果层并插入到现有的开源视频扩散模型(如AnimateDiff)中进行验证。记录每次修改对生成结果的具体影响,建立直观的感性认识。
常见问题
1: 这篇论文的核心发现是什么?
1: 这篇论文的核心发现是什么?
A: 论文的核心发现是,在视频扩散模型中,生成视频的“因果性”——即确保后续帧的内容在逻辑上依赖于前面帧,而不是由未来帧“泄漏”信息产生——与模型具体的“去噪”过程是相互独立的。作者证明,可以通过在推理阶段调整注意力掩码来强制实现因果性,而无需重新训练模型或大幅修改其去噪架构。这意味着一个原本非因果的模型可以通过特定的推理策略转变为因果模型。
2: 什么是视频生成中的“非因果”问题,为什么它很重要?
2: 什么是视频生成中的“非因果”问题,为什么它很重要?
A: 在视频生成中,“非因果”问题指的是模型在生成当前帧时,利用了未来帧的信息。在训练阶段,模型通常可以看到整个视频序列,因此它可能会学会依赖未来帧来预测当前帧,这在推理时是不可能实现的(因为未来帧尚未生成)。如果在推理时强制切断这种依赖,生成质量往往会下降。这个问题之所以重要,是因为因果性是视频连贯性的基础,如果处理不好,生成的视频会出现抖动、逻辑断裂或物体突然变形等问题。
3: 论文提出的解决方案是如何在不重新训练模型的情况下实现因果性的?
3: 论文提出的解决方案是如何在不重新训练模型的情况下实现因果性的?
A: 论文提出了一种称为“Causal Attention”或“Separable Causality”的推理策略。具体来说,作者发现视频扩散模型中的空间和时间注意力在一定程度上是可以解耦的。通过在推理过程中应用特定的注意力掩码,可以限制模型在生成第 $t$ 帧时只能关注第 $t$ 帧及之前的帧,从而屏蔽掉未来帧的信息。这种方法表明,模型去噪能力本身是通用的,因果性主要是由推理时的信息流方向决定的,因此不需要对模型权重进行微调。
4: 这种方法对现有的视频扩散模型(如 Video LDM, AnimateDiff 等)有什么实际意义?
4: 这种方法对现有的视频扩散模型(如 Video LDM, AnimateDiff 等)有什么实际意义?
A: 这意味着我们可以直接将这种方法应用到现有的预训练视频扩散模型上,提升它们生成视频的连贯性和逻辑性。以往为了解决因果性问题,可能需要设计复杂的架构或进行昂贵的微调。而该论文的结论表明,只需在推理阶段修改注意力机制,就能让模型在保持高质量去噪能力的同时,遵守因果约束。这降低了部署高质量视频生成模型的门槛。
5: 论文中提到的“可分离性”具体指什么?
5: 论文中提到的“可分离性”具体指什么?
A: 这里的“可分离性”指的是视频生成过程中的两个属性——图像质量(去噪能力)和时序一致性(因果性)——在模型架构和推理流程中是相互独立的。论文证明,一个模型可以在训练时学习到强大的去噪特征,而这些特征的应用方式(即是否因果)可以在推理时灵活决定。简而言之,你可以把模型看作一个通用的特征去噪器,而因果性只是我们如何排列这些特征的一种选择。
6: 这种方法有什么局限性或潜在缺点吗?
6: 这种方法有什么局限性或潜在缺点吗?
A: 虽然该方法在推理阶段无需重新训练,但强制应用严格的因果注意力掩码可能会导致生成内容的多样性降低或细节略有损失,因为模型在训练时实际上利用了双向信息。此外,尽管去噪能力和因果性是可分离的,但在极端的生成任务中,如果模型过度依赖未来帧的上下文信息,单纯推理时的干预可能无法完全弥补训练时缺失的因果归纳偏置,这可能会导致生成结果在长视频序列中出现语义漂移。
7: 这一发现如何影响未来视频生成模型的设计?
7: 这一发现如何影响未来视频生成模型的设计?
A: 这一发现可能会改变未来视频扩散模型的训练和评估范式。既然因果性可以在推理时分离,研究人员在训练模型时可能不再需要过分纠结于复杂的因果架构设计,而是可以专注于提升模型的基础去噪能力和特征表示。同时,这也提示了在评估视频生成模型时,应该更严格地区分模型在训练和推理阶段对时序信息的处理方式,以避免对模型能力的误判。
引用
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。