Yann LeCun 创立 AI 实验室融资 4.5 亿美元:基于 JEPA 架构构建世界模型
基本信息
- 来源: Latent Space (blog)
- 发布时间: 2026-03-11T06:46:30+00:00
- 链接: https://www.latent.space/p/ainews-yann-lecuns-ami-labs-launches
摘要/简介
世界模型正是下一代 AI 所需要的。
导语
Yann LeCun 创立的 AMI Labs 近日宣布获得 10 亿美元种子轮融资,估值达 45 亿美元,旨在围绕 JEPA 架构构建“世界模型”。这一动向标志着业界正从单纯的语言生成向具备物理常识的通用智能迈进,试图解决大模型在推理与规划上的短板。本文将梳理 AMI Labs 的技术路线与资金布局,帮助读者理解为何世界模型被视为下一代 AI 的核心方向,以及它可能如何改变现有的技术范式。
摘要
【AINews】Yann LeCun 创立 AMI Labs:获 10 亿美元种子融资,估值 45 亿美元,致力于构建世界模型
核心摘要 图灵奖得主、Meta 首席 AI 科学家 Yann LeCun 宣布成立全新的独立 AI 实验室 —— AMI Labs。该公司在种子轮融资中筹集了 10 亿美元,投后估值达到 45 亿美元。AMI Labs 的核心使命是围绕 LeCun 提出的 JEPA(联合嵌入预测架构) 技术路线,构建下一代 AI 所需的 世界模型。
关键要点
巨额融资背景
- 金额: 10 亿美元种子轮(这在 AI 创投领域属于极其罕见的巨额种子轮融资)。
- 估值: 45 亿美元。
- 目的: 资金将主要用于大规模算力基础设施的搭建以及顶尖人才的招募,以支持高强度的模型训练与研究。
技术路线:JEPA
- AMI Labs 将基于 LeCun 长期倡导的 JEPA(Joint Embedding Predictive Architecture) 架构。
- 区别于 LLM: 与当前主流的生成式大语言模型(LLM,如 GPT)不同,JEPA 不专注于预测下一个 Token(文本片段),而是通过在抽象表示空间(潜在空间)中进行预测,旨在让 AI 更好地理解物理世界的因果逻辑、常识和对象关系,而不仅仅是文本概率。
核心愿景:世界模型
- LeCun 认为,目前的 AI 系统(主要基于自回归大模型)存在局限性,无法像人类和动物一样真正理解和模拟物理世界。
- 世界模型 被视为通往 AGI(通用人工智能) 的关键路径。它旨在让 AI 具备构建环境心理模型的能力,能够推理、规划并处理不确定性,从而实现更高级的认知能力。
总结 AMI Labs 的成立标志着 AI 领域对“后 LLM 时代”技术探索的重大押注。LeCun 试图通过 JEPA 架构解决当前生成式 AI 在推理和物理常识方面的缺陷,致力于打造具备真实世界理解能力的下一代 AI。
评论
深度评论
核心观点 Yann LeCun 领衔的 AMI Labs 获得高额种子轮融资,反映了资本市场对非 LLM 路径的关注。该团队试图通过 JEPA 架构构建具备物理常识的“世界模型”,以解决自回归大语言模型(LLM)在逻辑推理和事实一致性上的固有限制。
技术路径与产业分析
1. 架构差异:从概率拟合到特征预测
- 技术背景:当前主流 LLM 多基于 Next Token Prediction,通过统计概率生成文本。LeCun 认为,单纯依靠文本拟合难以建立对物理世界的底层理解。
- AMI 方案:JEPA(联合嵌入预测架构)不直接预测像素或 Token,而是预测抽象特征空间。其目标是让模型学习物理规律(如物体遮挡、重力作用),而非语料关联。
- 技术挑战:虽然“世界模型”在理论上更具鲁棒性,但目前 LLM 的 Scaling Law(缩放定律)仍在推动性能上限。在数学证明、代码生成等离散任务中,LLM 在短期内仍可能保持效率优势。
2. 融资信号与市场对冲
- 市场观察:在种子轮即获得高估值,表明资本正在寻求 OpenAI/Google 之外的技术备份。这既是对 LeCun 团队的认可,也反映出市场对 LLM 边际效益递减的预期。
- 风险提示:高额融资不等于产品落地。AI 历史上存在因技术变现周期过长而陷入困境的案例。AMI 目前处于早期阶段,尚需展示可验证的工程成果以匹配其估值。
3. 应用场景:多模态与具身智能的基石
- 应用推演:具身智能(机器人控制)和长期视频生成需要模型具备“世界状态”的记忆与推演能力。目前的视频生成模型常出现物理不一致性,本质上是缺乏对潜在状态的建模。
- 数据瓶颈:与互联网文本数据不同,包含物理参数的高质量多模态数据(如深度信息、力学反馈)极其稀缺。数据获取难度可能影响模型的训练效率与迭代速度。
综合评价
- 内容深度:文章触及了 AI 发展的结构性问题,即从“生成式”向“判别式/世界模型”的架构探讨,而非停留在应用层。
- 实用价值:对于技术决策者,这提示了除 LLM 微调外的技术储备方向;对于开发者,目前尚无直接可用工具,需持续跟进。
- 行业影响:若 AMI 路径跑通,将重塑 AI 技术堆栈,为物理交互类应用提供新的基础设施。
争议点与验证
- Scaling Law 拥护者:部分观点认为,随着参数量增加,LLM 会自然涌现出世界理解能力,无需专门的架构设计。
- 验证标准:
- 物理一致性:模型在长视频生成中是否能保持重力、光照等物理规律不出现逻辑错误。
- Sim-to-Real 迁移率:在仿真环境中训练的策略,能否高效迁移至真实硬件,以证明其学到了物理本质而非过拟合特定环境。
技术分析
技术分析
1. 核心观点解读
文章主要观点 文章报道了 Yann LeCun 成立独立实验室 AMI Labs 的消息。该实验室获得了 10 亿美元种子资金,投后估值达 45 亿美元。其技术路线旨在基于 LeCun 提出的 JEPA(Joint Embedding Predictive Architecture,联合嵌入预测架构) 来构建“世界模型”。
核心思想 这一举措反映了 AI 领域对技术路线的探索。当前主流的大语言模型(LLM)主要基于文本生成,而 LeCun 认为这一路径存在局限,难以实现具备物理常识和推理能力的通用人工智能(AGI)。AMI Labs 的成立表明,部分研究重心正从“概率性文本生成”转向“对物理世界的理解与建模”。
观点意义 如果 AMI Labs 能够验证其技术路线的可行性,将为 AI 发展提供除 Transformer 和 Scaling Law 之外的新方向。这意味着 AI 系统可能从单纯的语言处理进化为具备环境感知和物理常识的系统。
2. 关键技术要点
涉及的关键技术
- JEPA (Joint Embedding Predictive Architecture): 一种不在像素或 Token 层面进行预测,而是在潜在空间预测输入特征嵌入表示的架构。
- World Models (世界模型): 用于模拟世界状态并预测行为后果的内部模型。
- V-JEPA / I-JEPA: JEPA 在视觉和图像领域的具体应用变体。
技术原理
- 潜在空间预测: 传统的生成模型(如 GPT)预测下一个词,视频模型预测下一帧像素。然而,物理世界中下一帧的像素往往具有随机性(如树叶摇摆)。JEPA 放弃对像素的精确预测,转而预测“语义特征”。例如,预测“车辆向前移动”,而不预测车辆图像上的每一个光点变化。
- 联合嵌入: 将当前状态和未来状态映射到同一特征空间,通过学习不变特征来忽略不相关的细节(如背景噪声)。
技术难点与解决方案
- 难点: 如何设计一个既包含足够信息用于决策,又能过滤不可预测噪声的特征空间,同时避免特征空间塌缩。
- 解决方案: 引入特定的正则化项和非嵌入目标,采用非对比学习方法以避免模式崩溃。
技术创新点
- 计算效率: 相比于需要渲染细节的生成式模型,JEPA 在抽象层面进行推理,理论上具有更高的能效比。
- 物理一致性: 由于学习的是物理世界的抽象表征,模型在处理物理规律相关的任务时,可能表现出更好的一致性。
3. 实际应用价值
对实际工作的指导意义 这一动向提示 AI 研究者和企业,除了关注文本生成外,也应重视具身智能和环境建模技术的发展。
应用场景
- 自动驾驶: 预测道路使用者的轨迹,而不仅仅是识别物体。
- 机器人学: 帮助机器人在未知物理环境中通过模型推演来执行任务。
- 智能体: 构建具备长期规划能力的 Agent,使其能理解行动的后果。
- 数字仿真: 生成符合物理规律的高保真 3D 世界或视频。
需要注意的问题
- 数据需求: 世界模型通常依赖大量的 4D(3D+时间)传感器数据,而非仅靠文本数据。
- 评估标准: 目前尚无统一的行业标准来评估世界模型的好坏。
4. 总结
AMI Labs 的成立是 AI 领域尝试突破现有 LLM 局限的一个标志性事件。通过 JEPA 架构构建世界模型,旨在解决 AI 在物理常识和推理能力上的短板。尽管该技术路线在数据获取和模型评估上仍面临挑战,但它为下一代 AI 的发展提供了一个重要的技术选项。
最佳实践
最佳实践指南
实践 1:构建基于 JEPA 架构的世界模型
说明: Yann LeCun 提出的联合嵌入预测架构 (JEPA) 旨在通过学习抽象特征表示而非预测像素级细节来构建世界模型。这种方法能更高效地理解物理世界的因果关系和逻辑推理,是实现通用人工智能(AGI)的关键路径。企业应关注从生成式模型向基于 JEPA 的世界模型转型。
实施步骤:
- 深入研究 JEPA 论文及其在图像和视频补全中的应用案例。
- 建立专注于自监督学习的团队,减少对人工标注数据的依赖。
- 开发能预测环境抽象状态的模型,而非仅仅预测下一个 token 或像素。
注意事项: 避免陷入单纯扩大模型参数规模的竞赛,应重点关注模型架构的推理能力和对物理世界常识的理解。
实践 2:利用高资本投入建立算力与人才壁垒
说明: AMI Labs 以 45 亿美元估值获得 10 亿美元种子轮,显示了资本市场对世界模型赛道的信心。这种高额融资旨在通过大规模算力堆叠和顶尖人才引进,快速建立技术护城河。行业参与者应制定与之匹配的资本和资源战略。
实施步骤:
- 制定长期的算力采购计划,确保拥有数万张 H100 或同等算力的 GPU 集群。
- 设立专项基金,以高薪酬和股权激励吸引专注于非生成式 AI 架构的顶尖研究科学家。
- 与云服务商建立深度战略合作,确保模型训练的基础设施稳定性。
注意事项: 资金只是入场券,必须确保资金转化为技术产出,避免盲目扩张导致的管理效率低下。
实践 3:从概率生成转向因果推理与规划
说明: 现有的 LLM 主要基于概率预测下一个 token,存在幻觉和逻辑缺陷。LeCun 的愿景是构建具有内在世界模型的系统,能够进行因果推理、规划和对物理世界的模拟。最佳实践应将研发重心从单纯的文本生成转移到认知架构的构建上。
实施步骤:
- 在产品中引入“系统 2”思维,即让模型在进行慢思考(规划、推理)后再输出结果。
- 开发能模拟物理环境交互的智能体,测试模型在复杂场景下的决策能力。
- 减少对模型“一本正经胡说八道”的修补,从根本上通过架构设计提升逻辑一致性。
注意事项: 因果推理比模式识别更难训练,需要构建全新的评估基准来衡量模型的推理能力,而非传统的语言理解基准。
实践 4:关注具身智能与物理世界的交互
说明: AMI Labs 的目标之一是让 AI 具备与物理世界交互的能力。世界模型的核心价值在于驱动机器人、自动驾驶或复杂的物理模拟系统。最佳实践包括将 AI 模型与具身硬件相结合,验证模型在真实物理环境中的表现。
实施步骤:
- 投资或收购具身智能硬件团队,将世界模型部署到机器人或模拟器中。
- 建立模拟环境(如类似 Minecraft 或物理仿真平台),让 AI 在虚拟世界中通过试错学习物理规律。
- 收集大量的视频和传感器数据,用于训练模型理解物体持久性、空间关系和物理动力学。
注意事项: 物理世界的容错率低,模型在仿真环境中的表现必须经过严格的边缘情况测试才能迁移到实体硬件。
实践 5:制定开放科学与商业化的平衡策略
说明: Yann LeCun 一直是开放科学的倡导者。虽然 AMI Labs 是一家商业实体,但其基础研究可能仍会保持较高的开放度。企业在借鉴其研究成果时,应制定既能利用开源社区红利,又能保护自身核心 IP 的策略。
实施步骤:
- 密切跟踪 Meta 及 AMI Labs 发布的开源模型(如后续可能发布的 JEPA 变体),并快速进行微调和适配。
- 在内部建立“开放-封闭”的混合研发模式:底层架构跟随开源,上层应用数据和业务逻辑保持私有。
- 积极参与相关的学术研讨会,与 AMI Labs 建立非竞争性的学术交流渠道。
注意事项: 开源模型虽然降低了门槛,但数据飞轮和专有的微调数据才是构建差异化竞争优势的关键。
实践 6:重新评估 AI 安全与对齐的优先级
说明: LeCun 的观点与当前主流的“AI 灭绝论”不同,他更强调通过设计让 AI 更可控、更诚实且服从于人类。在构建世界模型时,最佳实践是将安全性内置于架构设计之中,而非仅靠事后的人工对齐(RLHF)。
实施步骤:
- 在模型设计阶段就引入“可验证性”机制,让模型的输出可以被客观事实核查。
- 研究如何通过世界模型预测 AI 行为的后果,从而在模型采取行动前消除潜在风险。
- 避免过度依赖基于人类反馈的强化学习(RLHF),因为这
学习要点
- Yann LeCun 创立的 AMI Labs 获得巨额融资,旨在通过 JEPA 架构构建世界模型,推动自监督学习与具身智能发展
- 该项目采用“世界模型”技术路径,模拟物理世界规律以实现更通用的人工智能系统
- JEPA(联合嵌入预测架构)作为核心框架,专注于学习抽象表征而非像素级预测,提升模型效率与泛化能力
- 此轮融资规模(种子轮估值达45亿美元)反映资本市场对非生成式AI路径的强烈信心
- 研究重点转向开发能理解因果关系的系统,突破当前大语言模型在逻辑推理上的局限
- 团队将整合跨模态学习技术,使AI能同时处理视觉、语言等复杂输入
- 项目长期目标包括开发具备自主规划能力的智能体,为通用人工智能(AGI)奠定基础
引用
- 文章/节目: https://www.latent.space/p/ainews-yann-lecuns-ami-labs-launches
- RSS 源: https://www.latent.space/feed
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。