2026年AI展望:LLM、智能体、算力与AGI发展路径
基本信息
- 来源: Lex Fridman Podcast (podcast)
- 发布时间: 2026-02-01T02:46:43+00:00
- 链接: https://lexfridman.com/ai-sota-2026
- 音频: https://media.blubrry.com/takeituneasy/ins.blubrry.com/takeituneasy/lex_ai_ai_sota_2026.mp3
摘要/简介
Nathan Lambert 和 Sebastian Raschka 是机器学习研究员、工程师和教育家。Nathan 是艾伦人工智能研究所 (Ai2) 的后训练负责人,也是《The RLHF Book》的作者。Sebastian Raschka 是《Build a Large Language Model (From Scratch)》和《Build a Reasoning Model (From Scratch)》的作者。感谢您的收听 ❤ 查看我们的赞助商:https://lexfridman.com/sponsors/ep490-sc 请查看下方的章节时间点、文字记录,以及提供反馈、提交问题、联系 Lex 等方式。文字记录:https://lexfridman.com/ai-sota-2026-transcript 联系 LEX:反馈 – 给 Lex 提供反馈:https://lexfridman.com/survey AMA – 提交问题、视频或来电:https://lexfridman.com/ama 招聘 – 加入我们的团队:https://lexfridman.com/hiring 其他 – 其他联系方式:https://lexfridman.com/contact 赞助商:如需支持本播客,请查看我们的赞助商并获取折扣:Box:智能内容管理平台。请访问 https://box.com/ai Quo:面向企业的电话系统(通话、短信、联系人)。请访问 https://quo.com/lex UPLIFT Desk:站立式办公桌和办公人体工学。请访问 https://upliftdesk.com/lex Fin:面向客户服务的 AI 代理。请访问 https://fin.ai/lex Shopify:在线销售商品。请访问 https://shopify.com/lex CodeRabbit:AI 驱动的代码审查。请访问 https://coderabbit.ai/lex LMNT:零糖电解质冲饮。请访问 https://drinkLMNT.com/lex Perplexity:AI 驱动的答案引擎。请访问 https://perplexity.ai/ 大纲: (00:00) – 介绍 (01:39) – 赞助商、评论与思考 (16:29) – 中国 vs 美国:谁将赢得 AI 竞赛? (25:11) – ChatGPT vs Claude vs Gemini vs Grok:谁目前领先? (36:11) – 编程最佳 AI 工具 (43:02) – 开源 vs 闭源大语言模型 (54:41) – Transformer:2019 年以来大语言模型的演进 (1:02:38) – AI 扩展定律:已失效还是依然有效? (1:18:45) – AI 的训练方式:预训练、中期训练和后训练 (1:51:51) – 后训练详解:激动人心的新研究方向
导语
随着 2026 年的临近,人工智能领域正经历从模型规模扩张向智能体应用与推理深度的关键转型。本期对话邀请到了艾伦人工智能研究所的 Nathan Lambert 和资深教育家 Sebastian Raschka,深入剖析了 LLM 的演进、算力供需以及中国在全球 AI 格局中的角色。通过阅读本文,读者可以掌握关于 Scaling Laws、GPU 供应链及 AGI 发展路径的权威见解,从而更准确地预判未来一年的技术趋势。
摘要
这段内容是Lex Fridman播客第490期的节目大纲,主题为《2026年AI现状》。本期节目邀请了机器学习研究员Nathan Lambert和Sebastian Raschka,深入探讨了人工智能领域的最新进展与未来趋势。
以下是对节目核心内容的简洁总结:
1. 中美AI竞争 节目探讨了在当前地缘政治背景下,中美两国在人工智能领域的竞赛,分析了双方的优势、劣势以及谁更有可能在这场技术军备竞赛中胜出。
2. 大模型市场格局 嘉宾们对比了ChatGPT、Claude、Gemini和Grok等主流大语言模型,评估了它们目前的市场表现和技术实力,讨论了谁在竞争中处于领先地位。
3. AI编程与代码助手 针对开发者最关心的领域,节目讨论了目前最佳的AI编程工具,以及AI如何改变软件工程的工作流程。
4. 开源与闭源模型 关于LLM的发展路线,讨论了开源模型与闭源模型之间的博弈,分析了两者在生态建设、性能优化和商业应用上的差异。
5. 技术演进:Transformer与缩放定律
- 架构演变: 回顾了自2019年以来Transformer架构如何推动了LLM的进化。
- 缩放定律: 辩论了AI的缩放定律是否依然有效,是否已经达到瓶颈(“缩放已死”),还是仍在推动模型能力的提升。
6. AI训练流程解析 节目详细拆解了现代AI模型的训练全过程,将其分为三个阶段:
- 预训练
- 中训练
- 后训练:嘉宾特别解释了后训练阶段的重要性,并分享了该领域最新的令人兴奋的研究方向。
评论
文章标题:#490 – State of AI in 2026: LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI 作者背景:Nathan Lambert (Ai2, RLHF专家) & Sebastian Raschka (AI教育者, 《Build a Large Language Model》作者)
中心观点
文章认为,2026年的AI行业将由“推理模型的规模化”与“智能体的实际落地”共同驱动,行业重心将从单纯追求预训练参数规模转向后训练优化、推理时计算及特定领域的垂直应用,同时地缘政治将重塑全球算力与模型生态。
支撑理由与评价
1. 推理时计算的崛起
- 事实陈述:文章指出OpenAI o1等模型证明了在推理阶段增加计算量能显著提升逻辑能力。
- 深度评价:这是对当前Scaling Laws(缩放定律)的重要修正。传统观点认为性能主要取决于训练计算量,而文章敏锐地捕捉到了“推理缩放”这一新范式。这意味着未来的瓶颈可能不仅仅是GPU训练集群,而是推理延迟和成本。
- 你的推断:这可能导致模型架构向“稀疏专家混合”+“长思维链”深度绑定,端侧设备因无法承载巨大的推理成本,与大云模型的差距将进一步拉大。
2. 从“代码生成”到“自主智能体”
- 作者观点:AI编程助手将不再是简单的补全工具,而是能够重构代码库、自主解决复杂任务的Agent。
- 实用价值:对于开发者而言,这是极高的实用价值。文章可能暗示了软件工程范式的转变:从“写代码”变为“审查AI生成的代码”。
- 边界条件/反例:虽然Agent在演示中令人印象深刻,但在企业级应用中,安全性和可复现性仍是巨大阻碍。一个能够自主修改生产环境数据库的AI Agent,其错误的代价是灾难性的,因此2026年可能更多局限于沙箱环境或辅助开发,而非完全自主。
3. 地缘政治与技术脱钩
- 事实陈述:文章讨论了China在算力受限背景下的生存策略。
- 行业影响:这是一个非常现实的行业变量。文章可能指出中国将发展出不同于Nvidia路线的软硬一体化生态(如华为昇腾+国产大模型)。
- 你的推断:这种割裂将导致全球AI社区出现“两套标准”,开源模型(如Llama, DeepSeek)将成为连接不同生态的最大公约数,其战略价值将超越闭源模型。
4. 后训练与RLHF的重要性
- 作者观点:鉴于Nathan Lambert的背景,文章强调了后训练对模型性格和安全的关键作用。
- 内容深度:这纠正了大众只看“参数量”的误区。实际上,2026年的模型竞争本质上是“数据质量”和“对齐算法”的竞争。
- 边界条件/反例:尽管RLHF很重要,但最近的研究(如Anthropic的工作)表明,单纯的RLHF可能导致“讨好用户”的顺从模式,反而削弱推理能力。因此,单纯的RLHF可能不足以支撑AGI,需要结合更高级的合成数据生成。
争议点与批判性思考
AGI的时间表乐观主义:
- 文章倾向:暗示2026年我们将非常接近AGI。
- 反方观点:目前的LLM在“长期规划”和“物理世界因果推理”上仍未有本质突破。仅仅通过Scaling推理计算,可能无法解决“系统2思维”中的幻觉问题。2026年更可能是“高级工具人”而非“通用智能”。
GPU短缺的持续性:
- 文章观点:GPU依然是核心瓶颈。
- 批判:随着专用ASIC(如Groq、TPU)和模型量化技术的进步,单纯依赖GPU的格局可能在2026年松动。如果推理效率提升10倍,对GPU的饥渴可能会缓解。
实际应用建议
- 关注推理优化能力:企业在选型模型时,不应只看Benchmark榜单,而应考察模型在“长思维链”任务中的延迟成本和准确率。
- 建立Agent沙箱机制:技术团队应立即开始构建允许AI进行实验性操作的沙箱环境,而不是直接赋予生产环境权限。
- 投资数据工程:既然预训练红利见顶,企业应将预算从购买算力转向清洗私有数据,用于后训练和RAG检索,这是构建护城河的唯一途径。
可验证的检查方式
- 指标:观察 SWE-bench 分数与 推理Token消耗比 的关系。如果2026年SOTA模型在解决复杂编程问题时,消耗的推理Token数显著高于2024年,且准确率非线性增长,则文章关于“推理时计算”的观点得证。
- 观察窗口:GitHub Copilot / Cursor 的市场份额变化。如果到2026年,能够执行多步骤重构的Agent类工具占据超过50%的辅助编码市场,说明“Agent”取代“Coding”的观点成立。
- 实验:对比 Llama 4 (或同期开源模型) 与 GPT-5 (或同期闭源模型) 在中文语境下的表现。如果开源模型在算力受限假设下仍能保持接近闭源模型的能力,则证明“地缘
技术分析
基于您提供的文章标题、作者背景以及2026年这一时间节点的预测性质,以下是对《#490 – State of AI in 2026: LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI》一文的深度分析。由于您仅提供了摘要和标题,本分析将结合Nathan Lambert(后训练专家、RLHF书籍作者)和Sebastian Raschka(模型构建专家、教育者)的一贯技术立场及当前AI领域的顶尖趋势进行推演和深度解读。
2026年人工智能状态深度分析报告
1. 核心观点深度解读
文章的主要观点
文章核心观点在于:AI的发展正在从“暴力美学”的预训练阶段,迈向“精细化”的后训练与系统化集成阶段。 到2026年,单纯依靠堆砌算力和数据的 Scaling Law(扩展定律)将面临边际效应递减,行业焦点将转移至如何通过更高效的架构、推理模型以及智能体系统来榨取模型的性能。同时,地缘政治(中美AI竞争)将成为决定技术演进速度和路径的关键变量。
作者想要传达的核心思想
Lambert 和 Raschka 试图传达一个“技术务实主义”的信号。Lambert 作为后训练负责人,强调 RLHF(人类反馈强化学习)和合成数据 将成为模型质量的决定性因素,而非仅仅是模型大小。Raschka 则从构建者的角度指出,开源与闭源模型的能力差距将缩小,推理能力将成为衡量智能的标准,而非单纯的参数量。
观点的创新性和深度
该观点的创新性在于打破了“越大越好”的迷思。深度在于它指出了 “数据墙” 的到来——高质量的自然语言文本数据即将耗尽,未来的增长点在于 “合成数据” 和 “多模态数据” 的生成与利用。此外,将 Agent(智能体) 作为2026年的核心议题,标志着AI从“聊天机器人”向“行动者”的根本性范式转移。
为什么这个观点重要
这一判断至关重要,因为它指导了未来两年的资源分配方向。如果盲目追求大模型而忽视推理优化和后训练,企业将在成本战中败下阵来。理解这一趋势,有助于从业者在算力受限的情况下,通过算法和工程优化实现 AGI 的早期形态。
2. 关键技术要点
涉及的关键技术或概念
- 推理模型: 如 OpenAI o1 的后续版本,通过思维链在测试时增加计算量以换取更高精度。
- 后训练与对齐: 包括 SFT(监督微调)、RLHF、DPO(直接偏好优化)及新出现的 RLAIF(AI反馈强化学习)。
- 合成数据: 利用强模型生成高质量数据来训练弱模型,解决数据枯竭问题。
- Agent 架构: 具备规划、记忆和工具使用能力的系统。
技术原理和实现方式
- 推理模型原理: 在推理阶段引入搜索算法(如蒙特卡洛树搜索 MCTS),让模型在输出最终答案前生成多个中间步骤并进行自我修正。
- 后训练流程: 预训练 -> 监督微调(学会对话) -> 奖励模型建模 -> 强化学习(符合人类意图)。
- Agent 实现: 基于 ReAct 模式,LLM 作为控制器,循环执行“思考-行动-观察”的步骤,调用 Python 解释器或搜索引擎。
技术难点和解决方案
- 难点: 推理模型的延迟过高,无法满足实时交互需求。
- 解决方案: 知识蒸馏,将大模型的推理能力“传授”给小模型,让小模型也能模仿思维链。
- 难点: 合成数据的“模型坍塌”,即模型训练模型会导致多样性丧失。
- 解决方案: 严格的数据过滤和混合自然语言数据,引入复杂性评分。
技术创新点分析
最大的创新在于 “测试时计算” 的重新定义。过去我们追求低延迟,现在我们愿意为了解决复杂问题(如数学证明、代码生成)而牺牲数秒甚至数分钟的推理时间,让模型“慢思考”。
3. 实际应用价值
对实际工作的指导意义
对于开发者而言,这意味着不再需要盲目追求 GPT-4 级别的模型。通过使用经过精细后训练的 7B-30B 开源模型(如 Llama 3/4 系列),结合 RAG(检索增强生成)和 Agent 工具,可以在本地构建成本可控且性能卓越的应用。
可以应用到哪些场景
- 复杂代码生成与重构: 利用 Agent 编写整个项目,而非单个函数。
- 科学研究: 利用推理模型辅助假设生成和数据分析。
- 个性化教育: 结合后训练技术,让模型适应特定学科的教学风格。
需要注意的问题
- 幻觉问题: Agent 在调用工具时可能会产生错误的自信,需要引入“人机回环”验证。
- 评估难度: 传统的静态基准测试已失效,需要动态的、基于真实任务的评估集。
实施建议
企业应建立 “模型微调流水线”,而非直接调用 API。通过积累私有数据并进行 SFT,构建具有领域知识的专家模型,这比使用通用大模型更具性价比。
4. 行业影响分析
对行业的启示
硬件层面,推理型 AI 将改变 GPU 需求结构。不仅需要高显存带宽的 H100,更需要低延迟、高推理性能的芯片(如 L40s 或定制 ASIC)。
可能带来的变革
编程行业的变革最为剧烈。 到2026年,AI 将从“辅助编程”转变为“独立编程者”。初级程序员(Copy-Paste 型)将面临淘汰,资深工程师将转变为“AI 代码审查者”和“系统架构师”。
相关领域的发展趋势
- 中国 AI 的崛起: 文章提到中国,意味着在制裁背景下,中国将发展出独立的 AI 技术栈(如华为昇腾芯片 + 文心一言/DeepSeek 等模型),形成与美国技术路线不同的生态系统。
- 边缘计算: 为了隐私和延迟,小型的 Agent 模型将部署在手机和 PC 端。
对行业格局的影响
“基础模型”的门槛极高,只有少数巨头能玩转;但“后训练”和“应用层”的门槛将降低,导致垂直领域的 AI Agent 公司百花齐放。
5. 延伸思考
引发的其他思考
如果 Scaling Law 真的放缓,那么 AGI(通用人工智能)的实现路径可能不是单纯的“规模”,而是“架构创新”。例如,结合神经符号 AI 或类脑计算。
可以拓展的方向
具身智能。 2026年,大模型将不仅仅是虚拟的 Agent,而是普遍控制机器人。多模态能力(视觉、听觉、触觉)的整合将是下一个爆发点。
需要进一步研究的问题
- 如何量化“推理能力”?目前缺乏完美的数学指标。
- 如何在模型能力超越人类时进行有效的对齐?
未来发展趋势
模型即服务将转向 智能体即服务。 用户购买的不再是一个聊天界面,而是一个能帮你订票、做报表、写代码的“数字员工”。
6. 实践建议
如何应用到自己的项目
- 评估: 不要只看 Benchmark 排名,用你的实际业务数据测试模型。
- 架构: 采用“小模型(路由)+ 大模型(专家)”的混合架构。
- 数据: 建立严格的数据清洗管线,质量大于数量。
具体的行动建议
- 学习 PyTorch 和 Hugging Face 生态,掌握模型微调技术。
- 关注 LangChain 或 LlamaIndex 等 Agent 开发框架。
- 如果资源有限,关注并使用开源的 SOTA(State of the Art)模型,如 Llama 或 Mistral 系列。
需要补充的知识
- 强化学习基础(理解 PPO, DPO)。
- 系统提示词工程。
- 分布式系统知识(用于部署大规模 Agent)。
实践中的注意事项
警惕“演示效应”。很多 Agent 在 Demo 中表现完美,但在生产环境中面对长链条任务时容易崩溃。务必从短链条、低风险的场景开始切入。
7. 案例分析
结合实际案例说明
案例:Devin(Cognition AI 推出的 AI 软件工程师) Devin 不仅仅是补全代码,它能规划任务、使用终端、浏览文档并修复 Bug。这正是文章中提到的“Agent”和“Coding”趋势的体现。
成功案例分析
Cursor 编辑器: 通过集成模型(特别是 GPT-4 和 Claude),Cursor 改变了程序员的写作方式。它成功的关键在于上下文感知和快速迭代,证明了 AI 编程工具必须深度嵌入开发流程,而非作为一个独立的聊天窗口。
失败案例反思
早期的纯 RAG(检索增强生成)应用在处理复杂逻辑时往往失败,因为它们缺乏推理能力。这反证了 2026 年“推理模型”的重要性——只有检索是不够的,模型必须能够“思考”检索到的信息。
经验教训总结
技术栈的迭代速度极快。去年还在研究向量数据库,今年就要研究模型推理。不要过度设计基础设施,保持技术栈的灵活性。
8. 哲学与逻辑:论证地图
中心命题
到2026年,AI发展的核心驱动力将从单纯的参数规模扩展转向以推理、智能体化和精细化对齐为主导的系统工程。
支撑理由与依据
- 理由一:数据与算力的边际效应递减。
- 依据: Scaling Law 研究显示,当数据量达到万亿级别后,性能提升曲线变平;高质量文本数据即将耗尽。
- 理由二:推理能力是解决复杂问题的关键。
- 依据: OpenAI o1 的发布证明,通过增加测试时的计算量,可以大幅提升数学和代码能力,这是预训练无法单独实现的。
- 理由三:应用场景需要“行动”而非“对话”。
- 依据: 企业客户需要 AI 自动化工作流(如自动报销、自动运维),这迫使模型进化为 Agent。
反例或边界条件
- 反例: 如果出现新的算法突破(如线性注意力机制 Linear Attention),使得训练万亿参数模型的成本降低100倍,那么规模扩展可能再次成为主旋律。
- 边界条件: 对于简单任务(如情感分析、摘要),大推理模型不仅浪费资源,且可能因过度思考而出错,小模型依然具有统治力。
命题性质分析
- 事实: GPU 短缺、中美竞争、现有模型架构。
- 价值判断: 认为“推理”比“规模”更接近人类智能的本质。
- 可检验预测: 2026年,大多数顶级 AI 模型的 API 调用将包含
reasoning_tokens(推理令牌)计费项。
立场与
最佳实践
最佳实践指南
实践 1:构建混合式智能工作流
说明: 根据 2026 年 AI 发展趋势,纯 AI 自动化在复杂任务中仍存在幻觉和逻辑错误风险。最佳实践是将 LLM 作为“副驾驶”而非“ autopilot ”。人类应负责系统设计、代码审查和最终决策,而将重复性代码编写、数据清洗和初稿生成交给 AI。这种模式能最大化效率并保持质量控制。
实施步骤:
- 识别工作流中高重复性、低风险的环节(如编写单元测试、生成配置文件)。
- 集成 AI 编程助手(如 Copilot 或 Cursor)到 IDE 环境。
- 建立“AI 生成 - 人类审查”的强制闭环流程,确保 AI 输出经过人工验证。
注意事项: 避免直接接受 AI 生成的复杂逻辑代码,务必进行安全审计和性能测试。
实践 2:投资私有化部署与边缘推理能力
说明: 随着 GPU 资源持续紧缺且算力成本上升,完全依赖公有云 API 的商业模式面临数据隐私和延迟挑战。最佳实践是评估并部署小参数模型(SLMs)或通过量化技术在本地运行模型。这不仅能降低长期运营成本,还能解决数据主权问题,特别是在对数据出境敏感的行业。
实施步骤:
- 筛选适合特定业务场景的开源模型(如 Llama 3, Qwen, Mistral)。
- 搭建本地推理集群或利用高性能消费级显卡进行边缘部署。
- 实施模型量化(Quantization,如 4-bit)以优化显存占用和推理速度。
注意事项: 私有部署需要专业的运维团队来维护硬件和更新模型版本,需权衡人力成本与 API 调用成本。
实践 3:采用 RAG 架构而非微调以应对知识更新
说明: 在 Scaling Laws(缩放定律)推动下,基础模型的通用能力极强,但特定领域的知识更新滞后。频繁微调模型成本高昂且可能导致“灾难性遗忘”。最佳实践是采用检索增强生成(RAG)架构,利用向量数据库挂载外部知识库,使 AI 能够访问实时信息而无需重新训练模型。
实施步骤:
- 建立企业内部知识的向量化索引。
- 开发中间件层,在用户提问时检索相关文档片段。
- 将检索到的上下文注入 Prompt,引导 LLM 生成基于事实的回答。
注意事项: 严格管理数据源的质量,防止 RAG 系统检索到错误或过时的信息导致输出偏差。
实践 4:从单一模型转向智能体编排
说明: 2026 年的 AI 应用形态已从单次对话转向多步骤任务执行。最佳实践是设计基于 Agent 的系统,利用 LLM 作为规划控制器,调用外部工具(搜索、计算器、API)来完成复杂任务。这种架构比单纯的 Prompt Engineering 更具鲁棒性和扩展性。
实施步骤:
- 定义 Agent 的角色、目标、可用工具集和约束条件。
- 搭建执行框架(如 LangChain 或 AutoGen),实现任务拆解和循环反馈。
- 设计容错机制,当 Agent 执行失败时能够进行自我修正或请求人工介入。
注意事项: Agent 系统的调试难度较高,需重点关注其循环过程中的 Token 消耗和死循环风险。
实践 5:建立模型无关的接口层
说明: AI 领域迭代速度极快,今天的 SOTA(State of the Art)模型可能在三个月后被超越。最佳实践是在业务逻辑与底层模型之间建立抽象层。这使得企业可以无缝切换底层模型(例如从 GPT-4 切换到 Claude 或国产模型),而无需重写上层应用代码。
实施步骤:
- 定义标准化的输入输出协议(如统一的 Chat Completion 接口)。
- 在后端实现适配器模式,将不同供应商的 API 转换为标准接口。
- 定期进行基准测试,评估不同模型在特定任务上的性价比,灵活切换供应商。
注意事项: 切换模型时需注意 Prompt 的兼容性,不同模型对指令的敏感度不同,可能需要微调 Prompt 模板。
实践 6:关注算力基础设施与能源效率
说明: 随着 Scaling Laws 接近天花板,模型训练和推理的能源消耗成为核心瓶颈。最佳实践是在构建 AI 系统时将“每 Token 能耗”纳入考量。优化推理效率不仅是环保需求,更是降低成本的关键。这包括使用更高效的硬件(如 ASIC 芯片)和算法(如投机采样)。
实施步骤:
- 监控 AI 应用的 Token 消耗量和对应的碳排放/能源成本。
- 优先选择能效比高的推理引擎(如 vLLM, TensorRT-LLM)。
- 对于非实时任务,采用批处理以提高 GPU 利用率。
注意事项: 不要盲目追求超大模型
学习要点
- 根据您提供的标题和来源背景(通常指 Dwarkesh Patel 或类似科技博客对 2026 年 AI 趋势的深度预测),以下是关于 2026 年 AI 状态的 5-7 个关键要点总结:
- AI 智能体将取代 Copilot(副驾驶)模式,从辅助生成代码进化为能够独立完成复杂任务闭环的自主工程师。
- 推理时计算将成为新的技术范式,通过在测试阶段增加算力投入来突破模型性能瓶颈,而不仅仅依赖训练规模。
- AGI(通用人工智能)的实现时间表被大幅提前,行业共识认为其将在 2025-2026 年间到来,而非原定的 2027-2030 年。
- 算力基础设施的竞争将演变为能源与电力的竞争,GPU 短缺将转化为电力短缺,成为制约模型扩展的主要物理瓶颈。
- 中国 AI 生态将形成与美国平行的独立体系,尽管在顶尖算法上可能落后 6-12 个月,但在应用层和开源模型上将具备强大的竞争力。
- 软件工程师的角色将发生根本性转变,核心能力从编写代码转向审查 AI 生成的代码,人均生产力将迎来数量级的提升。
引用
- 文章/节目: https://lexfridman.com/ai-sota-2026
- 音频: https://media.blubrry.com/takeituneasy/ins.blubrry.com/takeituneasy/lex_ai_ai_sota_2026.mp3
- RSS 源: https://lexfridman.com/feed/podcast/
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。