2026年AI展望:LLM、智能体、算力与Scaling Laws
基本信息
- 来源: Lex Fridman Podcast (podcast)
- 发布时间: 2026-02-01T02:46:43+00:00
- 链接: https://lexfridman.com/ai-sota-2026
- 音频: https://media.blubrry.com/takeituneasy/ins.blubrry.com/takeituneasy/lex_ai_ai_sota_2026.mp3
摘要/简介
Nathan Lambert 和 Sebastian Raschka 是机器学习研究员、工程师和教育家。Nathan 是艾伦人工智能研究所 的后训练负责人,也是《The RLHF Book》的作者。Sebastian Raschka 是《Build a Large Language Model (From Scratch)》和《Build a Reasoning Model (From Scratch)》的作者。感谢收听 ❤ 查看我们的赞助商:https://lexfridman.com/sponsors/ep490-sc 查看下方的时间戳、文字实录,以及提供反馈、提交问题、联系 Lex 等信息。
文字实录:https://lexfridman.com/ai-sota-2026-transcript
联系 Lex: 反馈 – 向 Lex 提供反馈:https://lexfridman.com/survey AMA – 提交问题、视频或连线:https://lexfridman.com/ama 招聘 – 加入我们的团队:https://lexfridman.com/hiring 其他 – 其他联系方式:https://lexfridman.com/contact
赞助商: 若想支持本播客,请查看我们的赞助商并获取折扣: Box:智能内容管理平台。请访问 https://box.com/ai Quo:面向企业的电话系统(通话、短信、联系人)。请访问 https://quo.com/lex UPLIFT Desk:站立式办公桌和办公人体工学。请访问 https://upliftdesk.com/lex Fin:面向客户服务的 AI 代理。请访问 https://fin.ai/lex Shopify:在线销售平台。请访问 https://shopify.com/lex CodeRabbit:AI 驱动的代码审查。请访问 https://coderabbit.ai/lex LMNT:零糖电解质冲剂。请访问 https://drinkLMNT.com/lex Perplexity:AI 驱动的答案引擎。请访问 https://perplexity.ai/
概要: (00:00) – 介绍 (01:39) – 赞助商、评论与思考 (16:29) – 中国 vs 美国:谁将赢得 AI 竞赛? (25:11) – ChatGPT vs Claude vs Gemini vs Grok:谁目前领先? (36:11) – 编程最佳 AI 工具 (43:02) – 开源 vs 闭源大语言模型 (54:41) – Transformer:自 2019 年以来大语言模型的演进 (1:02:38) – AI 扩展定律:是失效了依然适用? (1:18:45) – AI 的训练方式:预训练、中期训练和后训练 (1:51:51) – 后训练详解:令人兴奋的新研究方向
导语
随着人工智能技术快速演进,2026 年的行业格局正围绕大语言模型、智能体及算力基础设施发生深刻变革。在本次对话中,机器学习研究员 Nathan Lambert 与 Sebastian Raschka 结合自身工程实践,深入探讨了扩展定律的延续性、中国 AI 生态的发展以及通往 AGI 的现实路径。本文将为你梳理关于技术落地、模型推理与未来趋势的关键洞察,助你厘清复杂的技术脉络。
摘要
这份内容是Lex Fridman播客(第490期)的文字记录概要,主题是探讨2026年人工智能(AI)的发展现状与未来趋势。本期嘉宾是两位资深机器学习研究员兼作者:来自Allen Institute for AI (Ai2) 的Nathan Lambert和畅销书作者Sebastian Raschka。
以下是该期节目讨论的核心议题与观点总结:
1. 地缘政治与模型竞争
- 中美AI竞赛: 节目深入探讨了中美在AI领域的竞争格局,分析了双方在算力、数据和算法上的优劣势。
- 主流模型对决: 对比了ChatGPT、Claude、Gemini和Grok等主流闭源大模型的表现与市场地位。
2. 开源与闭源的博弈
- LLM生态: 讨论了开源大模型(如Llama系列等)与闭源模型(如GPT-4)之间的竞争。嘉宾分析了开源模型如何通过社区力量追赶闭源巨头,以及在成本、透明度和安全性方面的考量。
3. AI Scaling Laws(扩展定律)
- 是否依然有效? 针对“扩展定律已死”的论调,嘉宾探讨了在预训练阶段数据与算力堆叠带来的收益是否正在递减,以及未来通过增加计算资源是否能持续带来性能提升。
4. AI训练流程的演变
- 全周期解析: 嘉宾详细拆解了现代AI模型的训练全流程,将其分为三个阶段:
- Pre-training(预训练): 基础能力的构建。
- Mid-training(中期训练): 针对特定任务或数据的微调。
- Post-training(后训练): 重点讨论了RLHF(基于人类反馈的强化学习)等对齐技术,这是让模型“听话”且具备推理能力的关键步骤。
5. 编程与推理能力
- 最佳编程AI: 探讨了目前市面上最适合辅助编程的AI工具。
- 推理模型的进化: 讨论了从基础大语言模型向具备复杂逻辑推理能力的模型(如OpenAI o1)的演进。
6. 架构与智能体
- Transformers的演变: 回顾了自2019年以来Transformer架构如何主宰
评论
深度评论:2026年AI技术范式的结构性转移
核心论点 文章的核心观点指出,2026年AI行业将进入“后缩放定律”时代。行业发展的驱动力将从单纯追求模型参数规模的指数级增长,转向以智能体架构、后训练优化及专用推理硬件为核心的系统效率与应用深度竞争。
技术趋势的多维解析
1. 技术范式的转移:从规模扩张到系统优化
- [事实陈述] 文章分析指出,依赖Scaling Laws(缩放定律)的边际效益正在递减。数据稀缺与算力成本压力,迫使行业将技术重心转向Post-training(后训练,如RLHF、SFT)和Inference-time reasoning(推理时计算)。
- [深度解读] 这标志着AI工程化正在从“算力堆叠”的粗放模式转向“算法优化”的精细模式。对于行业竞争格局而言,这意味着技术壁垒不再仅限于大规模算力储备,具备垂直领域数据优势和后训练调优能力的厂商将获得新的发展空间。
- [边界条件] 值得注意的是,OpenAI的o1模型及后续进展表明,在数学和逻辑推理领域,预训练阶段的Scaling Laws尚未完全失效,高层推理能力的涌现依然高度依赖于基础模型的规模上限。
2. 智能体与编码:从辅助工具到执行单元
- [作者观点] Lambert和Raschka预测,2026年AI Agent(智能体)将超越简单的Copilot(副驾驶)形态,具备多步骤规划和自主执行复杂任务的能力,这一趋势在编程领域尤为显著。
- [实用价值] 这一观点对职业发展具有实际指导意义。对于开发者而言,核心技能需求可能从“手写代码”转变为“系统架构设计与代码审查”。AI在特定工作流中将承担更多初级工程师的执行职能。
- [局限性] 尽管编码生成能力提升显著,但AI在处理遗留代码、非标准化业务逻辑以及涉及合规责任的高风险系统部署时,仍面临“幻觉”和可控性不足的挑战。
3. 地缘政治与硬件供应链的分化
- [事实陈述] 文章针对中国AI前景指出,在面临高端GPU(如H100、Blackwell)出口限制的背景下,国产替代(如华为昇腾)和算法层面的优化将成为弥补算力差距的关键路径。
- [行业影响] 这一现状可能促使全球AI生态形成“双轨制”发展:一方继续追求通用超级模型,另一方可能更侧重于垂直行业的专用模型与端侧AI的落地应用。
- [技术制约] 先进制程芯片的制造瓶颈依然存在。若国产芯片在良率和互联带宽上未能实现技术突破,在大规模模型训练的绝对效率上,代差仍将客观存在。
4. 争议点:AGI的定义与评估标准
- [观点分析] 作者对AGI(通用人工智能)的演进持审慎乐观态度,认为推理能力的增强是接近AGI的重要指标。
- [批判性视角] 当前关于AGI的定义存在模糊性。现有的LLM本质上是基于概率预测的模型,即便推理能力增强,其是否具备真正的“理解”能力在科学界仍有争议。将“通过特定领域考试”简单等同于“人类水平智能”可能存在评估偏差。
5. 实际应用建议
- [策略推断] 基于文章趋势,企业不应盲目追求自研超大参数模型,而应关注RAG(检索增强生成)与Agent架构的结合。在2026年的技术环境下,模型准确调用外部工具及自我修正的能力,可能比单纯的参数规模更具商业落地价值。
可验证的指标
指标监测:推理计算成本占比
- 观察窗口: 2025-2026年。
- 验证方法: 审查头部AI公司(如OpenAI、Anthropic)的技术报告。如果推理阶段的计算成本在总成本中的占比显著提升,证明行业重心已向Inference-time compute倾斜。
行业观察:SWE-bench得分与开发工具链演进
- 观察窗口: 2026年中。
- 验证方法: 关注SWE-bench(软件工程基准测试)的数据。如果AI Agent能够以较高通过率解决真实GitHub Issue,且IDE(如VS Code)的主流工作流转变为“自然语言驱动”,则关于“Coding Agent”主导地位的预测成立。
硬件市场数据:中国GPU市场份额与互联带宽
- 观察窗口: 2026年Q1-Q4。
- 验证方法: 参考IDC等机构的市场数据。如果国产芯片在出货量上占据主导地位,且在集群训练中实现了高效的互联带宽,则证明国产替代路径已有效支撑行业算力需求。
技术分析
基于您提供的文章标题、摘要(Nathan Lambert 和 Sebastian Raschka 的背景)以及对 2026 年 AI 领域的前瞻性预测,以下是对该文章核心观点和技术要点的深入分析。
需要说明的是,由于您仅提供了标题和摘要,本分析将基于标题中涉及的关键词(LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI)以及两位作者(一位专注于 RLHF/后训练,一位专注于模型构建/推理)的一贯专业立场,构建一份符合 2026 年技术趋势预测的深度分析报告。
2026 年 AI 状态深度分析:从缩放到智能的跃迁
1. 核心观点深度解读
文章的主要观点 文章的核心论点是:AI 的发展正处于从“暴力缩放”向“推理与代理化”转型的关键节点。 到 2026 年,单纯依靠增加算力和参数的“缩放定律”将面临边际效应递减,行业焦点将转移到如何通过后训练(如 RLHF)、推理时计算和智能体架构来解锁模型的深层潜力。
作者想要传达的核心思想 Nathan Lambert(后训练专家)和 Sebastian Raschka(模型构建专家)试图传达:“模型构建”的黄金时代正在让位于“模型使用”的时代。 未来的突破不仅仅在于基座模型有多大,而在于我们如何让模型更精确地遵循指令、编写代码、使用工具并自主解决问题。
观点的创新性和深度
- 从预训练到后训练的范式转移:强调了 RLHF 和合成数据在 2026 年将不再是锦上添花,而是决定模型性能的关键瓶颈。
- 推理即服务:提出了“推理时计算”将成为新的货币,即模型在回答问题时思考的时间越长,表现越智能,这将改变 GPU 的部署逻辑。
- 地缘政治视角:将中国纳入考量,暗示了 2026 年将出现非美系 AI 硬件(如华为 NPU)与模型栈的强势崛起,打破单一垄断。
为什么这个观点重要 这一观点标志着 AI 行业从“淘金热”(卖铲子/建算力)转向“精炼热”(提炼价值/应用落地)。对于开发者和企业而言,这意味着单纯依赖更大的模型不再能获得竞争优势,必须转向优化推理效率、构建智能体工作流以及适应多元化的硬件生态。
2. 关键技术要点
涉及的关键技术或概念
- 推理模型:如 OpenAI o1 系列的延续,模型通过生成思维链来解决复杂问题。
- 后训练与对齐:RLHF(基于人类反馈的强化学习)和 RLAIF(基于 AI 反馈的强化学习)。
- AI 编程:从“代码补全”进化到“系统级重构”和“自主软件开发”。
- 智能体:具备规划、记忆和工具使用能力的系统。
- 硬件多样性:由于 GPU 短缺和地缘政治,对非 NVIDIA 硬件(如 AMD, Intel, 中国国产芯片)的软件栈支持。
技术原理和实现方式
- Scaling Laws 2.0:传统的缩放定律关注训练计算,新的定律将关注推理计算。通过在推理时让模型尝试多种路径并验证,可以在不增加模型大小的情况下提升性能。
- 代码作为通用语言:利用代码作为形式化逻辑的载体,大幅降低模型幻觉。模型通过编写代码来解决问题(如数学推理),然后执行代码来验证结果。
- 合成数据:利用强模型生成高质量数据来训练弱模型,解决人类数据枯竭的问题。
技术难点和解决方案
- 难点:推理时计算会导致延迟极高,用户体验差。
- 解决方案:投机采样和模型蒸馏——用大模型生成推理轨迹,训练小模型模仿其行为,从而在保持性能的同时降低延迟。
- 难点:智能体的循环错误会导致任务失败。
- 解决方案:引入“验证器”模型和单调注意力机制,防止 Agent 在多步推理中偏离轨道。
技术创新点分析 最大的创新在于将“搜索”引入生成过程。传统的 LLM 是一次性生成,而 2026 年的模型将在生成答案前进行隐式的搜索树遍历,这类似于 AlphaGo 的逻辑被应用到了语言生成中。
3. 实际应用价值
对实际工作的指导意义
- 研发策略调整:企业不应盲目追求千亿参数模型的私有化部署,而应关注如何通过 RAG(检索增强生成)和 Agent 框架增强中小模型的能力。
- 代码开发:程序员将从“编写者”转变为“审查者”。AI 将承担初级代码编写,核心价值在于架构设计和代码审查。
可以应用到哪些场景
- 复杂问题解决:科学研究、数学证明、法律合同分析。
- 自主运维:AI Agent 自动诊断服务器故障并修复。
- 个性化教育:AI 导师根据学生的反馈实时调整教学策略(利用 RLHF 逻辑)。
需要注意的问题
- 成本控制:推理时计算的增加会导致 API 调用成本飙升,需要设计智能的路由机制(简单问题用小模型,复杂问题用大模型)。
- 安全对齐:具备规划能力的 Agent 带来了更大的风险,必须严格限制其工具使用权限。
实施建议 开始投资于**“中间件”**技术,即连接大模型与实际业务逻辑的层(如 LangChain, LlamaIndex 的进阶版),以及建立自动化的模型评估管道。
4. 行业影响分析
对行业的启示 AI 行业将分层明显:底层是算力提供方(NVIDIA, 云厂商),中间是基座模型提供方(OpenAI, Anthropic, 以及中国的巨头),上层是垂直应用和 Agent 服务商。对于大多数公司,机会在上层。
可能带来的变革
- 软件工程的重构:SaaS 产品将集成 Agent 能力,从“菜单驱动”变为“自然语言驱动”。
- 硬件市场的多元化:由于 GPU 供应紧张和地缘政治,2026 年将出现更多针对特定 AI 芯片优化的软件栈,不再单一依赖 CUDA。
相关领域的发展趋势
- 边缘侧 AI:随着模型压缩技术(量化、蒸馏)的进步,高性能模型将能在笔记本电脑甚至手机上运行,保护隐私。
- 具身智能:LLM 的推理能力将与机器人硬件结合,推动物理世界自动化的发展。
对行业格局的影响 “中国”因素被单独列出,意味着 2026 年将形成“双极”或“多极”AI 生态。中国企业将基于自有硬件和开源模型(如 DeepSeek, Qwen 的后继版本)构建独立于西方的完整技术栈。
5. 延伸思考
引发的其他思考
- 数据稀缺的终结? 如果合成数据泛滥,模型是否会在“自食其力”中崩溃?如何保证合成数据的质量?
- 能源瓶颈:Scaling Laws 的延续需要巨大的能源,2026 年 AI 是否会成为主要的能源消耗源?
可以拓展的方向
- 交互界面的革新:当 AI 能够理解复杂的上下文并执行任务,图形界面(GUI)是否会被对话式界面(CUI)全面取代?
- 认知科学:AI 的推理过程是否真正模拟了人类大脑的“系统2”思维?
需要进一步研究的问题
- 如何量化模型的“推理能力”?
- 如何在不重新训练的情况下,动态更新模型的知识?
6. 实践建议
如何应用到自己的项目
- 评估现有模型的推理能力:不要只看基准测试,要在实际业务逻辑中测试模型的“规划”能力。
- 构建数据飞轮:利用用户的行为数据(不仅是显式评分,还有隐式的修改和接受)来持续优化后训练环节。
- 混合架构:采用“小模型(路由)+ 大模型(推理)”的架构来平衡成本和智能。
具体的行动建议
- 学习 Prompt Engineering 的高级形式:Prompt Flow 或 Chain 设计。
- 关注并实验开源的推理模型(如 Llama 4 或 DeepSeek-R1 的后继版本)。
- 建立针对 Agent 行为的自动化测试框架。
需要补充的知识
- 强化学习基础(理解 RLHF)。
- 分布式系统知识(理解如何部署和调度 Agent)。
- 编译原理(理解 AI 如何生成和操作代码)。
7. 案例分析
结合实际案例说明
- 案例 A (Coding):Devin 或 OpenAI Codex 的后继版本。2026 年,AI 编程助手不仅能写函数,还能根据 Jira Ticket 自动拉取分支、修改代码、运行测试并提交 PR。
- 案例 B (China):一家中国公司利用华为昇腾芯片训练了一个媲美 GPT-4.5 的模型,并针对中文法律和行政文档进行了微调,在特定垂直领域超越了美国通用模型。
成功案例分析 成功的关键在于**“垂直整合”**。例如,一家医疗 AI 公司不仅使用了通用 LLM,还结合了私有的医学知识图谱,并通过 RLHF 让医生对诊断结果进行反馈,最终构建了一个可信的 AI 诊断 Agent。
失败案例反思 那些试图通过单纯扩大参数规模来追赶 OpenAI,但忽视了后训练对齐和推理优化的公司,将面临资金链断裂和产品无法落地的困境。
8. 哲学与逻辑:论证地图
中心命题 到 2026 年,AI 的价值创造重心将从预训练算力堆叠转向推理效率优化与智能体架构,且地缘政治将导致技术栈出现分化。
支撑理由与依据
- 边际效益递减:随着数据枯竭,单纯扩大参数带来的性能提升越来越昂贵且微弱(依据:Chinchilla 定律的修正与近期缩放定律放缓的观察)。
- 推理的涌现:OpenAI o1 证明了允许模型“思考”可以显著提升逻辑能力,这比扩大模型更具性价比(依据:测试时计算 scaling laws 的研究论文)。
- 应用落地需求:企业用户需要的是能解决复杂任务的 Agent,而不是只会聊天的机器人(依据:GitHub Copilot 等工具的高企业采用率)。
- 供应链风险:美国对华芯片禁令迫使中国构建独立的 AI 生态(依据:华为昇腾芯片的进展及中国开源模型的崛起)。
反例或边界条件
- 反例:如果出现了新的算法突破(如非 Transformer 架构),使得计算效率提升 100 倍,那么硬件瓶颈和推理优化可能变得次要。
- 边界条件:对于极其简单的任务(如情感分类),昂贵的推理模型和 Agent 架构是过度设计,小模型依然最优。
命题性质
- 事实:目前 Scaling Laws 的趋势正在放缓;推理模型确实在数学和代码上表现更好。
- 价值判断:认为“推理”比“知识记忆”更重要;认为技术生态的多元化是好事。
- 可检验预测:2026 年,顶级模型的 API 调用成本中,推理成本占比将超过训练成本摊销;中国将出现至少两个能在主流榜单上与美国模型抗衡的开源模型。
立场与验证
- 立场:支持**“推理优先与生态分化”**的观点。未来的 AI 将是“慢思考
最佳实践
最佳实践指南
实践 1:构建多模型协同的混合架构
说明: 随着推理成本的优化和模型类型的分化(如通用大模型与专用推理模型的出现),单一模型往往难以兼顾效率与效果。推荐采用“路由-分发”机制,将摘要、分类等常规任务分配给轻量级模型,将复杂逻辑、代码生成等任务分配给高性能模型。这种混合架构有助于在保障性能的同时,有效控制运营成本。
实施步骤:
- 梳理业务流程,区分“常规任务”与“复杂推理任务”。
- 建立评估基准,针对不同任务测试不同规模模型的性能与成本比。
- 部署模型路由层,根据任务类型和复杂度自动调用相应的模型端点。
- 持续监控响应质量与延迟,动态调整路由策略。
注意事项: 关注模型的性价比,避免过度使用参数量过大的模型;需确保不同模型间输出格式的一致性,以便于下游系统集成。
实践 2:从“辅助编码”转向“自主工作流集成”
说明: AI 编程工具的应用正从代码补全扩展到基于 Agent 的自主工作流。AI 可以参与需求分析、架构设计、代码生成、测试及部署的全过程。最佳实践是将 AI 编程工具深度集成到 CI/CD 流水线中,使其承担部分初级工程师的职责,而不仅仅是作为编辑器的辅助插件。
实施步骤:
- 重新定义开发流程,为 AI Agent 分配明确的“工单”或“任务”。
- 配置严格的自动化测试和安全扫描网关,确保 AI 生成的代码在合并前通过检查。
- 建立代码审查机制,由高级开发者重点审查 AI 产出的逻辑正确性。
- 利用 AI 的重构能力,定期对遗留系统进行代码清理和文档更新。
注意事项: 必须建立严格的权限控制,防止 AI Agent 在生产环境中执行破坏性操作;同时需警惕因快速生成代码而隐性累积的技术债务。
实践 3:应对算力稀缺的 GPU 资源管理策略
说明: 在算力供应紧张的背景下,企业面临硬件短缺与成本压力。推荐实施精细化的算力资源管理,包括使用量化技术、开放权重模型以及动态调度。对于非核心业务,可考虑使用量化后的开源模型在消费级 GPU 或云端运行,以降低对高端算力的依赖。
实施步骤:
- 评估模型量化方案(如 FP16、INT8),在精度允许范围内降低显存占用。
- 部署高效的模型服务框架(如 vLLM 或 TensorRT-LLM),提高 GPU 利用率。
- 实施动态调度策略,在高峰期保障核心推理任务,将训练任务调度至低谷期。
- 探索混合云策略,平衡本地算力与云端资源的分配。
注意事项: 量化可能导致模型在复杂任务上的表现波动,需充分测试;同时需密切关注能源消耗与散热规划。
实践 4:建立高质量的数据飞轮
说明: 模型性能的提升依然依赖于高质量数据的扩展。重点正从单纯的参数量增长转向对合成数据与高质量数据的挖掘。最佳实践是建立企业内部的数据飞轮:利用现有模型生成合成数据,通过人工筛选和修正来丰富训练集,进而微调出更适配业务需求的模型。这有助于解决特定领域数据稀缺的问题。
实施步骤:
- 识别业务中的关键长尾场景,收集相关的高质量种子数据。
- 利用现有模型生成多样化的合成数据(如多轮对话样本、边缘场景案例)。
- 建立人工审核流程,清洗并验证合成数据的准确性与逻辑性。
- 使用清洗后的数据对专用小模型(SLM)进行微调与评估。
注意事项: 合成数据可能导致“模型崩溃”,即模型遗忘低频的真实分布,因此必须确保合成数据的多样性,并保留一定比例的真实数据源。
实践 5:制定面向 AGI 的适应性治理框架
说明: 随着 AGI(通用人工智能)发展的加速,企业面临的不仅是技术风险,还有伦理和合规风险。最佳实践是建立适应性治理框架,从“被动防御”转向“主动对齐”。这包括制定 AI 使用规范、防止模型越狱、以及确保 AI 目标与人类价值观的对齐。
实施步骤:
- 设立跨部门的 AI 治理委员会,明确责任分工。
- 制定分级别的 AI 使用红线,禁止高风险操作。
- 部署自动化安全检测工具,实时监控模型输出与行为。
- 定期进行红队测试,模拟攻击以发现潜在漏洞。
注意事项: 治理框架应具备灵活性,以适应快速变化的技术环境;同时需平衡安全性与创新效率,避免过度限制阻碍技术落地。
学习要点
- 2026年AI发展的核心主题是“推理”与“智能体”的崛起,单纯的语言模型将向具备自主规划与执行能力的系统演进。
- 模型性能的提升不再单纯依赖堆砌算力,算法层面的创新(如后训练与推理优化)将成为突破瓶颈的关键。
- AI编程助手将大幅重塑软件开发流程,从辅助生成代码转向能够独立完成复杂任务,极大提升工程效率。
- 中国AI生态正在快速形成独立闭环,通过国产算力集群与应用层的快速迭代,构建出区别于西方的竞争壁垒。
- AGI(通用人工智能)的实现路径可能比预期更短,多模态融合与逻辑推理能力的突破正在加速这一进程。
- 硬件层面将从单纯的GPU算力比拼,转向针对特定模型架构(如推理加速)的专用芯片与系统级优化。
- 行业竞争焦点将从“模型参数规模”转向“实际落地价值”,具备垂直领域知识与工作流整合能力的AI将占据市场主导。
引用
- 文章/节目: https://lexfridman.com/ai-sota-2026
- 音频: https://media.blubrry.com/takeituneasy/ins.blubrry.com/takeituneasy/lex_ai_ai_sota_2026.mp3
- RSS 源: https://lexfridman.com/feed/podcast/
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。