a16z对话Anthropic与OpenAI:风险投资与增长策略的艰难教训
基本信息
- 来源: Latent Space (blog)
- 发布时间: 2026-02-19T16:46:53+00:00
- 链接: https://www.latent.space/p/a16z
摘要/简介
我们与 a16z 的 AI 投资团队负责人坐下来,进行一场广泛的对话,探讨这到底是怎么回事。
导语
随着生成式 AI 从技术爆发迈向商业落地,风险投资与增长策略的博弈正变得愈发复杂。本文基于 a16z 合伙人 Martin Casado 与 Sarah Wang 的深度对话,深入剖析了 Anthropic、OpenAI 等头部公司的发展路径,并探讨了 Noam Shazeer 等关键人物及 ASIC 经济学等核心议题。通过阅读本文,读者不仅能理解当前 AI 领域的资本逻辑与竞争格局,还能获得关于如何在算力成本与模型商业化之间寻找平衡的深刻洞见。
摘要
这段播客内容主要涵盖了a16z合伙人Martin Casado和Sarah Wang对当前AI领域投资趋势、竞争格局以及技术基础设施的深入探讨。以下是核心观点的简洁总结:
1. 从“创投”到“增长”的范式转变 讨论的核心在于AI领域投资逻辑的根本性变化。传统风投依赖“赢家通吃”的定律,即软件具有极低的边际成本和可扩展性。然而,当前的生成式AI更像是一个“赢家通吃成本”的游戏。
- 资本密集型: 训练和推理模型需要巨额的GPU资本支出(CAPEX),这使得竞争门槛极高。
- 竞争壁垒: 竞争对手不再仅仅被软件体验锁定,而是被数据和算力供应链锁定。
2. Anthropic vs. OpenAI:生存策略的博弈
- OpenAI: 采取激进的增长策略,不惜牺牲利润率来获取市场份额和用户锁。
- Anthropic: 被视为“抗脆弱”的案例。通过采取防御性姿态、强调安全,并寻求与大客户(如AWS和Google)的深度绑定,Anthropic试图在巨头阴影下找到独立的生存空间。
- 教训: 在AI基础设施层,纯粹的商业化能力可能不足以对抗资源无限的巨头,战略定位至关重要。
3. Noam Shazeer与“人才定价”
- 案例: Noam Shazeer离开Google创立Character.AI,最终被Google重新雇佣。这笔交易本质上是Google为一位顶尖人才支付了数十亿美元。
- 启示: 在AI时代,顶级研究人员和创始人的稀缺性使得他们的身价堪比独角兽公司。对于大厂来说,收购初创公司有时是“雇佣”顶级人才的唯一途径。
4. World Labs与“垂直整合”的机会
- Fei-Fei Li的World Labs代表了AI应用层的一种新方向:空间智能。
- 投资者看好这种试图解决物理世界理解问题的尝试,认为它可能比单纯的文本生成具有更高的商业价值和更深的护城河。这暗示了未来AI将从“聊天机器人”向“具身/物理模拟”演进。
5. Thinking Machines与ASIC经济学
- 算力瓶颈: 模型训练需求的增长速度超过了硬件(GPU)的改进速度。
评论
深度评论
核心观点: 本文基于 Anthropic 与 OpenAI 的发展路径、Noam Shazeer 的回归以及 World Labs 等行业案例,分析了生成式 AI 领域的当前格局。文章认为,“应用"层的价值正在被重新评估,而"基础设施"层的竞争已演变为由科技巨头主导的、基于资本规模与算力储备的博弈。
支撑理由与深度评价:
1. 基础模型层的资源集中与资本壁垒(支撑理由)
- [事实陈述] 文章指出,尽管 OpenAI(偏向激进扩张与生态构建)和 Anthropic(偏向安全与长期主义)路径不同,但本质上都参与了涉及数十亿美元投入的算力竞赛。
- [深度分析] 这一现象反映了风险投资逻辑在基础模型层的变化:传统的"风险投资"模式逐渐退场,取而代之的是"增长投资"或企业级资本介入。Casado 提出的"ASIC Economics”(专用集成电路经济学)观点表明,只有具备海量用户基础和强劲现金流的企业(如 OpenAI/Microsoft),才能持续承担训练下一代模型所需的硬件资本支出。
- [实际案例] 文章提及 Google 投入巨资构建 TPU 集群,这既构成了技术壁垒,也形成了财务壁垒。
2. “应用层"的复苏与垂直整合(支撑理由)
- [作者观点] Casado 和 Wang 认为,随着模型能力逐渐趋同(商品化),价值链将向"端侧"和"应用层"迁移。文中列举了 Cursor(代码编辑器)和 Thinking Machines(算力租赁)作为代表性案例。
- [深度分析] 这是对过去两年"模型即一切"行业思潮的修正。投资者开始意识到,若模型成为基础设施,基于模型构建的"工作流"和"用户体验”(UX)将构成企业的核心竞争力。Cursor 受到市场关注,原因在于它不仅是模型的套壳,而是重构了程序员的交互界面,建立了较高的切换成本。
3. “人才密度"优于"算力密度"的特殊案例(支撑理由)
- [事实陈述] 文章重点讨论了 Noam Shazeer(Character.AI 创始人)回归 Google 的事件。
- [作者观点] a16z 对此持积极看法,认为这并非初创企业的失败,而是一种高效的"人才退出机制”。
- [深度分析] 这是一个务实的视角。在算力成本高昂的环境下,对于顶尖人才(如 Shazeer)而言,与其在初创公司受限于融资和 GPU 资源,不如回到资源充足的巨头继续研究。这标志着 AI 创业方向从"构建基础模型"向"构建垂直领域解决方案"或"并购退出"的策略性转变。
反例与边界条件:
反例 1:开源模型的潜在影响。
- [深度分析] 文章主要讨论了封闭模型的竞争逻辑。然而,Meta (Llama) 和 Mistral 推行的开源路线可能会削弱封闭模型的护城河。若 Llama 4 等开源模型达到顶尖水平且免费使用,OpenAI 依赖的高额 Capex 模式可能面临"高成本、低毛利"的商业压力。
反例 2:端侧 AI 的发展。
- [深度分析] 文章侧重于云端的 ASIC 经济学。但随着 Apple Intelligence 和高通芯片技术的发展,部分推理负载正在向边缘设备转移。如果推理主要在本地完成,云端巨头的规模效应优势可能会被削弱,从而催生新的商业模式。
边界条件:数据资源的限制。
- [作者观点] 文章隐含假设算力是主要瓶颈。
- [深度分析] 一旦高质量公网数据被耗尽(预计 2026-2027 年),合成数据或私有数据将成为关键资源。届时,拥有独特数据闭环的应用层公司(如 World Labs 在 3D 生成领域的探索)可能在产业链中拥有更强的议价权。
各维度详细评价:
内容深度(4.5/5):
- 评价: 文章未局限于通用的技术叙事,而是深入到了资本支出和组织架构层面。关于 ASIC Economics 的讨论触及了 AI 商业模式的核心:单位经济效益。它指出了一个现实约束——缺乏足够的利润支撑,难以维持前沿模型的训练投入。
- 不足: 对于地缘政治因素(如 TSMC 供应链、出口管制)对算力的影响涉及较少,这是当前 AI 基础设施分析中不可忽视的一环。
实用价值(4.5/5):
- 评价: 对创业者具有明确的参考意义。文章划定了竞争边界:避免在通用大模型领域与巨头直接竞争。它指出了两个可行方向:一是深耕"垂直应用"(如 Cursor),二是成为特定技术领域的并购标的。
技术分析
基于对 a16z 合伙人 Martin Casado 和 Sarah Wang 近期在播客及公开讨论中关于“风险投资与成长型投资在AI领域的惨痛教训”及相关技术经济学的深入分析,以下是对该内容的全面解读。
1. 核心观点深度解读
文章的主要观点 当前 AI 领域的投资逻辑正在发生根本性范式转移。核心观点在于:AI 的价值正在从“模型训练”向“推理与应用”迁移,而资本市场的定价逻辑尚未完全适应这种从“风险投资”向“成长型投资”的混合模式转变。 同时,算力基础设施的经济学正在重塑整个行业的竞争格局。
作者想要传达的核心思想 Casado 和 Wang 试图传达的核心思想是**“算力即新的杠杆”以及“垂直整合的胜利”**。
- VC vs Growth 的错位: 传统的 VC 模式追求高倍数回报,但在 AI 基础设施领域,由于资本支出(CapEx)极高,回报率被摊薄。这导致了一种错位:VC 们抱怨 AI 创业公司变成了“基础设施咨询公司”或“壳牌公司”,但这实际上是资本密集型产业的必然结果。
- 应用层的护城河: 单纯的套利应用没有护城河。真正的价值在于拥有数据飞轮或工作流整合能力的公司(如 Cursor),它们通过使用量来反哺模型优化。
- 人才密度: 在 AI 时代,顶级人才(如 Noam Shazeer)的密度比商业模式更重要,因为技术迭代速度太快,只有最顶尖的团队才能生存。
观点的创新性和深度 该观点的创新性在于打破了“软件即服务(SaaS)高毛利”的传统执念。在 GenAI 时代,软件不再是纯粹的代码复制,而是包含了昂贵的推理成本。深度在于揭示了ASIC(专用集成电路)经济学如何成为大公司的护城河——只有拥有足够大规模的用户(如 Google、OpenAI、Anthropic),才能承担定制芯片的研发成本,从而进一步降低推理成本,形成正反馈循环。这解释了为什么 World Labs 或 OpenAI 这样的公司必须走向巨无霸化。
为什么这个观点重要 这是对当前“AI 泡沫论”的有力反驳或修正。它指出了 AI 领域的残酷现实:这不是一个依靠小团队、Bootstrap(自力更生)就能赢利的行业,而是一个由算力资本垄断的“赢家通吃”游戏。理解这一点,对于创业者决定融资策略、对于投资人判断退出路径至关重要。
2. 关键技术要点
涉及的关键技术或概念
- 推理成本与预训练成本的剪刀差: 预训练是一次性的,但推理是随用户量指数级增长的。技术重点正从如何降低训练成本转向如何降低推理延迟和成本。
- ASIC Economics(专用集成电路经济学): 通用 GPU(NVIDIA)虽好,但特定公司的专用芯片(如 Google TPU、Meta MTIA、传闻中的 OpenAI 芯片)在特定负载下效率更高。
- Thinking Machines(思维机器): 指代 OpenAI o1 等模型,引入“系统2思维”,即模型在输出前进行内部搜索、规划和反思。
- Cursor / IDE 集成: 代码生成作为当前 AI 最落地的应用场景,其技术核心在于 RAG(检索增强生成)与上下文窗口管理的深度优化。
技术原理和实现方式
- 垂直整合: 以 OpenAI 为例,不仅仅是训练模型,还通过 ASIC 优化底层算力,通过产品(ChatGPT)直接触达用户。这种全栈控制使得数据闭环更高效。
- 模型与工作流的融合: Cursor 的成功在于它没有试图做一个通用的 Chatbot,而是深度嵌入 IDE(集成开发环境),利用
langgraph等技术管理 Agent 的多步推理状态。
技术创新点分析
- 从 Probit 到 Probabilistic: 现在的 AI 不再仅仅是预测下一个词,而是学习“思考”的过程。这需要新的技术架构来支持长时间的链式思考。
- 端侧 AI 的可能性: 虽然 a16z 讨论侧重云端,但降低推理成本的技术压力也推动了端侧模型的发展,以绕过云端算力瓶颈。
3. 实际应用价值
对实际工作的指导意义 对于创业者和产品经理,这意味着不能仅仅满足于“调用 GPT-4 API”。如果你的产品仅仅是 API 的薄包装,你将无法承担随之而来的毛利压力。必须构建数据飞轮:用户的使用数据能微调模型,使模型在你的特定场景下表现更好,从而吸引更多用户。
可以应用到哪些场景
- 企业级 SaaS: 需要重新评估定价模式。从订阅制转向按使用量付费,并在此过程中优化推理成本。
- 智能硬件: 结合 World Labs 的空间智能方向,开发具备物理世界理解能力的机器人或视觉系统。
需要注意的问题
- 供应商锁定: 深度依赖单一模型提供商(如 OpenAI)可能导致成本失控或服务中断。
- 数据隐私与合规: 在建立数据飞轮时,如何合法地使用用户交互数据来训练模型是巨大的法律风险。
4. 行业影响分析
对行业的启示 行业正在从“模型层”的淘金热转向“基础设施层”的卖铲子生意,再到现在的“应用层”深度整合。单纯的大模型公司数量会减少,但基于特定垂直领域(如法律、医疗、代码)的“系统型公司”将会崛起。
可能带来的变革
- ASIC 的普及: 未来,拥有自有芯片组将成为 AI 巨头的标配。这将挑战 NVIDIA 的统治地位,同时也提高了行业的准入门槛。
- VC 模式的变革: 投资人可能需要接受更低的回报倍数,但更大的绝对回报额;或者转向投资更早期的、高风险的科学研究(如 World Labs)。
对行业格局的影响 行业将呈现“哑铃型”结构:一端是拥有算力和模型的极少数巨头(OpenAI, Google, Anthropic),另一端是极其灵活、深耕垂直场景的微型巨头。中间层的“平庸应用”将大量死亡。
5. 延伸思考
引发的其他思考
- 能源瓶颈: 文章提到了算力,但算力的背后是电力。ASIC 的效率提升是否足以抵消能源消耗的指数级增长?
- Noam Shazeer 的回归: 作为一个从 Google 离职创业又被高价买回的案例,这是否预示着大厂对顶级 AI 人才的垄断将比以往任何时候都更彻底?
未来发展趋势
- 模型作为操作系统: 模型将不再是一个产品,而是像操作系统一样的底层设施。真正的价值将在 OS 之上的“原生应用”。
- 合成数据: 当真实数据耗尽,像 Thinking Machines 这样通过自我博弈生成高质量训练数据的能力,将成为下一个技术高地。
6. 实践建议
如何应用到自己的项目
- 评估你的成本结构: 如果你的项目依赖 LLM,请立即计算你的推理成本占营收的比例。如果超过 30-40%,你的商业模式可能不成立。
- 寻找“不可替代”的数据: 不要只依赖公开数据。思考你的用户在使用过程中产生的哪些独特数据是 OpenAI 无法获取的,并利用这些数据建立壁垒。
具体的行动建议
- 关注非 GPU 硬件: 关注初创公司在特定 AI 任务上的 ASIC 或 FPGA 解决方案,这可能是未来的投资风口。
- 深度集成而非简单调用: 在产品设计中,利用 Agent 框架(如 LangChain, CrewAI)让 AI 执行复杂任务,而不是简单的问答。
7. 案例分析
成功案例分析:Cursor
- 背景: 一个 AI 代码编辑器。
- 成功因素: 它没有试图重新发明模型,而是极致地优化了用户体验和上下文管理。它理解程序员的工作流,将 AI 无缝嵌入。它证明了“应用层”只要做得足够深,就能捕获巨大的价值,即使底层模型不是自己的。
失败/反思案例:Character.AI (Noam Shazeer 的前公司)
- 背景: 曾是 AI 独角兽,最终核心人才被 Google 收回。
- 反思: 虽然产品有创新,但在面对拥有无限算力和基础设施的巨头时,独立的模型公司难以维持长期的竞争力。这验证了 Casado 关于“基础设施与资本”重要性的观点——没有基础设施护城河的应用,最终可能沦为巨头的研发实验室。
8. 哲学与逻辑:论证地图
中心命题 在生成式 AI 时代,垂直整合的算力垄断与特定场景的数据闭环是构建万亿美元级公司的唯一路径,而传统的软件 SaaS 范式已失效。
支撑理由
- 摩尔定律的终结与算力稀缺: 通用算力不再线性增长,只有通过 ASIC 和规模效应才能获得成本优势(依据:NVIDIA 的市值与 OpenAI 的融资额)。
- 模型同质化: 基础模型的能力正在趋同,应用层的护城河必须来自私有数据和工作流整合,而非模型本身(依据:Claude 3.5 与 GPT-4o 的性能差距缩小)。
- 推理成本的边际递减: 随着模型变得更聪明,解决复杂问题所需的推理成本会降低,但这依赖于底层硬件的极致优化(依据:Thinking Machines 的逻辑)。
反例与边界条件
- 反例:Midjourney。 它没有复杂的垂直整合,也没有做 ASIC,仅依靠产品力和社区就实现了盈利。这证明在某些创意生成领域,产品体验优于基础设施。
- 边界条件: 开源模型的爆发。如果 Llama 4 或 DeepMind 的开源模型达到 GPT-4o 水平,算力垄断的护城河将被打破,价值将完全转移到应用层。
事实 vs 价值 vs 预测
- 事实: OpenAI 和 Anthropic 正在筹集数十亿美元用于 CapEx。
- 价值判断: 这种资本密集型模式优于轻资产的 SaaS 模式。
- 可检验预测: 未来 3 年内,未拥有自有算力或芯片战略的独立大模型初创公司将倒闭或被收购。
立场与验证
- 立场: 支持“基础设施决定论”。AI 的终局是少数几家拥有算力垄断权的巨头加上无数家基于其上的垂直应用公司。
- 验证方式: 观察 2025-2026 年,是否有独立 AI 公司(非云厂商系)能够维持 50% 以上的毛利率而不被收购。如果不能,则命题成立。
最佳实践
最佳实践指南
实践 1:拥抱“苦涩的教训”,优先利用算力规模而非算法技巧
说明: 根据 Rich Sutton 提出的“苦涩的教训”,历史证明,利用通用计算能力(算力)和大规模数据的方法,最终总是战胜那些利用人类领域知识构建的特定算法或技巧。在当前的 AI 竞争中(如 OpenAI vs Anthropic),赢家往往是那些能够最大化堆砌算力、采用通用架构(如 Transformer)并进行大规模训练的公司,而非那些试图通过巧妙的模型架构或小数据集进行优化的团队。
实施步骤:
- 在技术路线选择上,优先考虑可扩展性强、能够并行化利用大量 GPU 的通用架构,避免过度依赖手工设计的特征或复杂的特定领域逻辑。
- 将资源重点投入在数据获取和算力基础设施的扩充上,而非仅仅在算法层面进行微小的效率优化。
- 重新评估研发预算,确保大部分资金用于购买算力和数据存储,而非仅用于雇佣大量的算法工程师进行“手工雕琢”。
注意事项: 这并不意味着算法不重要,而是指在长期竞争中,算力的杠杆效应远超人类智力在算法上的微调。初创公司需确保有足够的资金支持这种“烧钱”策略。
实践 2:构建垂直整合的全栈应用,以防御基础设施层的同质化
说明: 随着底层模型(LLM)能力的趋同,仅仅依赖模型 API 的应用层公司很容易失去护城河。最佳实践是构建“全栈”公司,不仅拥有模型,还拥有用户界面、私有数据和工作流整合。以 Cursor 为例,它不仅仅是一个套壳的 GPT-4,而是深度整合了代码编辑器、上下文管理和开发者工作流,从而创造了极高的用户粘性和价值。
实施步骤:
- 识别用户体验中的痛点,将 AI 模型深度嵌入到具体的工作流中,而不是简单地作为一个聊天机器人侧边栏。
- 积累专有的私有数据,这些数据应来自用户与产品的交互,用于微调模型,形成“数据飞轮”效应。
- 控制从模型到 UI 的整个堆栈,以便根据用户反馈快速迭代产品体验,而不是受制于底层模型提供商的更新节奏。
注意事项: 全栈开发增加了工程复杂度。团队需要同时具备应用层开发和模型微调的能力,这对初创团队的复合型人才储备提出了挑战。
实践 3:在模型能力过剩的领域寻找商业机会
说明: 不要试图在模型最擅长或最通用的领域(如通用问答)与其竞争。最佳的机会在于模型能力刚刚“够用”甚至“过剩”的垂直领域。例如,World Labs(由李飞飞创立)或 Noam Shazeer 的 Character.AI,它们利用现有的强大基础模型能力,专注于空间智能或个性化交互,解决了模型虽然通用但缺乏特定场景深度的问题。
实施步骤:
- 评估现有顶尖模型的能力边界,寻找那些模型已经表现出“过剩能力”但尚未被产品化的场景。
- 在选定的垂直领域中,构建特定的工作流或界面,将模型的通用能力转化为该领域的专业生产力工具。
- 关注非技术壁垒,如社区建设、内容审核或特定行业的合规性,这些是通用模型提供商难以触及的。
注意事项: 必须警惕基础模型迅速迭代带来的“吞噬”风险。如果 OpenAI 或 Google 在下个版本直接原生支持了你所在领域的核心功能,你的差异化价值将瞬间归零。
实践 4:通过 ASIC 和专用硬件优化单位计算的经济效益
说明: 在 AI 基础设施层,通用的 GPU(如 Nvidia H100)虽然强大但昂贵且稀缺。最佳实践包括探索专用集成电路(ASIC)或其他专用硬件(如 Groq、Cerebras 或是科技巨头自研的芯片)。这不仅是降低成本的手段,更是获得性能优势(如更低延迟、更高吞吐量)的关键,从而在单位经济效益上击败竞争对手。
实施步骤:
- 分析你的 AI 工作负载特征,确定是否属于固定且高吞吐量的任务(如推理服务),这类任务最适合 ASIC 加速。
- 评估使用云服务商提供的基于专用芯片实例(如 AWS Trainium/Inferentia 或 Google TPU)的成本效益比,对比通用 GPU 实例。
- 如果规模达到一定量级(如超大规模企业),考虑投资定制化芯片以实现极致的能效比和性能优化。
注意事项: 专用硬件缺乏灵活性。如果你的算法需要频繁大幅度调整,专用芯片可能无法快速适应。此外,锁定特定硬件供应商可能会带来迁移风险。
实践 5:重新审视“风险投资”与“增长投资”的逻辑差异
说明: a16z 的 Martin Casado 和 Sarah Wang 指出,AI 公司的资本结构正在发生变化。传统的 SaaS 增长逻辑(低资本消耗,高利润)不再适用于 AI 基础设施公司。AI 创业更像是“风险投资”而非传统的“增长投资”——即需要巨额的前期
学习要点
- 在生成式AI领域,垂直整合(模型+应用)的商业模式正成为比单纯提供模型API更具护城河的获胜策略。
- 算力基础设施的竞争已从通用GPU转向定制化ASIC(如TPU/LPU),这将是未来决定大模型成本结构和利润率的关键因素。
- AI创业公司面临的最大风险是沦为单纯的“模型套壳”,必须通过私有数据或独特工作流构建不可替代的价值,以防止被底层模型厂商吞噬。
- “推理成本”的下降速度远超预期,这将推动AI应用从简单的聊天机器人向具备复杂多步推理能力的智能体进化。
- 人才密度是AI公司的核心壁垒,顶尖研究人员的流失(如Noam Shazeer的案例)往往比技术迭代更能决定公司的生死存亡。
- 风险投资(VC)逻辑与成长型投资逻辑在AI领域发生剧烈分化,前者追求高估值爆发,后者关注单位经济模型和规模化盈利。
- AI应用层(如Cursor)的成功证明,用户体验和产品化能力在技术同质化时代是决定市场占有率的最终一公里。
引用
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。
站内链接
- 分类: 产品与创业 / 大模型
- 标签: a16z / OpenAI / Anthropic / 投资策略 / 商业化 / 算力经济 / Fei-Fei Li / Noam Shazeer
- 场景: AI/ML项目