a16z深度对话:Anthropic与OpenAI的博弈、Noam Shazeer及AI基础设施投资


基本信息


摘要/简介

我们与 a16z 的 AI 投资负责人坐下来,进行了一场广泛深入的对话,聊聊这到底是怎么回事。


导语

随着生成式 AI 从技术爆发期迈向商业化落地,创投逻辑正经历深刻重塑。a16z 合伙人 Martin Casado 与 Sarah Wang 在本期对话中,深入剖析了 Anthropic、OpenAI 等头部公司的发展路径,解读了 Noam Shazeer 等关键人物的行业影响,并探讨了从风投到增长、从通用模型到垂直应用(如 Cursor)及底层硬件(ASIC)的经济性考量。本文旨在帮助读者厘清当前 AI 基础设施与应用层的价值分布,理解在算力与资本博弈下,企业如何构建可持续的竞争优势。


评论

核心论点

文章的核心观点是:AI 行业的发展重心正从通用的“模型竞赛”转向垂直领域的“应用落地”。未来的行业主导权,将不再单纯属于掌握基础模型的厂商,而是属于那些能够利用 AI 重构垂直工作流、掌握私有数据闭环,并敢于在特定场景下采用 ASIC(专用集成电路)替代通用 GPU 的“系统型公司”。

深度解析与批判性评价

1. 商业模式重构:从“模型即产品”到“垂直整合”

  • 观点提炼: Casado 和 Wang 指出,以 OpenAI 和 Anthropic 为代表的“VC 模式”——即依赖高额资本支出(CAPEX)训练通用模型并追求高回报——正面临边际效益递减的挑战。相反,以 Google(Noam Shazeer 回归)、World Labs(Fei-Fei Li)和 Cursor 为代表的“增长模式”更受关注。这些公司不直接出售模型接口,而是提供包含“状态”管理和“工作流”的完整服务。
  • 深度评价: 这一观点切中了当前 AI 创业的痛点:仅靠 API 调用难以建立稳固的护城河。Cursor 的案例表明,用户体验(UX)和上下文记忆在留存用户方面,往往比单纯的模型智商更为关键。
  • 边界与挑战:
    • 技术颠覆风险: 如果基础模型(如 GPT-5)实现跨代际的能力跃升(例如彻底解决推理不可靠性),垂直应用层可能会被通用模型直接覆盖,导致中间层价值被削弱。
    • 适用范围: 这种模式主要适用于高复杂度、高容错率的领域(如编程),对于简单的问答类应用,垂直整合的成本可能过高。

2. 算力经济学:ASIC 在垂直计算中的角色

  • 观点提炼: 文章提出了一个反直觉的观点:在特定工作负载下,ASIC(如 Google TPU 或 Groq LPU)的性能或成本效益将优于 NVIDIA GPU。a16z 认为,随着模型架构(如 Transformer)趋于稳定,针对特定数据流优化的专用芯片将带来显著的成本优势。
  • 实用价值: 这为 AI 创业者提供了降低推理成本的思路。对于专注于视频生成或特定推理任务的公司,自研或采用专用芯片可能是比单纯租用 H100 更具长远竞争力的策略。
  • 边界与挑战:
    • 生态壁垒: NVIDIA 的护城河不仅在于硬件算力,更在于 CUDA 软件生态。除非工作负载极大且固定(如 Google 搜索),否则大多数公司难以承担 ASIC 流片的高昂风险及其缺乏灵活性的代价。
    • 架构依赖: 只有在模型架构完全冻结(不再频繁迭代)的前提下,ASIC 的经济优势才能充分体现。

3. 系统级机遇:“Thinking Machines”

  • 观点提炼: 文章提及 Noam Shazeer 和“Thinking Machines”概念,暗示 AI 的下一阶段竞争在于系统架构创新,而非单纯堆砌参数量。未来的 AI 公司可能更接近于拥有大量“AI 员工”的劳务服务提供商,而非传统软件公司。
  • 深度评价: 这将改变投资逻辑。SaaS 时代传统的“单位经济模型”可能面临调整,市场将更关注“智能成本”与“人类替代成本”之间的比率。
  • 边界与挑战:
    • 实现难度: 系统级创新极其复杂。历史上,许多试图打造“AI 操作系统”的公司(如早期的 Viv)往往受限于技术不成熟或数据碎片化问题而未能成功。

观点验证与观察窗口

为了评估上述观点的有效性,建议关注以下指标和趋势:

  1. 指标:垂直 AI 公司与模型层公司的毛利率对比

    • 验证逻辑: 如果 a16z 的观点成立,随着时间推移,像 Cursor 或 World Labs 这类拥有垂直闭环的公司,其毛利率应优于单纯提供 API 的模型公司,因其能通过工作流价值分摊算力成本。
    • 观察窗口: 2025年 Q3-Q4 财报季。
  2. 实验:专用架构(ASIC/TPU)的性价比实测

    • 验证逻辑: 对比在相同任务(如视频生成或长文本推理)下,使用 NVIDIA H100 集群与使用 Google TPU 或 Groq LPU 的总拥有成本(TCO)和延迟表现。
    • 观察窗口: 未来 12-18 个月内,观察是否有大规模的非科技巨头(非 Google/Meta)AI 独角兽开始采购非 GPU 硬件。
  3. 趋势观察:基础模型能力的演进曲线

    • 验证逻辑: 观察 GPT-5 或其他下一代模型的能力增长曲线。如果出现能力跃升,通用模型可能会重新挤压垂直应用的生存空间;反之,则垂直整合模式将更加稳固。

技术分析

技术分析:AI 基础设施经济学与垂直整合趋势

1. 核心观点

主要论点: Casado 和 Wang 指出,AI 行业的经济结构正在发生根本性转变。价值正在从应用层向基础设施层转移。由于大语言模型(LLM)的商品化趋势,仅依赖第三方 API 构建轻量级应用的公司将难以建立护城河。未来的竞争优势将属于那些能够实现垂直一体化(Vertical Integration)的企业,即拥有自有模型、底层硬件及专用基础设施的公司。

核心逻辑: 这一趋势反映了 “The Bitter Lesson”(苦涩教训) 在商业层面的体现:算力投入和规模效应最终优于人工设计的特定架构。在 AI 领域,这意味着资本效率基础设施控制权比单纯的软件功能迭代更为关键。

2. 关键技术与经济要素

涉及的关键概念:

  • 垂直一体化: 企业不再仅依赖通用云服务,而是转向自建集群、自研芯片(如 ASIC)或深度绑定算力供应商,以降低长期边际成本。
  • 推理时计算: 指 OpenAI o1 等模型在生成输出前进行多步推导和验证的过程。这种技术改变了成本结构,使得计算成本随任务难度动态变化。
  • ASIC Economics(专用集成电路经济学): 针对特定负载(如 Transformer 推理)定制的硬件,相比通用 GPU 在能效比和成本上具有显著优势。

技术难点与应对:

  • 数据稀缺与模型崩溃: 随着公共高质量数据逐渐耗尽,获取独特训练数据成为技术瓶颈。
  • 高昂的训练与推理成本: 训练顶级模型的资本门槛已大幅提升。
  • 解决方案: 行业正通过混合融资模式(结合 VC 与 PE)筹集资金,并开发混合专家系统或小型专用模型以优化推理成本。

3. 商业影响与估值逻辑

对初创公司的影响:

  • 应用层风险: 缺乏自有模型或数据壁垒的“套壳”应用面临极高的归零风险,因为其核心能力(模型)可被供应商轻易复制或覆盖。
  • 单位经济模型重构: 传统的 SaaS 估值标准(如 80% 毛利率)在 AI 领域可能不再适用,因为每一笔调用都涉及显性的“算力税”。

战略建议:

  • 基础设施控制: 企业应寻求拥有或控制部分模型权重及基础设施,以掌握定价权并确保数据安全。
  • 差异化路径: 在高价值、低频的垂直领域(如医疗、法律),利用私有数据微调模型是构建壁垒的有效路径。

4. 行业格局展望

价值流向: 行业价值链正呈现向两端集中的趋势。一端是提供算力的硬件厂商(如 Nvidia),另一端是拥有基础模型的巨头(如 OpenAI, Anthropic)。中间层的应用厂商若无法建立技术或数据护城河,其生存空间将被大幅压缩。

投资逻辑变化: 投资界对 AI 项目的评估标准正从传统的软件增长指标,转向对资本配置效率和技术资产拥有权的考量。


最佳实践

最佳实践指南

实践 1:拥抱“苦涩教训”,优先投资于算力与规模而非模型架构的精巧性

说明: 基于 Rich Sutton 的“苦涩教训”,历史表明通用计算和大规模数据最终总能战胜针对特定任务精心设计的算法或架构。在当前的 AI 浪潮中,企业应将资源集中在扩大计算规模和数据获取上,而不是试图通过小规模、高技巧的模型架构优化来取得长期竞争优势。OpenAI 的成功正是这一策略的典型代表。

实施步骤:

  1. 重新评估研发预算分配,将更大比例的资金用于购买算力(GPU/TPU)和数据处理,而非仅雇佣算法研究人员进行架构微调。
  2. 建立可扩展的基础设施,确保模型训练能够无缝扩展到数万个加速卡。
  3. 优先考虑能够利用海量通用数据的预训练方法,而非依赖小规模专家数据的精调。

注意事项: 这种策略需要极高的资本投入,初创企业需确保有足够的融资能力或通过云服务降低前期资本支出。


实践 2:从“风险投资”思维转向“增长投资”思维

说明: a16z 强调,现在的 AI 创业逻辑已经发生了根本性变化。传统的 VC 模式是寻找“非共识”的正确观点并进行小规模押注;而现在的 AI 领域(特别是基础模型层),共识是正确的(即 AI 将改变一切),竞争在于执行力和资本规模。这要求投资者和创业者从“寻找秘密”转向“通过资本和执行力赢下市场”。

实施步骤:

  1. 创业者在融资时,应向投资者展示如何利用资金建立不可逆的规模优势(如数据飞轮),而不仅仅是展示独特的技术点子。
  2. 投资者应关注企业的资本部署效率,评估其是否具备快速消耗资本以获取市场份额的能力。
  3. 避免过度纠结于早期的单位经济模型(Unit Economics),在指数级增长阶段,市场份额和技术护城河优先于短期利润。

注意事项: 这种模式风险极高,如果技术路线错误或执行力不足,巨大的资本投入将导致更严重的损失。


实践 3:在应用层构建“私有模型”护城河,而非仅依赖通用 API

说明: 随着基础模型(如 GPT-4)逐渐商品化,应用层创业公司的竞争优势将不再来自于调用最好的模型,而在于拥有专有的、高质量的数据集来微调模型。正如 Noam Shazeer 离开 Google 创立 Character.AI 所示,通过用户交互生成的专有数据是构建差异化体验的关键。

实施步骤:

  1. 设计产品交互逻辑,确保每一次用户交互都能产生高价值的反馈数据,用于模型的持续微调。
  2. 建立数据闭环机制,将用户行为数据自动化地回流到模型训练流程中。
  3. 即使初期使用通用 API,也要规划如何逐步替换为经过私有数据微调的模型,以降低对第三方模型提供商的依赖。

注意事项: 数据隐私和合规性是构建私有数据集时的核心风险,必须建立严格的数据治理流程。


实践 4:利用“垂直整合”的 ASIC 经济学优化算力成本

说明: 对于大规模 AI 应用,通用的 GPU 成本过高且能效比有限。最佳实践是参考 Google TPA 或特斯拉 Dojo 的路径,针对特定工作负载设计专用集成电路(ASIC)。虽然 ASIC 的研发成本(NRE)极高,但在大规模部署时,其边际成本和性能优势将形成巨大的经济壁垒。

实施步骤:

  1. 评估自身工作负载的规模和稳定性,只有当算力需求达到一定量级且工作负载固定时,才启动 ASIC 设计。
  2. 招募芯片架构团队,或与芯片设计公司合作,定义针对特定模型(如 Transformer 推理)优化的指令集。
  3. 建立软件栈团队,确保模型框架能充分适配底层硬件,发挥 ASIC 的极致性能。

注意事项: 芯片研发周期长、失败风险大,且技术迭代极快,需确保 ASIC 设计在未来 2-3 年内仍具有竞争力。


实践 5:重新定义 IDE,通过“人机协作”提升开发杠杆率

说明: 以 Cursor 为例,AI 编程工具的最佳实践不是简单地自动生成代码,而是重塑开发者体验(DX)。未来的 IDE 应该是一个“意图”与“执行”分离的系统,开发者负责描述逻辑,AI 负责具体的代码实现和调试。这能将单个开发者的产出放大 10 倍以上。

实施步骤:

  1. 在团队内部全面部署 AI 辅助编程工具(如 Cursor 或 Copilot),并将其作为强制标准。
  2. 重新定义代码审查流程,从关注语法错误转向关注 AI 生成代码的逻辑正确性和安全性。
  3. 培养工程师的“产品经理思维”,因为编写代码的成本降低,工程师应将更多时间花在系统设计和需求理解上。

注意事项: 过度依赖 AI 生成代码可能导致技术债务累积,需要建立更严格的架构治理


学习要点

  • 生成式 AI 的经济价值正在从模型训练向推理应用转移,能够通过软件或硬件优化推理成本的公司将获得最大的利润空间。
  • 专用硬件(如 ASIC)正成为 AI 基础设施的关键,相比通用 GPU,它能提供更优的推理性能和更低的单位成本。
  • 创始人的特质(如 Noam Shazeer 的技术直觉与执行力)是初创公司的核心护城河,其价值往往超过初始的商业模式或市场定位。
  • AI 领域的竞争已演变为“风险投资”与“增长投资”两种模式的博弈,前者追求指数级的技术突破,后者关注确定性的规模化落地。
  • AI 智能体正在重塑软件经济,通过替代昂贵的劳动力成本而非仅仅降低软件授权费,创造了远超传统 SaaS 的市场价值。
  • 基础模型公司的竞争壁垒极高,未来胜出者将是那些能够构建垂直整合生态(如 OpenAI)或拥有独特技术路径(如 Anthropic)的巨头。

引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章