a16z深度对话:Anthropic与OpenAI的博弈、Noam Shazeer及AI投资逻辑


基本信息


摘要/简介

我们与 a16z 的 AI 投资负责人坐下来,就到底发生了什么进行了一场广泛而深入的对话。


导语

随着 AI 商业化进程加速,风险投资与增长投资在策略上的分歧日益显著。本文基于 a16z 投资人的深度对话,剖析了 Anthropic、OpenAI 等头部公司的路径选择,以及 Noam Shazeer 等关键人物的行业影响。文章旨在帮助读者厘清当前技术周期的资本逻辑,理解从模型训练到落地应用背后的真实经济账。


摘要

这是一份基于马丁·卡萨多和莎拉·王关于AI投资、创业与大厂博弈的深度对话总结。

核心主题:AI时代的“苦涩教训”与资本效率

a16z 合伙人 Martin Casado 和 Sarah Wang 在对话中深入剖析了当前AI领域的竞争格局、投资逻辑以及未来的基础设施形态。核心观点如下:

1. 风险投资 vs. 增长投资:资本效率的分化 对话首先区分了两种截然不同的商业模式及其对应的资本策略:

  • 风险投资模式(VC Model,如 OpenAI/Anthropic): 需要巨额的前期资本支出(CAPEX)来训练基础模型。这是一种“赢家通吃”的博弈,虽然潜在回报巨大,但风险极高,且资本效率较低。
  • 增长投资模式(Growth Model,如 World Labs/Cursor): 侧重于应用层或垂直领域,利用现有的模型构建产品。这些公司通常具有很高的资本效率,甚至能产生正向现金流,像传统的SaaS公司一样通过收入支撑增长。

2. “苦涩教训”:算力即王道 两位投资人重申了 Rich Sutton 提出的“苦涩教训”:从长远来看,利用通用计算能力(算力)和大规模数据的方法总是战胜试图利用人类先验知识(如算法巧思)的方法。 这意味着,不要试图通过精巧的算法来节省算力。未来的竞争优势在于谁能更激进地堆砌算力,以及谁能更高效地将这些算力转化为智能。

3. 创业公司 vs. 科技巨头:人才与算力的战争 在基础模型领域,创业公司正面临前所未有的挑战,因为现在的竞争主要是资本支出的竞争,而不仅仅是研发支出。

  • 大厂优势: 科技巨头拥有无限的资本和免费的内部算力。
  • 创业公司机会: 只有当创业公司能获得“廉价资本”或拥有独特的技术洞见时才有胜算。例如 Noam Shazeer 离开 Google 创立 Character.AI 并最终被 Google 高价回购,这被称为一种新的套利模式:创业者通过承担风险证明价值,大厂通过收购将其“招安”回核心体系。
  • World Labs (Fei-Fei Li): 作为一个新的基础模型公司,它试图

评论

文章核心观点 在AI产业链中,单纯的应用层价值正面临被“垂直整合”巨头挤压的风险。未来的行业领军者将更可能诞生于拥有自有模型、数据闭环甚至定制芯片的“全栈型”公司,而非仅依赖API接口的轻量级服务商。

支撑理由与深度分析

  1. 垂直整合的商业逻辑(事实陈述 / 作者观点) a16z的核心论点在于,随着模型能力的逐渐普及,竞争壁垒已从单纯的“算法”转移到了“系统”层面。Casado和Wang指出,OpenAI或Anthropic等巨头正通过控制全栈(从芯片到模型再到应用)来捕获最大价值。对于初创公司而言,仅在API之上构建薄薄的应用层显得较为脆弱。这解释了为何他们看好Cursor(深度集成IDE与模型)或World Labs(试图从底层重构3D生成),因为这些公司构建了难以被单一API更新轻易抹杀的“系统级优势”。

  2. “Bitter Lesson”的商业映射(作者观点 / 你的推断) 文章引用了Rich Sutton的“苦涩教训”概念——即通用的计算和规模化最终会战胜精致的人类先验知识。a16z将其引申为商业模式:通用的、规模化的平台(如基础模型)可能会挤压那些试图通过人工规则或小规模数据建立护城河的垂直应用。这不仅是技术判断,也涉及资本效率:在算力即权力的背景下,没有核心资产(算力/权重)的公司可能缺乏议价能力。

  3. ASIC经济学与基础设施门槛(事实陈述 / 你的推断) 文章探讨了ASIC(专用集成电路)经济学,指出只有达到巨大的规模(如Google TPU或Meta的训练集群),定制芯片才具备经济性。这构成了一个较高的行业门槛。a16z暗示,初创公司若想在此层面竞争,必须具备像Noam Shazeer(Character.AI创始人,后回归Google)那样能极致优化算力效率的团队,或者找到特定推理加速芯片等细分市场。这在一定程度上限制了大部分“中间层”初创公司的生存空间。

反例与边界条件

  1. “薄包装”的敏捷性悖论(你的推断) a16z推崇全栈模式,但可能忽略了“薄包装”在战术上的灵活性。例如,JasperMidjourney(早期)并未拥有模型,但凭借用户体验和社区迅速占领市场。当底层模型快速迭代(如GPT-3到GPT-4)时,重资产的全栈公司可能面临技术债,而轻量级应用可以较快切换到最新模型。全栈模式可能导致调整成本较高,在模型范式发生转移(如从Transformer转向SSM或Mamba)时面临适应性风险。

  2. 开源模型的替代作用(事实陈述) MistralLlama系列的存在降低了“必须自建模型”的紧迫性。如果应用层公司能够通过微调开源模型达到接近Closed SOTA的效果,且成本可控,那么a16z所强调的“全栈护城河”在非头部应用(如长尾垂直SaaS)中可能并非必要选项。

维度评价

  1. 内容深度: 较高。文章跳出了简单的“AI取代人类”叙事,转而从资本形成、算力成本结构和系统架构角度剖析竞争。特别是关于“Growth”与“Venture”资本在AI项目上的分歧讨论,揭示了目前AI初创公司融资环境变化的深层原因。
  2. 实用价值: 对创业者具有参考意义。它指出了依赖单一API的潜在风险,建议创业者思考数据飞轮及闭环的形成。对于投资者,它提供了一个评估AI项目的补充视角:除了用户增长,还需关注算力效率和资产厚度。
  3. 创新性: 提出了“应用公司即基础设施公司”的模糊界限。观点较新,特别是关于ASIC经济学的讨论,在VC圈通常只关注算法的背景下显得较为硬核。
  4. 可读性: 逻辑清晰,但专业门槛较高。听众需要具备一定的AI工程背景和硅谷投融资常识才能完全消化关于ASIC和模型架构的论述。
  5. 行业影响: 可能会促使一级市场重新审视“纯应用层”AI项目的估值,并引导资金向拥有自研模型或推理加速技术的硬科技公司倾斜。

争议点或不同观点

  • 关于Anthropic vs OpenAI的发展路径: a16z似乎暗示Anthropic(更偏研究/安全)在商业化上可能落后于OpenAI(更激进的全栈扩张)。但反方观点认为,Anthropic与企业云(AWS/Google)的深度绑定可能是一种稳健的B2B路径,不一定需要全栈自研也能保持竞争力。
  • “赢家通吃”的视角局限: a16z作为顶级VC,倾向于寻找指数级增长的独角兽,因此可能忽视“小而美”的生意。但在AI长尾市场,可能存在大量被该视角忽略的细分领域机会。

技术分析

基于a16z合伙人Martin Casado和Sarah Wang近期关于AI投资、基础设施经济学以及初创公司战略的深度对话,以下是对该内容的全面深入分析。


1. 核心观点深度解读

主要观点: AI行业正在经历从“模型即产品”向“垂直应用”和“基础设施优化”的转型。在这一阶段,**“推理成本”**成为了决定商业模式的生死线。OpenAI(代表追求极致规模和通用智能的Venture模式)与Anthropic(代表更注重安全、特定对齐及长期稳健的Growth模式)展示了不同的资本效率路径。同时,Noam Shazeer回归Google及Character.AI的案例表明,在基础模型层面对巨头的“护城河”正在收窄,而价值正在向能够利用AI重构工作流的应用层(如Cursor)以及能够解决物理世界智能的公司(如World Labs)转移。

核心思想: 作者试图传达**“资本效率与单位经济效益的回归”。在AI的“Bitter Lessons”(苦涩的教训)中,单纯依靠算力堆砌的通用模型虽然强大,但并不总是最好的投资或创业路径。真正的商业壁垒在于数据飞轮、工作流整合以及ASIC(专用芯片)带来的成本结构优化**。

观点的创新性与深度: 该观点打破了“大力出奇迹”的单一叙事,深入到了**芯片经济学(ASIC Economics)**的微观层面。它指出未来的竞争不仅仅是算法的竞争,更是垂直整合(Vertical Integration)的竞争——谁拥有从芯片到模型再到应用的全栈优化能力,谁就能定义单位成本。

重要性: 这为当前的AI创业者和投资者指明了方向:不要试图在通用大模型上与OpenAI/Anthropic硬碰硬,而应关注如何利用模型降低特定领域的服务成本,或者如何通过专用硬件(如ASIC)在推理成本上建立数量级的优势。


2. 关键技术要点

涉及的关键技术或概念:

  1. ASIC Economics(专用集成电路经济学): 使用GPU(通用)与ASIC(专用)在推理成本上的巨大差异。
  2. Reasoning/Inference Scaling(推理扩展): 模型通过“思考”更长时间(如o1)来提升性能,但这导致推理成本线性甚至指数级上升。
  3. Synthetic Data(合成数据): 在高质量人类数据耗尽后,利用模型生成数据训练下一代模型。
  4. Agentic Workflows(代理工作流): 从简单的Chatbot转向能够执行复杂任务链的系统。

技术原理与实现方式:

  • ASIC优化: GPU擅长并行计算但灵活性差,能效比低。ASIC针对特定矩阵运算(如Transformer的推理)进行硬件硬化,可以在相同功耗下提供数十倍的算力,从而将每次查询的成本从美分级降至千分之一美分级。
  • 推理成本控制: 随着模型进入“思考”阶段,计算量从预训练转向推理。技术实现上涉及混合专家模型和投机采样,以减少生成Token所需的计算步数。

技术难点:

  • ASIC的灵活性风险: 芯片流片周期长(18-24个月),如果模型架构发生重大变化(例如从Transformer转向SSM或Mamba),ASIC可能面临出片即落后的风险。
  • 合成数据的质量退化: 模型崩溃——即使用合成数据训练可能导致模型输出质量下降,失去多样性。

3. 实际应用价值

对实际工作的指导意义: 对于企业决策者,这意味着在选择AI方案时,必须将推理成本作为核心KPI。如果一项AI应用每次调用的成本无法随着规模下降,那么商业模式将无法跑通。

应用场景:

  • 高频、低延迟场景: 如客服机器人、代码补全,必须考虑ASIC或高度优化的模型,否则GPU成本将吞噬利润。
  • 知识密集型场景: 如法律、医疗分析,可以利用“思考”模型,但需要通过缓存或分层模型架构来控制成本。

需要注意的问题: 不要盲目追求最大参数的模型。大多数场景下,通过RAG(检索增强生成)和小参数模型的组合,配合微调,可以达到比超大模型更好的性价比。

实施建议: 在技术栈选型时,优先考虑支持多云部署和模型切换的架构,以便在未来低成本ASIC芯片或开源模型出现时,能够无缝切换底座。


4. 行业影响分析

对行业的启示: AI行业的“淘金热”正在进入“卖铲子”和“精炼金子”的阶段。基础模型层可能形成寡头垄断,但中间层应用层依然存在巨大机会,特别是那些能够将AI“不可见”地融入现有业务流的工具(如Cursor之于编程)。

可能带来的变革:

  • 全栈巨头的崛起: 未来的赢家可能是拥有自研芯片(如Google TPU、Amazon Trainium/Inferentia、Meta MTIA)并拥有模型层能力的公司。
  • VC模式的分化: Venture Capital(高风险高回报,投OpenAI)与 Growth Capital(稳健增长,投盈利性应用)的界限在AI领域变得模糊,因为AI初创公司消耗资本的速度远超传统SaaS。

行业格局影响: 纯软件公司的毛利结构将被重写。AI公司的毛利率可能因为高昂的推理成本和硬件投入,从传统SaaS的80%-90%降至50%-60%。这将迫使市场重新定义什么是“好公司”。


5. 延伸思考

引发的思考: 如果ASIC是未来,那么英伟达(NVIDIA)的护城河在哪里?虽然CUDA生态强大,但超大规模云厂商为了降本,自研芯片的动力是无限的。未来的AI基础设施是否会像今天的手机芯片市场一样,高度定制化?

拓展方向:

  • 边缘计算AI: 为了进一步降低云推理成本,将推理下放到手机端(Apple Intelligence)或PC端是一个巨大趋势。
  • 能源瓶颈: 所有的算力优化最终都会撞上能源供应的墙,核能或清洁能源将成为AI公司的隐型资产。

6. 实践建议

如何应用到自己的项目:

  1. 审计成本: 详细计算你的AI应用在100万用户规模下的Token/推理成本。
  2. 小模型优先: 从Llama-3-8B或Mistral等小模型开始,通过提示词工程和RAG满足需求,仅在必要时调用GPT-4级别模型。
  3. 关注数据闭环: 你的应用是否能够收集用户反馈数据来微调模型?这是比模型本身更强的壁垒。

具体行动建议:

  • 技术团队应开始学习模型量化蒸馏技术,以降低部署成本。
  • 产品经理应设计“人机回环”机制,低成本获取高质量标注数据。

7. 案例分析

成功案例:Cursor(IDE编辑器)

  • 分析: Cursor没有试图做一个通用的Chatbot,而是将AI深度整合进编程工作流。它利用了模型的能力,但核心价值在于它理解了程序员的上下文和习惯。
  • 关键点: 它解决了“如何让AI真正有用”而非“如何让AI更像人”的问题。

失败/反思案例:Character.AI 的“卖身”

  • 分析: 尽管拥有顶尖人才(Noam Shazeer)和优秀产品,但在面对OpenAI/Google的算力军备竞赛时,独立公司难以承担训练基础模型的巨额资本开支。
  • 教训: 在基础设施层,如果没有云厂商的背书或独特的低成本算力来源,独立创业极其困难。与其做基础模型,不如做基础模型之上的“租客”或特定场景的“拥有者”。

8. 哲学与逻辑:论证地图

中心命题: 在当前的AI发展阶段,垂直整合能力——即拥有从专用硬件到模型再到应用的全栈控制力,或者拥有极致的工作流数据闭环——是建立可持续商业壁垒的唯一路径,单纯的算法优势将因算力商品化而迅速消失。

支撑理由:

  1. 算力成本决定生存: 随着模型进入“推理时代”,推理成本成为主要支出。ASIC能提供10倍-100倍的成本优势,迫使公司必须自研或绑定特定硬件才能获得有竞争力的单位经济效益。
  2. 数据飞轮优于模型架构: OpenAI等前沿模型的能力正在趋同,应用层的壁垒不再依赖于你用了什么模型,而在于你的产品是否通过用户交互积累了独特的私有数据,从而微调出更懂该领域的模型。
  3. 资本市场的分层: 投资者不再为单纯的“烧钱买算力”买单,开始关注收入质量。只有能控制成本结构(如拥有ASIC或极高利润率应用)的公司才能获得高估值。

反例与边界条件:

  1. 反例: 开源模型的爆发(如Llama系列)。如果开源模型的能力迅速逼近闭源SOTA(State of the Art),那么拥有硬件壁垒的公司可能会被“软件层”的降维打击击败,因为无需昂贵的ASIC也能获得足够好的智能。
  2. 边界条件: 这一逻辑主要适用于大规模应用场景。对于极低频、高价值的任务(如一次性核聚变模拟),单位成本不重要,绝对能力才重要,此时通用GPU+超大模型依然适用。

事实 vs 价值 vs 预测:

  • 事实: 推理成本正在随着模型复杂度上升;Google/Meta正在大量部署ASIC;Character.AI人才被收购。
  • 价值判断: 认为资本效率是衡量初创公司健康度的核心指标;认为“应用层”比“模型层”更具创业机会。
  • 可检验预测: 未来3年内,将出现多家估值超过100亿美元的AI应用公司,但其底层模型并非自研,而是基于微调的开源模型或API;同时,未拥有自研芯片能力的纯模型公司毛利率将显著下降。

立场与验证: 我支持**“应用层与垂直整合将创造最大价值”**的立场。

验证方式:

  • 观察窗口: 18-24个月。
  • 验证指标: 观察Cursor、World Labs等公司的收入增长率与烧钱率之比;观察Google TPU或Amazon Inferentia在内部AI workload中的占比是否超过GPU;观察开源模型在特定垂直任务上是否超越GPT-4。

最佳实践

最佳实践指南

实践 1:区分“风险投资”与“增长投资”的策略逻辑

说明: 在当前的 AI 基础设施和应用层投资中,必须明确区分两种不同的经济逻辑。风险投资模式适用于早期、高风险、高回报的探索性项目(如早期的 OpenAI 或 Anthropic),其核心是寻找非对称的上升空间。而增长投资模式则适用于商业模式已验证、需要巨额资本支出的基础设施或规模化阶段(如 ASIC 芯片设计或大规模算力集群),其核心在于对资本效率和单位经济模型的极致追求。

实施步骤:

  1. 评估项目所处阶段:是处于“0 到 1”的技术验证期,还是“1 到 N”的规模化扩张期。
  2. 对于技术验证期,容忍较高的烧钱率,重点评估技术壁垒和团队愿景。
  3. 对于规模化扩张期,严格审查资本支出(CAPEX)回报率,确保每一分投入都能转化为可预测的市场份额或收入护城河。

注意事项: 避免在需要规模效应的基础设施项目上使用早期风投的“撒网”策略,这会导致资金分散,无法形成足以对抗巨头的规模优势。


实践 2:优先投资“垂直整合”的 AI 全栈公司

说明: 参考 Noam Shazeer(Character.AI)或 World Labs 的模式,最佳的投资标的往往不是单一模型提供商,而是那些将模型、数据、应用和特定领域深度整合的公司。在模型层商品化趋势下,仅做薄薄的一层应用极易被底层模型厂商覆盖。拥有全栈能力的公司能构建更深的护城河,控制用户体验并优化成本结构。

实施步骤:

  1. 寻找那些不仅依赖 API,还拥有自有微调、数据飞轮甚至底层推理优化的团队。
  2. 考察团队是否具备从底层算法到上层产品设计的综合能力。
  3. 评估其产品是否在特定垂直领域(如法律、医疗、代码编写)形成了独特的闭环数据。

注意事项: 警惕那些仅仅是“OpenAI 的外壳”且没有独特数据或工作流整合的应用,这类产品生命周期极短。


实践 3:重新评估“人才密度”与“算力资产”的平衡

说明: 在“Thinking Machines”和 ASIC 经济学的讨论中,一个核心趋势是:顶级 AI 人才(如 Noam Shazeer 级别的研究员)的边际产出极高,甚至可以替代巨额的通用算力投入。最佳实践是识别那些能通过算法优化(如推理时计算优化)来降低对硬件依赖的团队。投资“更聪明的算法”往往比单纯投资“更多的 GPU”具有更高的长期回报率。

实施步骤:

  1. 在尽职调查中,重点考察核心研究团队在算法效率和模型架构优化方面的历史记录。
  2. 询问团队如何在有限的算力预算下通过数据质量或算法创新来超越竞争对手。
  3. 偏好那些能通过软件优化突破硬件瓶颈(如 Cursor 如何提升编码效率)的企业。

注意事项: 不要单纯通过 GPU 拥有量来评估企业价值,缺乏算法优化的算力堆叠很容易陷入价格战。


实践 4:关注“工作流嵌入”而非单纯的“聊天机器人”体验

说明: 以 Cursor 为例,其成功在于将 AI 深度嵌入到开发者的工作流中,成为执行者而非仅仅是对话者。最佳的投资标的应致力于将 AI 隐形化,使其成为现有业务流程的底层驱动力,而不是提供一个需要用户额外打开的对话框。

实施步骤:

  1. 分析产品是否直接接管了用户的高频、高价值操作(如自动改写代码、自动生成报表)。
  2. 寻找具有“Agent”属性的产品,即 AI 能代表用户去执行任务,而不仅仅是生成文本。
  3. 评估产品切换成本,深度嵌入工作流的产品具有极高的留存率。

注意事项: 避免投资那些功能仅限于“生成建议”而无法“直接执行”的工具,这类工具的用户粘性较低。


实践 5:在基础设施层押注于“专用化”和“效率优化”

说明: 随着通用大模型竞争的白热化,投资机会正转向垂直领域的专用硬件和效率工具(如针对特定 AI 工作负载的 ASIC 芯片)。通用 GPU 虽然强大,但成本高昂。未来的赢家将是那些能针对特定负载(如推理、视频生成)提供更低成本、更高效率解决方案的公司或项目。

实施步骤:

  1. 关注那些致力于降低 AI 推理成本的基础设施项目。
  2. 寻找针对特定模态(如语音、视频)或特定行业进行深度优化的芯片或系统架构。
  3. 评估其技术是否能显著降低下游应用厂商的运营成本。

注意事项: 硬件和基础设施投资周期长、门槛高,需确信团队具备极强的工程化落地能力和与主流软件生态的兼容性。


实践 6:建立对“昂贵智能”


学习要点

  • 在AI基础设施层,垂直整合的巨头(如通过ASIC自研芯片)将比通用芯片厂商(如NVIDIA)拥有更高的利润率和更优的长期单位经济效益,这决定了AI算力竞争的终局是专用化而非通用化。
  • AI应用层的竞争壁垒已从单纯的模型能力转向“工作流整合”,即只有那些能将AI无缝嵌入用户现有工作流并解决实际交互摩擦的产品(如Cursor),才能建立起强大的防御护城河。
  • 风险投资(VC)与成长型投资的逻辑正在发生剧烈分化,VC应关注高风险的“期权价值”(如Anthropic的早期押注),而成长型投资则需严格遵循现金流和单位经济模型,盲目在后期追逐高风险是致命的。
  • AI智能体(Agent)的兴起标志着从“聊天机器人”向“行动执行者”的范式转移,未来的价值将更多地归属于能够自主完成复杂任务链的系统,而非仅限于信息检索。
  • “创始人-技术”匹配度是决定初创公司成败的核心变量,像Noam Shazeer这样的顶级技术创始人能够通过技术洞察力直接规避商业风险,这种稀缺性比单纯的资金支持更具价值。
  • AI初创公司应警惕被大模型厂商的“免费功能”吞并,生存之道在于深耕垂直领域数据或构建独特的私有数据飞轮,以形成大模型无法轻易复制的差异化优势。
  • 历史经验表明,AI领域的“赢家通吃”效应极强,投资者和创业者应吸取“思维机器”等历史教训,避免在技术范式转移的早期过度迷恋硬件或架构,而忽视软件生态的长期价值。

引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章