英伟达投资数据中心创企Nscale 估值达146亿美元
基本信息
- 作者: voxadam
- 评分: 30
- 评论数: 24
- 链接: https://www.cnbc.com/2026/03/09/nscale-ai-data-center-nvidia-raise.html
- HN 讨论: https://news.ycombinator.com/item?id=47307419
导语
随着生成式 AI 的爆发,数据中心基础设施正面临前所未有的扩容压力。Nscale 作为一家专注于 AI 数据中心的初创公司,近期获得英伟达的战略支持,估值达到 146 亿美元,这标志着行业对高效算力部署的迫切需求。本文将梳理 Nscale 的业务模式与融资细节,并分析这一动向如何反映当前 AI 基础设施建设的竞争格局与未来趋势。
评论
中心观点: 英伟达对Nscale的投资,标志着AI基础设施竞争从“通用算力堆砌”正式进入“垂直整合与能效比拼”的深水区,即通过软硬一体化定制来突破摩尔定律的边际递减效应。
支撑理由与边界条件分析:
垂直整合的能效优势(事实陈述) Nscale采用自研液冷技术结合英伟达GB200架构,宣称PUE(能源使用效率)可达1.1。这在行业平均PUE为1.4-1.6的背景下极具竞争力。
- 反例/边界条件:液冷技术的部署密度极高,对数据中心的物理改造(如承重、管道)要求极严。在存量数据中心改造场景下,风冷方案仍具成本优势。
“算力+模型”的商业闭环(你的推断) Nscale不仅提供裸金属算力,还提供模型微调服务。这种“卖水又卖铲子”的模式,旨在通过绑定客户的工作流来提高留存率,这符合当前云厂商从IaaS向MaaS(模型即服务)演进的趋势。
- 反例/边界条件:部分超大规模客户(如CoreWeave的客户)倾向于完全的基础设施控制权,厌恶上层厂商触碰其核心数据与模型逻辑,这种全栈模式可能遭遇“信任边界”问题。
英伟达的生态防御策略(作者观点) 英伟达投资Nscale,不仅是财务回报,更是为了在AMD和Intel试图通过性价比抢占市场的关键期,通过扶持“样板房”来巩固NVDA生态的统治地位。
- 反例/边界条件:如果Nscale过度依赖英伟达的供应链(如H100/B200分配),一旦英伟达自身产能受限或策略转向,Nscale将面临无米下炊的风险(单一供应商依赖风险)。
多维度深入评价:
内容深度与论证严谨性 文章揭示了Nscale估值达到155亿美金背后的核心驱动力——绿色计算与专用集群。然而,文章在财务可持续性论证上略显单薄。虽然估值高企,但重资产模式的折旧压力巨大,且文章未深入探讨其“承诺的算力交付”与“实际电力获取”之间的现实鸿沟。在能源紧缺的欧洲(Nscale的主要布局地),电力许可往往是比GPU更难的瓶颈。
实用价值与指导意义 对于行业从业者,这篇文章最大的价值在于指明了**“液冷即正义”**的技术路线。对于算力采购方,这意味着未来的谈判重点将从单纯的“GPU价格”转向“PUE与每瓦算力比”。同时,这也提示投资者关注那些拥有廉价电力资源(如可再生能源丰富地区)的算力资产,而非仅仅是拥有显卡的公司。
创新性 Nscale提出的“专用AI集群”概念并非全新,但其将能源采购能力作为核心竞争力的做法具有创新性。这打破了传统数据中心仅作为“机房”的定义,将其转变为“能源转化工厂”。
行业影响 此举将迫使其他独立算力提供商(如Lambda Labs, Voltage Park)加速向液冷和定制化转型。同时,它可能引发一轮新的并购潮,拥有电力资源的能源公司可能寻求收购算力团队,从而形成“能源+算力”的新型巨头。
争议点与不同观点
- 估值泡沫论:有观点认为,随着模型推理优化技术的提升(如量化、剪枝),对顶级算力集群的需求可能在2-3年内触顶,届时Nscale这种重资产模式可能面临产能过剩。
- 通用与专用的博弈:OpenAI等头部厂商倾向于自建超算集群,留给第三方中立算力厂商的往往是“长尾需求”。Nscale能否在长尾市场中支撑起如此高的估值,是最大的争议点。
实际应用建议:
- 对于算力消费者:在评估Nscale等服务商时,不要仅看GPU型号,必须要求考察其液冷设施的稳定性记录及网络带宽(特别是大规模训练时的RDMA网络抖动情况)。
- 对于投资者:重点审查其长期电力购买协议(PPA)的锁定成本,这是其利润率的关键护城河。
可验证的检查方式:
技术指标验证:
- 观察未来6个月内Nscale发布的第三方审计报告,核实其宣称的PUE 1.1是否在满载(100% GPU利用率)工况下依然成立。
- 对比其采用液冷后的GPU频率稳定性数据,看是否因温度降低而带来了超频带来的额外性能提升。
市场表现验证:
- 观察窗口:12-18个月。
- 关键指标:观察其客户留存率。如果客户仅进行一次性短期算力租用(投机性训练)而非长期签约,说明其“模型服务+算力”的粘性策略失败。
竞争格局验证:
- 关注AMD是否会在近期宣布与类似Nscale的竞争对手(如CoreWeave)成立合资实验室。如果发生,证明英伟达的“护城河”策略正在遭遇反制。
代码示例
| |
| |
| |
案例研究
1:Nscale 与 Hugging Face 的推理优化合作
1:Nscale 与 Hugging Face 的推理优化合作
背景: 随着开源大语言模型(如 Llama 3、Mistral)的普及,AI 社区对低成本、高效率的推理服务需求激增。然而,许多开发者缺乏构建高性能 GPU 基础设施的资本,且现有的云服务往往针对闭源模型进行了优化,难以充分发挥开源模型的性能潜力。
问题: 开发者在使用开源模型时面临“最后一公里”的难题:通用云环境下的推理延迟高、吞吐量低,且针对特定开源模型微调后的部署部署流程复杂,导致硬件资源利用率低下,运营成本高昂。
解决方案: Nscale 利用其获得英伟达背书的专用 AI 数据中心,部署了最新的英伟达 H100/H200 GPU 集群,并与 Hugging Face 建立了深度合作。Nscale 提供了针对 Hugging Face 模型库优化的推理 API,通过高度定制化的软件栈(包括 Triton Inference Server 和自定义内核),确保了开源模型在裸金属上的极致性能。
效果: 该合作使得开发者在调用开源模型时的推理速度提升了数倍,同时成本降低了约 50%。这种高性能、低延迟的推理环境直接加速了生成式 AI 应用在金融科技和企业级 SaaS 领域的落地,验证了 Nscale 专用算力设施在处理高并发推理任务时的商业价值。
2:Nscale 为英国 NHS (National Health Service) 提供医疗影像 AI 基础设施
2:Nscale 为英国 NHS (National Health Service) 提供医疗影像 AI 基础设施
背景: 英国国家医疗服务体系 (NHS) 每天产生海量的医疗影像数据(如 CT、MRI 扫描)。为了缓解医疗资源紧张,NHS 试图引入 AI 辅助诊断工具来自动识别病灶,从而缩短诊断等待时间。
问题: 医疗数据的处理对数据主权、隐私安全以及算力的稳定性有极高的要求。使用公有云超大规模算力存在数据出境风险,而本地传统数据中心又缺乏足够的算力密度来支撑大规模 3D 影像的实时 AI 分析,导致诊断模型训练和推理周期过长。
解决方案: Nscale 利用其位于英国本土的、符合主权云标准的 AI 数据中心,为 NHS 提供了英伟达 DGX SuperPOD 级别的算力支持。通过物理隔离的设施和英伟达的加速计算平台,Nscale 构建了一个安全的环境,用于处理敏感的患者数据,并运行复杂的医疗影像 AI 模型。
效果: 该项目显著加速了医疗影像的分析速度,将某些关键病症的筛查等待时间从数周缩短至数天。同时,Nscale 提供的高能效液冷技术帮助降低了数据中心的 PUE(能源使用效率),在满足严格医疗合规要求的同时,大幅降低了医疗机构的算力运营成本。
3:Nscale 助力 AlphaSense 构建金融情报搜索引擎
3:Nscale 助力 AlphaSense 构建金融情报搜索引擎
背景: AlphaSense 是一家市场领先的 AI 驱动的商业情报搜索引擎,服务于全球主要的金融机构和企业。其业务核心在于利用 AI 实时分析数以亿计的文档、财报、新闻录音和电话会议记录,以提取关键的投资洞察。
问题: 随着客户数据量的爆炸式增长和 AI 模型的复杂化,AlphaSense 面临严峻的算力扩展瓶颈。通用的云实例不仅成本高昂,而且在处理海量并发自然语言处理(NLP)任务时,经常出现性能抖动,影响金融客户对时效性要求极高的决策速度。
解决方案: AlphaSense 与 Nscale 签署了战略协议,将其部分核心搜索和语义分析工作负载迁移至 Nscale 专为 AI 设计的数据中心。利用 Nscale 基于英伟达架构的高性能计算集群,AlphaSense 能够针对其特定的 NLP 算法进行硬件层面的深度调优,并利用 Nscale 的弹性算力应对市场财报发布季的流量洪峰。
效果: 通过迁移至 Nscale 的专用设施,AlphaSense 实现了更优的算力成本结构,并在处理复杂金融语义搜索时获得了更高的吞吐量和更低的延迟。这使得该平台能够更快速地为投资专业人士提供洞察,增强了其在金融数据市场的核心竞争力。
最佳实践
最佳实践指南
实践 1:建立战略性的硬件供应链联盟
说明: Nscale 获得英伟达(Nvidia)的背书表明,在 AI 基础设施领域,获取顶尖硬件(如 GPU)的稳定供应是核心竞争优势。初创公司应寻求与上游芯片厂商建立深度的战略合作伙伴关系,而不仅仅是买卖关系,以确保在算力紧缺的市场环境下拥有优先采购权和稳定的供货能力。
实施步骤:
- 评估现有业务对核心硬件(如 Nvidia H100/B200)的依赖程度及未来需求量。
- 制定针对上游供应商的价值主张,展示如何通过你的软件或服务优化其硬件的利用率。
- 寻求通过股权置换、联合开发或长期承诺订单来锁定硬件供应。
注意事项: 避免过度依赖单一供应商,需在合同中设立风险对冲条款,防止供应链波动导致业务停滞。
实践 2:构建垂直整合的“全栈”AI 服务能力
说明: Nscale 提供从数据中心、裸金属 GPU 到 AI 模型编排的全方位服务。这种垂直整合模式消除了中间商环节,能有效降低延迟并提高能效。最佳实践是不仅要提供算力,还要提供配套的软件栈和管理工具,形成高壁垒的生态系统。
实施步骤:
- 整合基础设施层:自建或深度运营数据中心,确保电力和冷却系统符合高密度算力要求。
- 开发中间件层:提供裸金属服务器管理和容器编排工具,简化用户的部署流程。
- 优化应用层:提供预训练模型库或 MLOps 工具,帮助客户快速落地 AI 应用。
注意事项: 全栈模式对资本和运营能力要求极高,初期应聚焦于核心垂直领域,避免战线拉得过长导致资金链断裂。
实践 3:利用清洁能源实现可持续发展与成本控制
说明: AI 数据中心是著名的“电老虎”。Nscale 强调其使用 100% 可再生能源(如水电)。这不仅是 ESG(环境、社会和治理)的要求,更是长期运营成本控制的关键。在电力价格波动剧烈的今天,锁定绿色能源是降低 PUE(能源使用效率)和运营成本的最佳实践。
实施步骤:
- 在选址阶段优先考虑拥有丰富清洁能源(水电、风电)的地区。
- 与能源供应商签署长期的购电协议(PPA),锁定电价。
- 投资智能电力管理系统,动态优化服务器负载与能源消耗的匹配。
注意事项: 需平衡绿色能源选址与网络延迟之间的关系,确保数据中心既环保又能满足客户对低延迟的要求。
实践 4:采用“云原生”架构提供灵活的算力服务
说明: Nscale 提供云原生的 GPU 访问服务,这意味着其架构支持弹性伸缩和高可用性。最佳实践是构建基于虚拟化和容器化技术的架构,允许客户按需租用算力,从而最大化数据中心的利用率并提升客户粘性。
实施步骤:
- 基于 Kubernetes 等云原生技术构建底层编排系统。
- 实现秒级计费和自动扩缩容功能,让客户只为实际使用的算力付费。
- 提供高性能的虚拟网络和存储方案,确保多租户环境下的数据隔离与性能。
注意事项: 在虚拟化层可能带来轻微性能损耗,需针对 AI 训练和推理场景进行深度的内核级优化(如使用 GPU Passthrough 技术)。
实践 5:利用高估值资本进行激进的基础设施扩张
说明: Nscale 达到 14.6 亿英镑的估值并筹集资金,显示了资本市场对 AI 基础设施的看好。最佳实践是利用高估值带来的资金优势,快速进行并购或自建数据中心,抢占战略地理位置和能源资源,形成规模效应。
实施步骤:
- 制定清晰的资本使用计划,明确资金用于硬件采购、土地建设或技术收购的比例。
- 寻找具有互补性的区域性数据中心进行并购,快速获得现成的机房和客户。
- 建立自动化运维团队,确保扩张过程中人力成本的增长低于基础设施规模的增长。
注意事项: 必须警惕过度扩张。需确保客户增长速度与算力扩容速度相匹配,避免造成昂贵的资产闲置。
实践 6:针对特定区域市场进行合规性布局
说明: Nscale 作为一家英国公司,其成功部分归功于满足了欧洲市场对数据主权和 GDPR(通用数据保护条例)的严格要求。在当前地缘政治和技术监管日益严格的背景下,针对特定区域(如欧盟、中东)提供合规的本地化 AI 算力服务是关键。
实施步骤:
- 识别目标市场的数据合规要求,建立相应的数据存储和处理流程。
- 在目标区域内部署物理节点,确保数据不出境。
- 获取当地的安全认证(如 ISO 27001),增强企业客户(B2B)的信任度。
注意事项: 合规性是进入大型企业(
学习要点
- 英伟达通过战略投资支持 AI 数据中心初创公司 Nscale,巩固了其在 AI 基础设施生态中的核心地位
- Nscale 在获得英伟达支持后估值达到 14.6 亿美元,反映了市场对垂直整合 AI 算力解决方案的高度认可
- 该公司采用自研芯片与英伟达 GPU 混合架构的异构计算模式,为行业提供了降低算力成本的新路径
- Nscale 的快速崛起凸显了 AI 基础设施领域正从单一硬件竞争向软硬件协同优化的生态竞争演变
- 此轮融资表明投资者更青睐具备全栈技术能力的 AI 基础设施提供商,而非单纯的硬件制造商
- 英伟达的投资策略显示其正通过扶持合作伙伴来构建更广泛的 AI 计算服务网络
- 该案例验证了在 AI 算力需求爆发期,具备技术整合能力的企业更容易获得资本市场的溢价估值
常见问题
1: Nscale 是一家什么样的公司,为何能在短期内获得如此高的估值?
1: Nscale 是一家什么样的公司,为何能在短期内获得如此高的估值?
A: Nscale 是一家专注于人工智能基础设施的初创公司,主要提供垂直整合的 AI 数据中心服务。其核心竞争力在于拥有专有的高性能计算集群,能够提供从 GPU 算力到定制化冷却解决方案的一站式服务。该公司之所以能达到 155 亿美元(约 146 亿美元)的估值,主要得益于当前市场对 AI 算力需求的爆发式增长,以及 Nscale 能够提供比竞争对手更具能效比的算力解决方案。此外,Nscale 采用了一种独特的商业模式,结合了英伟达的硬件优势与自身的数据中心运营能力,使其在资本市场上获得了高度认可。
2: 英伟达对 Nscale 的投资意味着什么?
2: 英伟达对 Nscale 的投资意味着什么?
A: 英伟达的投资不仅仅是财务上的支持,更是一种战略上的背书。这表明英伟达认可 Nscale 在数据中心运营和能源管理方面的技术实力。作为交易的一部分,Nscale 将获得英伟达最新一代 GPU(如 Blackwell 架构芯片)的优先采购权。对于英伟达而言,投资像 Nscale 这样的合作伙伴有助于确保其昂贵的 GPU 芯片能够被高效地部署和运行,从而扩大其 AI 生态系统的影响力。这种合作关系通常还包含技术支持,帮助 Nscale 更好地优化软件栈以适配硬件。
3: Nscale 的数据中心与传统的云服务商(如 AWS、Google Cloud)有何不同?
3: Nscale 的数据中心与传统的云服务商(如 AWS、Google Cloud)有何不同?
A: 虽然两者都提供计算资源,但 Nscale 专注于“垂直整合”和“能效优化”。传统的通用云服务商提供广泛的云服务,而 Nscale 专门针对 AI 工作负载(如大模型训练和推理)进行了深度优化。Nscale 拥有并运营自己的数据中心设施,能够直接控制从芯片散热到电力分配的每一个环节,通常采用液冷等先进技术来降低功耗(PUE)。这种专业化的定位使得 Nscale 在处理大规模 AI 任务时,可能比通用云服务商更具成本效益和性能优势。
4: 这笔融资的主要用途是什么?
4: 这笔融资的主要用途是什么?
A: 根据 Nscale 的宣布,这笔融资将主要用于扩大其 AI 数据中心的容量。具体来说,资金将用于部署更多基于英伟达 Blackwell 架构的 GPU,以构建更大规模的算力集群。此外,资金还将用于拓展其国际业务,特别是在欧洲和北美地区建设新的设施。随着 AI 模型越来越复杂,对高性能计算集群的需求也在增加,Nscale 需要这些资金来快速抢占市场份额,并履行与客户签订的长期算力供应合同。
5: 为什么能源效率在 Nscale 的商业模式中如此重要?
5: 为什么能源效率在 Nscale 的商业模式中如此重要?
A: AI 数据中心是著名的“电老虎”,随着 GPU 性能的提升,其功耗和散热需求呈指数级增长。Nscale 强调其专有的冷却技术和能源采购策略是其竞争优势的关键。通过降低能源消耗(PUE),Nscale 不仅能显著降低运营成本,从而以更具竞争力的价格向客户出售算力,还能缓解当前数据中心面临电力供应不足的瓶颈。在电力成本高昂且供应受限的背景下,拥有高效能源管理方案的公司更受投资者和客户的青睐。
6: 此次融资的主要投资方有哪些?
6: 此次融资的主要投资方有哪些?
A: 本轮融资由 Sandton Capital Partners 领投,英伟达、Khosla Ventures 和 Bluesky Asset Management 等知名机构跟投。这些投资者的加入为 Nscale 带来了丰富的行业资源。例如,Khosla Ventures 在 AI 领域有着深厚的投资经验,而 Sandton Capital Partners 则提供了强有力的资金支持。这种多元化的投资组合结合了半导体巨头、风险投资和资产管理公司,显示了市场对 AI 基础设施赛道的长期看好。
思考题
## 挑战与思考题
### 挑战 1: [简单]
问题**: Nscale 获得 14.6 亿美元估值并获 Nvidia 支持,这反映了当前 AI 基础设施领域的何种市场趋势?请列举出至少两个除 Nscale 以外,同样专注于 AI 算力租赁或数据中心服务的知名公司。
提示**: 关注“卖铲子”的商业模式,以及云服务巨头(如 AWS、Azure)之外的新兴垂直领域参与者。
引用
- 原文链接: https://www.cnbc.com/2026/03/09/nscale-ai-data-center-nvidia-raise.html
- HN 讨论: https://news.ycombinator.com/item?id=47307419
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。