英伟达(NVDA)商业模式深度分析

本文基于 Morningstar 分析师报告(2026年2月27日)并结合公开信息整理而成,旨在从”生意本身”的角度拆解英伟达的商业模式。


一、一句话概括:英伟达是做什么生意的?

英伟达是一家无晶圆厂(Fabless)芯片设计公司,自己不制造芯片,而是设计GPU(图形处理器)和相关系统,然后交由台积电(TSMC)代工生产。公司同时运营着一个庞大的软件生态系统(CUDA),并不断向网络互联、系统集成和AI解决方案扩展。

简单来说,英伟达的生意模式可以概括为:设计最好的AI芯片 → 用软件生态锁住开发者 → 用网络产品把芯片连成集群 → 持续迭代保持技术领先


二、收入结构:钱从哪里来?

FY2026(截至2026年1月)全年收入:$2,159亿美元

业务板块收入(亿美元)占比同比增长
数据中心(Data Center)1,93789.7%+68.2%
游戏(Gaming)1607.4%+41.3%
专业可视化(ProViz)321.5%
汽车(Automotive)241.1%+38.7%
OEM及其他60.3%

关键洞察: 数据中心业务贡献了近90%的收入,英伟达本质上已经从一家”游戏显卡公司”转型为一家”AI基础设施公司”。数据中心收入从FY2020的1,937亿,6年增长了约65倍,年复合增长率约为67%。


三、商业模式的四个核心层次

第一层:硬件——GPU芯片设计

核心产品线(按代际排列):

  • Hopper架构(H100/H200):当前训练端主力,累计贡献收入约$1,000亿+
  • Blackwell架构(B200/GB200):最新一代,截至2026年中积压订单360万台,已进入量产
  • Vera Rubin架构:下一代,预计2026下半年交付,推理性能为Blackwell的5倍,token成本降低10倍
  • Groq LPU推理芯片:2026年GTC发布,专攻低延迟推理场景

GPU的技术本质: GPU进行并行处理,区别于CPU的串行处理。打个比方:CPU像是一位速度极快的画师,一笔一笔按顺序画;GPU则像是成千上万位画师同时动手。AI模型需要的矩阵乘法运算天然适合GPU的并行架构,这是英伟达能从游戏公司跨界到AI的技术根基。

Fabless模式的经济学: 英伟达不拥有任何芯片制造工厂,所有芯片由台积电代工。这个模式的好处是:研发投入聚焦于设计和算法优化(高附加值环节),无需承担晶圆厂每年数百亿美元的资本开支,产能灵活,可快速切换到最先进制程。代价是高度依赖台积电,目前英伟达已超越苹果成为台积电最大客户,预订了台积电2026年超过50%的CoWoS先进封装产能。


第二层:软件——CUDA生态系统(真正的护城河)

Morningstar将英伟达的经济护城河评为**“Wide Moat(宽护城河)“,核心原因并不是硬件本身,而是CUDA软件生态形成的高转换成本(Switching Costs)无形资产(Intangible Assets)**。

CUDA是什么? CUDA是英伟达的专有软件平台,包含编译器、函数库(cuDNN、cuBLAS、NCCL等)、开发工具(Nsight)和框架优化(PyTorch/TensorFlow原生支持)。它只能在英伟达GPU上运行。

为什么CUDA是护城河?

  1. 开发者锁定: 全球超过400万开发者使用CUDA,超过3,000个GPU加速应用,40,000+家企业依赖CUDA
  2. 转换成本极高且层层叠加: 切换离开英伟达不仅仅是换一块芯片。企业需要重写CUDA内核为HIP/ROCm,替换cuDNN为MIOpen,重新培训工程师,放弃Nsight工具链,离开CUDA社区的知识积累。这些成本是”乘法叠加”而非”加法叠加”
  3. 先发优势不可复制: CUDA已经积累了近20年。即使竞争对手造出同等性能的GPU,已有的代码、模型和工具都构建在CUDA之上,不会自动迁移到新平台
  4. 训练端向推理端的延伸: 用英伟达训练出来的模型,在英伟达硬件上做推理是最自然、最省力的路径,这使得训练端的锁定效应向推理端传导

潜在挑战: 谷歌正在开发TorchTPU项目,试图让PyTorch模型无缝运行在TPU上,直接瞄准CUDA的转换成本壁垒。一旦迁移第一个模型成功,后续模型的边际迁移成本趋近于零。这是CUDA护城河面临的最大长期威胁。


第三层:网络——把芯片连成超级计算机

现代AI模型不在单颗GPU上运行,而是需要成千上万颗GPU协同工作。英伟达通过收购和自研,构建了完整的数据中心网络产品线:

  • NVLink/NVSwitch: GPU之间的高速互联,让多颗GPU像一颗巨大的GPU一样工作
  • InfiniBand(Mellanox): 2020年以$69亿收购Mellanox获得,是数据中心内部最主流的高速网络协议
  • Spectrum Ethernet: 以太网网络产品线,覆盖更广泛的数据中心网络需求

为什么网络很重要? 如果只卖单颗GPU,客户可以混搭不同厂商的产品。但英伟达通过NVLink+InfiniBand+Spectrum构建了从芯片到机架到集群的完整解决方案,进一步加深了客户的绑定程度。买一颗英伟达GPU只是开始,当你建好一整个英伟达集群后,想要迁移的成本就变得极其高昂了。


第四层:战略投资——深入客户价值链

英伟达正在从单纯的”卖铲子”向”参与淘金”延伸:

  • **投资OpenAI 1,100亿融资轮($7,300亿pre-money估值),OpenAI将使用3GW推理产能 + 2GW Vera Rubin训练系统
  • 投资Anthropic等AI初创公司: 战略性投资下游AI应用公司
  • Groq技术授权$200亿: 获得Groq的LPU推理技术和核心团队

Morningstar指出,这些投资具有”循环性”——英伟达投钱给客户,客户拿这笔钱买更多英伟达GPU。虽然存在关联交易的嫌疑,但在当前AI算力供不应求的背景下,这个风险较小:这些初创公司无论有没有英伟达的投资,都需要大量购买GPU。


四、客户结构:谁在买单?

客户高度集中

英伟达的收入高度依赖少数超大规模客户:

  • Q2 FY2026: 前两大客户(未具名)贡献了总收入的39%(23% + 16%),较上年同期(14% + 11%)显著提升
  • 微软: 估计约占英伟达年化收入的19%,是第一大客户
  • Meta: 估计约占英伟达年化收入的9%

2026年超大规模客户资本开支计划

客户2026年Capex(亿美元)同比增长
亚马逊2,000+56%
谷歌母公司Alphabet1,800+98%
Meta1,250+74%
微软~800+

这些资本开支中相当大的比例流向了英伟达的GPU和数据中心产品。

双刃剑效应: 一方面,超大规模客户的巨额开支为英伟达提供了极高的收入确定性;另一方面,这些客户都有动力和能力开发自研芯片(谷歌TPU、亚马逊Trainium、微软Maia),长期来看会分流英伟达的份额。


五、盈利能力:这门生意有多赚钱?

关键利润率指标

指标FY2024FY2025FY2026FY2027E
GAAP毛利率75%71.1%65.5%
Non-GAAP毛利率75.2%(Q4)~75%
GAAP营业利润率54.1%62.4%60.4%65.5%
净利率48.9%55.9%55.6%54.3%
ROE69.2%91.9%76.3%64.5%
ROIC61.0%97.1%90.3%92.1%

为什么毛利率这么高? Fabless模式下,英伟达的成本主要是芯片代工费和内存成本,而售价中包含了巨大的”设计+软件+品牌”溢价。CUDA生态带来的高转换成本赋予了英伟达极强的定价权——客户即使觉得贵,也很难轻易切换。

长期趋势: Morningstar预计毛利率长期会逐步降至low-70%区间(十年后),原因是竞争加剧和客户议价能力提升。但在此期间,英伟达的营业利润率仍将维持在60%左右,这在半导体行业中属于顶级水平。


六、竞争格局:谁在挑战英伟达?

竞争对手一览

竞争者产品护城河对英伟达的威胁程度
AMDMI300X/MI350 GPU窄护城河(Narrow)中等——硬件有竞争力,但软件(ROCm)远不如CUDA成熟
谷歌TPU v5/v6自用+外供高——TorchTPU项目直接瞄准CUDA转换成本
亚马逊Trainium/Inferentia自用为主中等——主要用于AWS内部工作负载优化
微软Maia 100早期阶段低(短期)→ 中等(长期)
Broadcom定制ASIC(为谷歌等设计)宽护城河(Wide)中等——特定工作负载优化,无通用性
IntelGaudi 3 / Falcon Shores无护城河(None)低——产品竞争力不足,份额极小

Morningstar的核心判断: 长期来看,英伟达在AI训练端的主导地位几乎不可动摇;在推理端,份额会逐步从约90%降至70-80%,但由于整体市场蛋糕在快速做大,绝对收入仍将显著增长。


七、估值概览(Morningstar视角)

指标数值
公允价值$240 / 股
当前股价(2026.2.26)$184.89
Price / Fair Value0.77(低估23%)
经济护城河Wide(宽)
不确定性评级Very High(极高)
资本配置评级Exemplary(卓越)
Morningstar评级★★★★(四星)

Morningstar给出5,000亿+。


八、商业模式总结:这门生意的本质

英伟达商业模式的”飞轮效应”

最好的GPU硬件 → 吸引开发者使用CUDA → 更多AI模型在CUDA上构建
   ↑                                              ↓
更多研发投入 ← 高利润率 ← 强定价权 ← 高转换成本 ← 庞大的CUDA生态

用一个比喻来理解

英伟达的生意就像AI时代的”Windows + Intel”,只不过二合一了:

  • 硬件端(类比Intel): 英伟达设计的GPU是AI运算的核心引擎,就像Intel的CPU是PC运算的核心引擎
  • 软件端(类比Windows): CUDA是AI开发者的”操作系统”,一旦习惯了就很难离开,就像开发者习惯了Windows生态

区别在于,英伟达把这两者合二为一了,而且Fabless模式让它不需要像Intel那样背负巨额工厂资本开支,使得利润率远高于Intel。

这门生意最核心的护城河是什么?

不是芯片本身(芯片可以被追赶),而是CUDA软件生态形成的转换成本。即便有竞争者造出同等甚至更好的芯片,已经用CUDA构建的数百万个AI模型和工作流程,不会一夜之间迁移到新平台。这种”锁定效应”赋予了英伟达极强的定价权和利润持续性。

最大的长期风险是什么?

推理端需求占比持续提升后,自研芯片(特别是谷歌TPU)在特定工作负载上可能比英伟达GPU更高效、更便宜。如果谷歌的TorchTPU等项目成功降低了从CUDA迁出的成本,英伟达的软件护城河将面临真正的考验。


本文仅为信息整理与分析,不构成任何投资建议。


参考来源