克总的专栏
Alpha Club
2024-05-23 11:14
订阅此专栏
收藏此文章

NVIDIA、NVIDIA、NVIDIA——每个科技投资者都会挂在嘴边。自从去年 Generative AI(生成式人工智能) 和大语言模型(LLMs) 的崛起以来,该股已经从 5 月约 389 点上涨到现在的超过 950 点,涨幅超过 145%。他们今晚报告 Q125。

自从我们看到数据中心 (DC) 市场增长出现巨大变化的第一个迹象以来,已经过去了近一年的时间。在过去的几个季度中,这些数字令人震惊,这完全是由他们的 Hopper 系列驱动的,该系列通过直接嵌入变压器 Transformer 引擎,改进了针对大型语言模型 (LLMs) 和 Generative AI(生成式人工智能)的专用 GPU(Tensor Cores) 。人们对生成式人工智能的兴趣正在高涨,从超大规模企业和 AI 头部企业(Meta、特斯拉)扩展到更广泛的企业。 NVIDIA 将超过一半的 GPU 出售给超大规模云提供商和新兴的 GPU 专用云(其中一些来自加密货币矿工的灰烬)。主要系统制造商(如 SuperMicro 和 Dell)正在为企业构建 AI 硬件解决方案

在了解他们最近的成果及其进展之前,是时候先了解一下 NVIDIA 技术入门知识了。

我对 NVIDIA 的关注主要是他们的数据中心 (DC) 市场,但这并不是该公司唯一表现良好的方面。游戏行业终于从新冠疫情后的供应过剩和加密货币的大萧条中反弹,而工业自动化、AI 机器人和自动驾驶汽车市场还处于早期阶段。

浏览他们的产品

为了更好地了解该公司,先让我们了解一下其芯片组(GPU、CPU、DPU)、服务器和网络产品线以及软件。

根据 Nvidia 的说法:加速计算主要运行在三个基本元素上:用于串行处理和运行超线程应用程序的 CPU。 GPU 擅长并行处理,并针对加速现代工作负载进行了优化。非常适合基础设施计算任务的 DPU;用于卸载、加速和隔离数据中心网络、存储、安全和可管理性工作负载。

从本质上讲,GPU 非常适合并行化(可视化、3D 渲染、科学计算、模拟、数据分析和 AI/ML/DL),而 CPU 非常适合序列处理(运行一般计算需求,例如操作系统、应用程序堆栈、数据库、虚拟机和容器)。这两个芯片协同工作,利用 CUDA 充分利用 GPU 的并行计算来加速某些类型的工作负载。

在网络方面,DPU(数据处理单元)是从 CPU 中卸载软件定义网络需求的芯片。这允许围绕流量路由、存储、数据处理和零信任等安全功能运行网络计算需求。

在其所有芯片中,英伟达作为无厂芯片制造商保持着高利润,台积电是主要供应商。然后,NVIDIA 严重依赖系统制造商合作伙伴,利用其核心芯片构建完整的人工智能系统。

NVIDIA 长期以来一直是图形渲染和加速计算(工作负载并行化)GPU 领域的领导者,使其成为 AI/ML 和高性能计算 (HPC) 需求的领导者。 HPC 行业致力于为科学计算中以研究为导向的工作负载创建巨型超级计算机。 (例如,美国能源部的每个实验室都拥有一台超级计算机,用于能源研究中的 HPC 科学计算,然后将其上的计算时间分配给其组织内的各个研究小组,以进行复杂的模拟和预测。) LLMs,对人工智能超级计算机的兴趣正在从政府 / 科学和人工智能领导者扩大到更广泛的企业,寻求最大限度地提高生产力和效率或创造新的人工智能驱动的产品和收入线。

更多知识:NVIDIA 以先驱科学家和数学家的名字命名他们的 GPU 系列,包括 Alessandro Volta(V 系列)、André-Marie Ampère(A 系列)、Ada Lovelace(L 系列)、Grace Hopper(H 系列)和 David Blackwell (即将到来的 B 线)。

NVIDIA GPU 与 AMD、英特尔、超大规模云服务提供商(GCP TPU、AWS Trainium/Inferentia、Azure Maia)开发的定制 AI 加速器以及许多 AI 芯片初创公司(Cerebras、Groq 等)竞争。


【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

Alpha Club
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开