拿下98%市场!NVIDIA今年已出货376万颗数据中心GPU
Hpcwire 援引半导体研究机构TechInsights 发布的最新数据显示,2023 年全球数据中心GPU 总出货量将达到385 万台,较2022 年的267 万台增长44.2%。其中,NVIDIA 以市场份额排名第一。占有率98%。
NVIDIA2023年出货376万颗数据中心GPU
NVIDIA的数据中心GPU(包括了面向AI的GPU)出货量达到了376万颗,相比2022年的264万颗增长了112万颗,在2023年全球385万颗数据中心GPU出货量当中,拿下了高达98%的市场份额,与 2022 年的市场份额相近。
即在数据中心GPU市场,AMD和Intel(主要是数据中心GPU Max系列,未包括 Gaudi ASIC芯片)两家厂商加起来在2023年的总出货量只有9万颗。
如果我们看数据中心GPU销售收入,NVIDIA在2023年也占据了整个市场的98%,达到362亿美元,是2022年109亿美元的三倍多。
值得一提的是,根据市场研究机构Jon Peddie Research 的最新报告,2024 年第一季度全球独立显卡(AIB)出货量同比增长39.2% 至870 万片,NVIDIA 也声称市场占有率高达88%。稳居第一。
显然,NVIDIA不仅在AI和HPC应用的数据中心GPU市场上占据垄断领先地位,而且在消费GPU市场上也占据垄断地位。
来自Intel、AMD、谷歌的竞争
TechInsights分析师James Sanders表示:“人工智能硬件不足以匹配人工智能软件的快速进步。因此,NVIDIA GPU将面临更多竞争对手,例如谷歌的TPU、AMD的GPU、英特尔的AI芯片和GPU。”
桑德斯进一步指出:“我怀疑,随着人工智能的发展,它必须摆脱英伟达对市场的垄断,走向多元化。这是不可避免的。”
NVIDIA GPU 的短缺和高成本帮助了AMD 和英特尔等竞争对手,它们凭借自己的新型数据中心GPU 在2023 年显示出了快速增长的迹象。
据TechInsights 报道,2023 年 AMD 的AI芯片出货量约为 50万颗,而Intel则以 40万颗的出货量填补了剩余的空白。
目前AMD MI300系列GPU市场表现良好,已锁定微软、meta、Oracle的采购订单。
在今年4 月的财报电话会议上,AMD 首席执行官Lisa Su 表示,MI300 的销售额在不到两个季度内就达到了 10 亿美元。
在财报电话会议上,AMD 首席执行官苏姿丰(Lisa Su) 还表示:“我们现在预计2024 年数据中心GPU 收入将超过40 亿美元,高于我们1 月份预测的35 亿美元。”
在本月的Computex 2024展会上,AMD还表示每年都会发布新的GPU,计划今年发布MI325X,2025年发布MI350,2026年发布MI400。
显然,AMD正在效仿NVIDIA的蓝图,每年推出一款数据中心GPU。 NVIDIA还在Computex 2024展会上宣布,Blackwell芯片现已开始生产,Blackwell Ultra GPU芯片将于2025年推出。下一代AI平台名为“Rubin”,将集成HBM4内存,将于2026年发布。
Intel目前则专注于 Gaudi AI 芯片,其最新推出的Gaudi 3 芯片性能和能效均优于NVIDIAH100,但是其价格仅为H100 的一半:对于那些不想为每张 H100 卡花费超过 30,000 美元的公司来说,这是一个诱人的价格。
但这种芯片不像GPU 那样灵活和通用。生成式人工智能模型必须经过专门编程才能在英特尔高迪芯片上运行,这需要付出很大的努力。
相比之下,NVIDIA和AMD的GPU更加通用,可以适合运行各种模型。 NVIDIA的GPU有CUDA支持,有更多的优势。因此,英特尔也在为AI和HPC开发代号为“Falcon Shores”的下一代数据中心GPU。不过有消息称,最初的Falcon Shores GPU 遇到了问题,目前正在重新设计,计划于2025 年发布。
英特尔首席执行官帕特基辛格(Pat Gelsinger) 在4 月份的财报电话会议上表示,Falcon Shores“将Gaudi 3 出色的微缩性能与完全可编程的架构相结合……我们随后将积极推出Falcon Shores 产品”。
基辛格还表示,Gaudi 3让英特尔在AI芯片市场站稳了脚跟,英特尔目前预计“2024年下半年AI加速芯片营收将超过5亿美元”。
TechInsights的Saunders表示,考虑到NVIDIA GPU的供应和价格问题,其他AI芯片制造商有很多机会,尤其是谷歌的TPU。
桑德斯表示:“谷歌定制的TPU 芯片比亚马逊AWS、AMD、Ampere 等制造商的定制AI 芯片产生的收入更高。”
谷歌从2013年开始自主研发云端AI加速芯片,以满足内部工作负载加速的需求,距今已有近10年的时间。
自2015年推出自研TPU以来,谷歌一直在其谷歌云数据中心推广自研TPU的使用,目前已经发展到名为Trillium的第六代TPU。
与TPU v5e相比,Trillium的每芯片峰值性能提高了4.7倍,HBM内存容量和HBM内存带宽也提高了一倍,能效提高了67%。与此同时,谷歌还发布了基于Arm架构的全新自研数据中心处理器Axion CPU,计划于今年晚些时候推出。
桑德斯表示:“通过一些奇怪的市场力量的融合,谷歌最终成为按收入计算的第三大数据中心芯片供应商,仅次于英伟达和英特尔。”
TechInsights数据显示,自2015年推出自研TPU以来,谷歌虽然没有对外销售自研TPU,但2023年自家TPU芯片出货量已突破200万颗大关。从出货量来看,谷歌已成为仅次于英伟达的全球第二大数据中心AI加速芯片供应商。
除了TPU 之外,“Argos 是Google 为YouTube 开发的视频编码器,考虑到YouTube 每小时需要处理的所有视频。Google 部署的每个定制Argos 视频编码器芯片相当于替换10 个IntelXeon CPU。”从电力消耗的角度来看,这也是一个巨大的变化,”桑德斯说。
云服务厂商自研芯片已成大势所趋
对于领先的云服务厂商来说,面对其对数据中心CPU和AI加速芯片的巨大需求,以及自身特定的软件栈和应用需求,自主研发的定制芯片不仅可以提供更高的能效性能,还可以降低芯片功耗外包成本和能源消耗成本也可以减少对少数芯片供应商的依赖。
因此,我们可以看到,谷歌、亚马逊、阿里巴巴、华为、百度、微软等众多云服务厂商近年来都推出了自研的数据中心CPU和AI加速芯片。
除了前面提到的谷歌用于数据中心的Axion CPU 和TPU 之外,亚马逊也有自己的用于数据中心的Graviton CPU 和名为Trainium 和Inferentia 的云AI 芯片。它正在努力尽可能地减少客户对各类CPU的使用。云计算能力和服务的成本。
TechInsights在研究报告中表示,2023年,AWS将向客户租用相当于230万个数据中心处理器,其中Graviton将占17%,超过平台上AMD芯片的使用量。 “即使销量很高,他们的总收入也不会很高。他们希望保持……与英特尔或AMD 驱动的实例相比10% 到20% 的折扣,”桑德斯说。
阿里巴巴也很早就推出了自研数据中心AI加速芯片含光800,后来又推出了自研Arm架构数据中心CPU ——倚天710。目前这些自研芯片主要应用于阿里巴巴内部服务及相关领域。云服务实例。
此外,华为也有自己的Arm架构的数据中心CPU鲲鹏920系列,以及数据中心AI加速芯片昇腾910系列等。百度也很早有推出自己的数据中心AI加速芯片昆仑芯,该业务已经分拆独立,并对外供应。
微软还推出了自己的数据中心处理器Cobalt 100和数据中心AI加速器Maia 100。尽管微软的AI基础设施仍然依赖于英特尔CPU和NVIDIA GPU,但微软已经开始逐步将其软件堆栈调整为自研芯片。
目前,所有主要云提供商和超大规模提供商都在开发内部数据中心处理器,以取代英特尔和AMD 生产的芯片。但目前Intel和AMD仍然主导数据中心CPU市场,而NVIDIA在数据中心GPU领域占据绝对垄断地位并迫使云提供商分配NVIDIA控制的专用空间,而NVIDIA则将其DGX服务器和CUDA软件堆栈放置在这些空间。
桑德斯表示:“领先的云服务公司不会完全摆脱英特尔和AMD NVIDIA,因为客户始终对云平台中这些芯片支持的实例有需求。”