(原标题:AI芯片大战,升级)
若是您但愿可以时常碰头,迎接标星储藏哦~
起头:践诺编译自theregister,谢谢。
把柄 Omdia 的臆想,Nvidia 在 2024 年占据了东说念主工智能鸿沟的主导地位,其 Hopper GPU 在其 12 大客户的出货量将增长两倍多,达到 200 多万台。
关联词,尽管 Nvidia 仍然是 AI 基础模范巨头,但它正濒临着来自竞争敌手 AMD 的利害竞争。在早期选用其 Instinct MI300 系列 GPU 的公司中,AMD 的市集份额正在速即扩大。
Omdia 臆想,微软在 2024 年购买了约 581,000 块 GPU,是全国通盘云或超大鸿沟客户中购买量最大的。其中,六分之一由 AMD 制造。
把柄 Omdia 的造访效果,在 Meta(迄今为止对刚推出一年的加速器最热衷的选用者)中,AMD 占据了 GPU 出货量的 43%,为 173,000 块,而 Nvidia 的出货量为 224,000 块。与此同期,在 Oracle,AMD 占据了这流派据库巨头 163,000 块 GPU 出货量的 23%。
尽管在微软和 Meta 等主要客户中的份额不断增长,但 AMD 在转变常的 GPU 市蚁合的份额与 Nvidia 比拟仍然相对较小。
Omdia 的臆想跟踪了四家供应商(微软、Meta、甲骨文和 GPU bit barn TensorWave)的 MI300X 出货量,共计 327,000 台。
AMD 的 MI300 系列加速器上市才一年,因此其发展速率相同引东说念主细心。在此之前,AMD 的 GPU 主要用于更传统的高性能诡计讹诈,举例橡树岭国度实验室 (ORNL) 的 1.35 exaFLOPS Frontier 超等诡计机。
Omdia 云诡计和数据中心接头总监 Vladimir Galabov 向The Register暗意:“他们前年到手地通过 HPC 鸿沟领略了 GPU 的有用性,我以为这很有匡助。我如实以为东说念主们渴慕找到 Nvidia 的替代品。”
为什么遴荐 AMD?
这种需求在多猛进度上是由 Nvidia 硬件供应有限所导致的很难说,但至少从纸面上看,AMD 的 MI300X 加速器提供了好多上风。MI300X 于一年前推出,宣称其AI 使命负载浮点性能比老牌 H100 高 1.3 倍,内存带宽高 60%,容量高 2.4 倍。
后两点使得该部件关于推理使命负载尽头有眩惑力,其性能时时取决于内存的数目和速率,而不是 GPU 可以抛出若干 FLOPS。
一般来说,目下大多数 AI 模子王人所以 16 位精度进行磨练的,这意味着为了运行它们,每 10 亿个参数需要简短 2 GB 的 vRAM。每台 GPU 配备 192 GB 的 HBM3,单台就业器领有 1.5 TB 的 vRAM。这意味着大型模子(如 Meta 的 Llama 3.1 405B 前沿模子)可以在单个节点上运行。另一方面,配备访佛开荒的 H100 节点败落以全永别率运行模子所需的内存。141 GB 的 H200 不受相同的适度,但容量并不是 MI300X 的唯独亮点。
MI300X 领有 5.3 TBps 的内存带宽,而 H100 为 3.3 TBps,141 GB H200 为 4.8 TBps。一言以蔽之,这意味着 MI300X 表面上应该好像比 Nvidia 的 Hopper GPU 更快地为更大的模子提供就业。
尽管 Nvidia 的 Blackwell 才刚刚驱动面向客户推出,但在性能和内存带宽方面遥遥进步,AMD 的新款 MI325X 仍然以每 GPU 256 GB 的容量上风占据上风。其功能更重大的 MI355X 将于来岁年底发布,将容量擢升至 288 GB。
因此,微软和 Meta 王人遴荐 AMD 的加速器也就不及为奇了,这两家公司王人在部署数千亿以致数万亿个参数的大型前沿模子。
Galabov 指出,这少量已反应在 AMD 的功绩引导中,该引导每个季度王人在稳步飞腾。摈弃第三季度,AMD 现在瞻望 Instinct 将在 2024 财年带来 50 亿好意思元的收入。
干与新的一年,Galabov 治服 AMD 有契机得到更多的市集份额。“AMD 实践力强。它与客户交流致密,善于透明地批驳我方的上风和残障,”他说。
一个潜在的驱开赴分是 GPU 比特库的出现,举例 CoreWeave,它们每年部署数万台加速器。Galabov 暗意:“其中一些公司会刻意尝试围绕 Nvidia 替代决策设立生意格式”,他指出 TensorWave 即是其中一个例子。
定制硅片大步前进
不单是是 AMD 在蚕食 Nvidia 的帝国。在云诡计和超大鸿沟企业巨额购买 GPU 的同期,好多企业也在部署我方的定制 AI 芯片。
Omdia 臆想,Meta 定制 MTIA 加速器的出货量(咱们在本年早些时辰对其进行了更详备的接头)将在 2024 年达到 150 万台,而亚马逊则订购了 90 万台 Inferentia 芯片。
这是否对 Nvidia 组成挑战在很猛进度上取决于使命量。这是因为这些部件旨在运行更传统的机器学习任务,举例用于将告白与用户匹配、将居品与买家匹配的推选系统。
诚然 Inferentia 和 MTIA 在假想时可能并未接头到 LLM,但谷歌的 TPU 详情曾被用于磨练该搜索巨头的好多言语模子,包括其独到的 Gemini 和绽开的 Gemma 模子。
据Omdia所知,谷歌本年订购了约一百万个TPU v5e和48万个TPU v5p加速器。
除了 Inferentia,AWS 还领有 Trainium 芯片,尽管称号如斯,但这些芯片已针对磨练和推理使命负载进行了重新调换。Omdia 臆想,到 2024 年,亚马逊将订购约 366,000 个此类部件。这与其Rainier 技俩假想相一致,该技俩将在 2025 年为模子构建者 Anthropic 提供“数十万”个 Trainium2 加速器。
终末还有微软的 MAIA 部件,这些部件在 AMD 推出 MI300X 前不久初度亮相。与 Trainium 访佛,这些部件针对推理和磨练进行了调换,微软行动 OpenAI 的主要硬件配结伙伴和模子构建者,显著在这方面作念得可以。Omdia 以为微软在 2024 年订购了简短 198,000 个此类部件。
东说念主工智能市集比硬件更大
往日两年中,英伟达的巨额营收增长理所天然地让东说念主们心计到了东说念主工智能背后的基础模范,但这只是一个更大谜团中的一块碎屑。
Omdia 瞻望,跟着 AMD、英特尔和云就业提供商推出替代硬件和就业,Nvidia 将在异日一年致力扩大其在 AI 就业器市集的份额。
“若是咱们从英特尔身上学到了什么,那即是一朝市集份额达到 90% 以上,就不成能不时增长。东说念主们会立即寻找替代决策,”Galabov 说说念。
关联词,Galabov 怀疑,Nvidia 不会在竞争日益利害的市蚁合争夺份额,而是会专注于通过让技巧更容易得到来扩大通盘这个词潜在市集。
Nvidia 推理微就业 (NIM) 的引入只是这一行变的一个例子,NIM 是一种容器化模子,其功能访佛于构建复杂 AI 系统的拼图。
“这是史蒂夫·乔布斯的计策。智高东说念主机的到手归功于讹诈商店。因为它让技巧更容易使用,”Galabov 谈到 NIM 时说说念。“东说念主工智能亦然如斯;设立一个讹诈商店,东说念主们就会下载并使用它。”
话虽如斯,Nvidia 仍然扎根于硬件。云提供商、超大鸿沟诡计提供商和 GPU 比特库依然通知基于 Nvidia 重大的新式 Blackwell 加速器打造大鸿沟集群,至少在性能方面,该加速器远远进步于 AMD 或英特尔目下提供的任何居品。
与此同期,Nvidia 加速了其居品门路图,以复古每年推出新芯片的节拍,从而保执进风物位。看来,尽管 Nvidia 将不时濒临来自竞争敌手的利害竞争,但它短期内不会失去金冠。
https://www.theregister.com/2024/12/23/nvidia_ai_hardware_competition/
半导体极品公众号推选
专注半导体鸿沟更多原创践诺
心计全国半导体产业动向与趋势
*免责声明:本文由作家原创。著作践诺系作家个东说念主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或复古,若是有任何异议,迎接关连半导体行业不雅察。
今天是《半导体行业不雅察》为您共享的第3985期践诺,迎接心计。
『半导体第一垂直媒体』
及时 专科 原创 深度
公众号ID:icbank
可爱咱们的践诺就点“在看”共享给小伙伴哦