投中网

(原标题:英伟达发布迄今最大的“芯片”) 淌若您但愿不错时时碰面,宽饶标星储藏哦~ 起头:骨子编译自crn,谢谢。 在 2024 年超等计较机大会上,这家东说念主工智能计较巨头展示了可能

投中网

热线电话:

投中网

CLOSE

让建站和SEO变得简单

让不懂建站的用户快速建站,让会建站的提高建站效率!

英伟达发布迄今最大的“芯片”

文章来源: 未知发布时间:2024-11-20 09:47
一键分享:

(原标题:英伟达发布迄今最大的“芯片”)

淌若您但愿不错时时碰面,宽饶标星储藏哦~

起头:骨子编译自crn,谢谢。

在 2024 年超等计较机大会上,这家东说念主工智能计较巨头展示了可能是迄今拆伙最大的东说念主工智能“芯片”——四 GPU Grace Blackwell GB200 NVL4 Superchip,同期通知其 H200 NVL PCIe 模块已全面上市,可供动手东说念主工智能责任负载的企业职业器使用。

这再次标明该公司正在推广半导体芯片的传统界说,以鼓吹其 AI 计较弘愿。

该产物于周一在超等计较 2024 举止上发布,比 Nvidia 最近推出的 Grace Blackwell GB200 Superchip更进了一步,后者于 3 月算作该公司新的旗舰 AI 计较产物发布。这家 AI 计较巨头还通知其 H200 NVL PCIe 模块全面上市,这将使本年早些时分推出的 H200 GPU 更适用于要领职业器平台。

Nvidia 加快计较总监 Dion Harris 上周在与记者的简报会上示意,GB200 NVL4 Superchip专为动手高性能计较和 AI 责任负载的“单职业器 Blackwell 惩处有策画”而瞎想。

这些职业器惩处有策画包括惠普企业的 Cray Supercomputing EX154n 加快器刀片,该刀片于上周发布,最多可容纳 224 个 B200 GPU。据 HPE 称,Cray 刀片职业器瞻望将于 2025 年底上市。

把柄 Nvidia 分享的图片知道,GB200 Superchip 看起来就像一块光滑的玄色主板,将一个基于 Arm 的 Grace GPU 与两个基于 Nvidia 新 Blackwell 架构的 B200 GPU 衔接起来。而 NVL4 产物似乎将 Superchip 的名义积加多了一倍,在更大的主板上装置了两个 Grace CPU 和四个 B200 GPU。

GB200 Grace Blackwell NVL4 Superchip是要领(非 NVL4)双 GPU 变体的更稠密变体,在一个主板上配备了多达四个通过 NVLink 互相衔接的B200 Blackwell GPU 和两个基于 Grace ARM 的 CPU。该惩处有策画旨在处理 HPC 和 AI 搀杂责任负载,具有高达 1.3TB 的连贯内存。Nvidia 宣传 GB200 NVL4 的模拟性能是其顺利前身 Nvidia GH200 NVL4 Grace Hopper Superchip的 2.2 倍,磨练性能是其顺利前身的 1.8 倍,推感性能是其顺利前身的 1.8 倍。

与要领 GB200 Superchip雷同,GB200 NVL4 使用 Nvidia 第五代 NVLink 芯片间互连,终了 CPU 和 GPU 之间的高速通讯。该公司此前曾示意,这一代 NVLink 可使每个 GPU 的双向糊涂量达到 1.8 TB/s。

Nvidia 示意,GB200 NVL4 Superchip具有 1.3 TB 的一致内存,可通过 NVLink 在四个 B200 GPU 之间分享。

为了展示 GB200 NVL4 的计较才气,该公司将其与之前发布的 GH200 NVL4 Superchip进行了比较,后者当先于一年前算作 Quad GH200 推出,由四个 Grace Hopper GH200 Superchip构成。GH200 Superchip包含一个 Grace CPU 和一个 Hopper H200 GPU。

与 GH200 NVL4 比拟,GB200 NVL4 使用 MILC 代码的模拟责任负载速率进步了 2.2 倍,磨练 3700 万参数的 GraphCast 天气预告 AI 模子的速率进步了 80%,使用 16 位浮点精度对 70 亿参数的 Llama 2 模子进行推理的速率进步了 80%。

该公司莫得提供任何进一步的规格或性能声明。

哈里斯在与记者的简报中示意,Nvidia 的妥洽伙伴瞻望将在本周的 2024 年超等计较大会上推出基于 Blackwell 的全新惩处有策画。

他说说念:“收获于参考架构,Blackwell 的推出推崇胜利,使妥洽伙伴大致快速将产物推向市集,同期添加我方的定制功能。”

Nvidia发布H200 NVL PCIe模块

除了发布 GB200 NVL4 Superchip外,Nvidia 还通知其之前发布的 H200 NVL PCIe 卡将于下个月在妥洽伙伴系统中推出。

NVL4 模块包含 Nvidia 的 H200 GPU,该 GPU 于本年早些时分以 SXM 外形尺寸推出,适用于 Nvidia 的 DGX 系统以及职业器供应商的 HGX 系统。H200 是该公司 H100 的后继产物,使用斟酌的 Hopper 架构,并匡助 Nvidia 成为生成 AI 责任负载 AI 芯片的主要提供商。

与要领 PCIe 瞎想不同的是,H200 NVL 由两张或四张 PCIe 卡构成,这些卡使用 Nvidia 的 NVLink 互连桥衔接在一齐,使每个 GPU 的双向糊涂量达到 900 GB/s。该产物的前身 H100 NVL 仅通过 NVLink 衔接两张卡。

与带有液体冷却选项的 H200 SXM 比拟,它也经受风冷。

哈里斯示意,双槽 PCIe 外形尺寸使 H200 NVL“成为具有低功耗、风冷企业机架瞎想的数据中心的理念念采取,具有纯确切成立,可为每个 AI 和 HPC 责任负载提供加快,无论其领域大小”。

他说:“公司不错使用现存的机架,采取最合乎其需求的 GPU 数目,从 1、2、4 以致 8 个 GPU 中采取,NVLink 域可推广到 4 个。”“企业不错使用 H200 NVL 来加快 AI 和 HPC 运用,同期通过裁汰功耗来进步动力后果。”

与其 SXM 同类产物雷同,H200 NVL 配备 141GB 高带宽内存和 4.8 TB/s 内存带宽,而 H100 NVL 的容量为 94 GB 和 3.9 TB/s,但其最大热瞎想功率仅为 600 瓦,而不是 H200 SXM 版块的最大 700 瓦,据该公司称。

这导致 H200 NVL 的性能略低于 SXM 模块。举例,H200 NVL 只可达到 64 位浮点 (FP64) 30 万亿次浮点运算和 8 位整数 (INT8) 3,341 万亿次浮点运算,而 SXM 版块不错达到 FP64 34 万亿次浮点运算和 INT8 3,958 万亿次浮点运算。(万亿次浮点运算是每秒一万亿次浮点运算的计量单元。)

Nvidia 示意,在对 700 亿参数的 Llama 3 模子进行推理时,H200 NVL 比 H100 NVL 快 70%。至于 HPC 责任负载,该公司示意 H200 NVL 在逆时移动建模方面快 30%。

H200 NVL 附带 Nvidia AI Enterprise 软件平台的五年订阅,该平台配备 Nvidia NIM 微职业,可加快 AI 建设。

https://www.crn.com/news/components-peripherals/2024/nvidia-reveals-4-gpu-gb200-nvl4-superchip-releases-h200-nvl-module

半导体佳构公众号保举

专注半导体领域更多原创骨子

暖和群众半导体产业动向与趋势

*免责声明:本文由作家原创。著作骨子系作家个东说念主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或撑执,淌若有任何异议,宽饶关系半导体行业不雅察。

今天是《半导体行业不雅察》为您分享的第3952期骨子,宽饶暖和。

『半导体第一垂直媒体』

及时 专科 原创 深度

公众号ID:icbank

可爱咱们的骨子就点“在看”分享给小伙伴哦