今天,英伟达发布了下一代人工智能超级计算机芯片——H200。
H200 属于上一代 H100 GPU 的继任者,基于新的“Hopper”架构,是英伟达首款使用 HBM3e 内存的芯片,具有速度更快,容量更大的特点,更适合大型语言模型使用。
根据官方的说法,H200 相比上一代的 H100 有了显著的飞跃,性能提升可以达到 60% 到 90%。英伟达称:“借助 HBM3e,英伟达 H200 以每秒 4.8 TB 的速度提供 141GB 的内存,与 A100 相比,容量几乎是其两倍,带宽增加了 2.4 倍。”
在人工智能方面,HGX H200 在 Llama 2(700 亿参数 LLM)上的推理速度比 H100 快了一倍。HGX H200 将以 4 路和 8 路的配置提供,还能与 H100 系统中的软件和硬件兼容。
HGX H200将适用于每一种类型的数据中心,如本地、云、混合云和边缘等,预计2024 年第二季度,微软、谷歌、亚马逊等互联网巨头会部署推出相关产品。这些芯片产品将在深度学习和大型语言模型(LLM)方面发挥重要作用,比如 OpenAI 的 GPT-4。
此外,超级AI芯片还将被用于数据中心和超级计算机,可以更好的处理诸如天气和气候预测、药物发现、量子计算等任务。
英伟达此次发布的另一个关键产品是 GH200 Grace Hopper“超级芯片(superchip)”,其将 HGX H200 GPU 和基于 Arm 的英伟达 Grace CPU 通过该公司的 NVLink-C2C 互连结合起来,官方称其专为超级计算机设计,让“科学家和研究人员能够通过加速运行 TB 级数据的复杂 AI 和 HPC 应用程序,来解决世界上最具挑战性的问题”。
再强也与中国市场无关,特供芯片性能暴降80%
事实上,英伟达发布的AI芯片再强,也与咱们无关。甚至英伟达针对中国推出的特供AI芯片,性能均出现暴降。
美国上月突然宣布,针对英伟达高性能AI芯片管制提前生效,以制约我国AI产业发展。而这也导致英伟达不得不断供一些正在进行的订单,“总处理性能(TPP)”为 4800 或更高的芯片均被要求禁售,A100、A800、H100、H800和L40S等芯片出货均受到影响。
为此,英伟达已确认为中国推出的最新改良版AI芯片,预计会在今年11月至12月送样,而量产时间为今年12月至明年1月。
不过,英伟达将推出的三款中国特供AI芯片并非“改良版”,而是“缩水版”,型号分别是HGX H20、L20 PCle和L2 PCle。
用于AI模型训练的HGX H20在带宽、计算速度等方面均有所限制,理论上,整体算力要比英伟达 H100 GPU芯片暴降达80%左右。
尽管相比H100,HGX H20价格会有所下降,但预计该产品价格仍将比国内AI芯片华为的910B高一些。只能说,高性能AI芯片,未来国内的企业或许只能期待华为取得突破了。