nvidia gpu已经在ai、hpc领域遥遥领先,但没有最强,只有更强。
现在,nvidia又发布了全新的hgx h200加速器,可处理aigc、hpc工作负载的海量数据。
nvidia h200的一大特点就是首发新一代hbm3e高带宽内存(疑似来自sk海力士),单颗容量就多达141gb(原始容量144gb但为提高良率屏蔽了一点点),同时带宽多达4.8tb/s。
对比h100,容量增加了76%,带宽增加了43%,而对比上代a100,更是容量几乎翻番,带宽增加2.4倍。
得益于nvlink、nvswitch高速互连技术,h200还可以四路、八路并联,因此单系统的hbm3e内存容量能做到最多1128gb,也就是1.1tb。
只是相比于amd instinct mi300x还差点意思,后者搭载了192gb hbm3,带宽高达5.2tb/s。
性能方面,h200再一次实现了飞跃,700亿参数的llama2大语言模型推理性能比h100提高了多达90%,1750亿参数的gtp-3模型推理性能也提高了60%,而对比前代a100 hpc模拟性能直接翻番。
八路h200系统下,fp8深度学习计算性能可以超过32pflops,也就是每秒3.2亿亿次浮点计算,堪比一台大型超级计算机。
随着未来软件的持续升级,h200还有望继续释放潜力,实现更大的性能优势。
此外,h200还可以与采用超高速nvlink-c2c互连技术的nvidia grace cpu处理器搭配使用,就组成了gh200 grace hopper超级芯片,专为大型hpc、ai应用而设计的计算模块。
nvidia h200将从2024年第二季度开始通过全球系统制造商、云服务提供商提供。
另外,nvidia第一次披露了下一代ai/hpc加速器的情况,架构代号blackwell,核心编号gb200,加速器型号b100。
nvidia第一次公开确认,b100将在2024年发布,但未出更具体的时间表。
此前曝料称,b100原计划2024年第四季度推出,但因为ai需求太火爆,已经提前到第二季度,现已进入供应链认证阶段。
nvidia表示,b100加速器可以轻松搞定1730亿参数的大语言模型,是现在h200的两倍甚至更多。
虽然这不代表原始计算性能,但也足以令人望而生畏。
同时,b100还将带来更高级的hbm高带宽内存规格。
回顾历史,pascal p100、ampere a100、hopper h100、h200分别首发应用hbm2、hbm2e、hbm3、hbm3e。
接下来的b100肯定赶不上hbm4(规范还没定呢),但必然会在堆叠容量、带宽上继续突破,大大超越现在的4.8tb/s。
blackwell架构同时也会用于图形工作站和桌面游戏,传闻有gb202、gb203、gb205、gb206、gb207等不同核心,但是对于rtx 50系列,nvidia始终三缄其口,几乎肯定到2025年才会发布。
2024年就将是rtx 40 super系列的天下了,明年初的ces 2025首发三款型号rtx 4080 super、rtx 4070 ti super、rtx 4070 super。
Avago推出单芯片信号调节IC APDS-9702 检测
Java程序员的4个职业发展方向
屏蔽网线和非屏蔽网线主要区别在哪里
ZYNQ-QSPI Flash读写操作
一文详解生物电阻抗断层成像技术
1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国
加密货币全线崩盘 比特币价格跌30% 以太坊价格跌46% 莱特币价格跌51%
加密数字货币投资平台Coinvest介绍
NTP8835(30W+2X10W 2.1音箱专用D类功放IC)
设计高效电动车快速直流充电桩方案,您需要这样一份文档!
618完美厨房,超值好价带走佳歌高品质厨房八件套!
详解5G的六大关键技术
十年时间,吉利进化为设计吉利
以色列有一款逆天“纳米眼药水”,滴一滴视力就能恢复5.0你信吗?
玉龙810芯片和寒武纪芯片对比
锂电池组在充电时充不进电的原因是什么
中国未来存储器产品布局有望全面铺开
如何将Raspberry Pi用作DNS服务器?
长安马自达坚持“特色精品”路线,“精品+营销”成核心杀手锏
医疗电子设备小型化,实现医疗设备的便携性