与国产AI分裂 NVIDIA最强AI显卡GB300强化FP4:能效暴增50倍
快科技8月29日消息,NVIDIA日前发布了2季度财报,业绩依然暴涨,新一代AI显卡Blackwell系列中的最强者GB300今年4季度也会正式上市,下下代的Rubin有6款产品正在推进。
GB300的详细规格可以参考之前的文章,这里要来看一个可能影响中美AI技术的变化,那就是在算法选择上,国产的AI跟NVIDIA已经有了分裂,前者选择的是UE8M0 FP8,而在Blackwell上NVIDIA强化的是NVFP4标准。
UE8M0 FP8这几天引爆了国产算力行业,这是Deepseek 3.1正式问世时DS官方公布的消息,称UE8M0 FP8已经全面适配即将发布的新一代国产AI芯片。
虽然没有特指哪家厂商,但是华为昇腾、摩尔线程、砺算科技、芯原科技、海光科技等厂商的新一代算力芯片几乎都会支持这个标准。
相比之前国产AI算力芯片主要采用FP16+INT8的算法标准,UE8M0 FP8带来的好处很多,性能是之前的2-3倍,并且大幅降低显存压力,还能降低功耗,具体就要看各大厂商的实现了。
那作为AI一哥的NVIDIA呢?相比国内AI领域率先有DS这种模型厂商来协同算法标准的情况,NVIDIA这几年一直以算力芯片上游厂商的身份来推动标准,FP64、FP32、FP16、INT8、FP8等标准都是支持的,而在Blackwell架构上,NVIDIA也支持FP4、MXFP4这两种标准,但重点推的是NVFP4,它跟E2M1 FP4结构差不多,但精度几乎没有多少损失。
NVFP4标准的优点有哪些?首先来看性能上的,GB300的稠密性能大幅提升了50%而来到15PFlops,要知道它跟GB200基本架构可没什么变化。
50%的性能提升或许不够惊人,那再来看看精度变化。
与FP8的基准相比,NVFP4在DS 0528的模型精度上几乎持平,大部分落后不到1个百分点,AIME 2024中甚至还领先了2个百分点。
在内存使用上,NVFP4与FP16相比占用减少了3.5倍,相比FP8也减少了1.8倍,而GB300显卡HBM容量也从GB200的186GB提升到了288GB,同样的NVL72机柜中,系统的总内存容量可达40TB,能支持3000亿参数的大模型。
第三个优势则是在能效上,GB300在NVFP4的支持下,每Token的能量消耗只有0.2J,GB200则是0.4J,H100架构的H100是10J,相比之下提升了50倍的能效。
简单来说,NVIDIA这次主导的NVFP4算法标准性能提升了50%,精度比FP8几乎没有损失,内存占用大幅减少2-3倍,能效则是50倍提升。
考虑到NVIDIA的影响力,NVFP4显然会成为前沿大模型广泛使用的算法标准,国内大厂应该也会大规模使用。
但在国产AI芯片上,UE8M0 FP8也已经成为新一代AI芯片的标准,尽管它还不能超越NVIDIA的CUDA生态,但是这显然也是国产AI软件及硬件领域的一次重大协同,同样有机会杀出重围,或许也能打造出自己的优势范围呢,一切都有可能。