大模型涉及到的芯片包括以下几种:
英伟达的Blackwell超级芯片:如GB200 NVL72,将36个Grace CPU和72个Blackwell GPU集成到一个液冷机柜中,可实现总计720 petaflops的AI训练性能,或是1,440 petaflops(1.4 exaflops)的推理性能。
英伟达的DGX B200:包括8个Blackwell GPU和2个第五代Intel Xeon处理器,包含FP4精度功能,提供高达144 petaflops的AI性能、1.4TB的GPU内存和64TB/s的内存带宽。
同时需要注意的是,在数据、算力、算法三要素中,算力是基础,也是大模型竞争力,但国产芯片在软件适配度、稳定性方面仍显不足。国产芯片与英伟达显卡之间的解耦能力较弱,未来可能会逐步用国产芯片去做百亿甚至更大体量的模型训练,但算力的累积依然是重要挑战。目前,AI大模型算力主要在训练、推理两个部分,其中成本最高部分是前期的模型训练,大部分采用智能计算中心、自费买英伟达A800/H800显卡组成服务器运行、或者是用价格更为实惠的服务器云来训练。而推理部分算力需求较少、价格不高,大部分模型应用都需要同时建立公有云、私有云两种混合模式,而且需要购买一定的云服务,以更好做大模型应用。
2025-02-11