当前,全球人工智能产业迈入新阶段,被称为“AI超级大脑”的大模型走向赋能行业应用,AI落地正打通“最后一公里”,深入推动产业AI+升级。AI+工业、AI+农业、AI+医疗,AI+交通、AI+能源等,正在改变传统发展模式。如,在AI+工业领域,不仅AI质检大幅提高了质检准确率,而且,AI工业机器人、AI物流机器人更是大幅提高了生产、运营效率……
在大模型AI+赋能产业升级背后,AI算力成为关键要素。研究显示,随着大模型发展如火如荼,训练算力需求有望扩张到原来的10-100倍,这种指数级增长,对算力提出巨大挑战。
日前,作为全球领先的综合信息与通信技术解决方案提供商,中兴通讯发布两款AI算力服务器——新一代高性能服务器R2350 G6和海量存储服务器R2550 G6,助力大模型发展。
全新AI算力服务器,带来超强计算和存储
在大模型的训练过程中,既需要高性能的计算服务器(处理数据),也需要高性能的存储服务器(读写数据),而R2350 G6服务器和R2550 G6服务器带来了超强的计算和存储。
据悉,R2350 G6服务器是一款计算性能强大的服务器,搭载1颗高性能处理器,具有“传输速度快、可扩展性强、异构计算性能强”的优势,在传输速度上,它的速率可达6000MT/s,根据特定客户要求最高可达6400MT/s;在可扩展性上,可支持16个PCIe 5.0扩展插槽,支持32个NVMe U.2/E1.S/E3.S硬盘,提供高速IO接口;与此同时,最大支持4块双宽全长GPU卡,提供强大的异构计算性能,轻松应对高并发、低延迟、数据密集型工作负载,可广泛应用于互联网、云计算、AI推理等业务场景。
R2550 G6服务器则是一款面向数据存储领域应用的计算与存储结合的4U大存储服务器,搭载1颗高性能处理器,具有“传输速度快、存储性能强”的优势,在传输速度上,速率达到6000MT/s,应特定客户要求速率最高可达6400MT/s;在存储性能方面,可支持多样化存储类型,最大支持44块2.5/3.5寸可热插拔硬盘,最高支持28块NVMe U.2硬盘,拥有超大容量存储、超高速I/O接口,充分满足云存储、云计算、AI计算、大数据、视频、图像等海量数据存储需求。
据了解,中兴通讯在推动大模型AI+产业升级上,还推出针对特定行业的服务器。前不久,中兴通讯就推出了针对金融行业的大模型训练服务器——R6930 G3大模型训练服务器。它搭载高性能处理器,双路最高支持128个物理内核,保障金融机构高频交易和复杂运算。在异构计算方面,R6930 G3支持多个主流国产OAM/SXM形态GPU加速卡,GPU卡间带宽达到400+GB/s,节点间互联带宽高达5600 Gbps,大带宽高速互联,满足AI大模型训练超高并行计算需求,为金融机构在自然语言大模型、深度学习、人工智能、高性能计算等领域提供强大的算力支撑。
多方面助推大模型产业加速发展
据悉,除了AI算力服务器外,中兴通讯还从训推一体机、算网调优方案等多方面入手,助推大模型产业加速发展。
在大模型训练和推理上,往往存在着研发周期长、产业入局门槛高,场景复杂等一系列挑战。对此,中兴通讯推出了AiCube训推一体机,为运营商和行业用户提供一站式智算服务,开箱即用,已经在多个行业领域进行了探索和实践。如,近日中兴通讯展示了一款专为汽车设计行业打造的AI赋能产品——基于中兴通讯AiCube智算一体机的汽车设计应用。该产品由东风汽车、湖北移动及中兴通讯联合打造,旨在简化汽车行业的设计流程,提升设计效率和质量,以满足现代汽车制造业的多样化需求。
同时,中兴通讯还在大模型训练的“数据传输、处理”领域,带来主动式算网全域调优方案,确保数据传输和处理的高效性和可靠性,它支持高达98%的全网吞吐效率和µs级快速流量拥塞调优,有效提升大模型训练效率。
当前,大模型作为AI产业全新核心技术,是世界主要大国布局的重点。统计显示,在大模型领域,中国大模型数量已经位居全球第二,占比高达36%。而随着中国科技企业在AI算力等领域的持续创新,中国大模型产业有望取得更大的成就!