7月6号,以“ 全栈智算,打造高效基座;开放合作,构建繁荣生态 ”为主题的2024世界人工智能大会中兴通讯AI创新生态论坛在沪成功举办。论坛汇聚顶尖专家学者,GPU厂家、模型厂家、运营商及行业伙伴,共话AI驱动下的产业变革,共探智算发展的未来趋势,共享大模型落地和商业化经验,共建广泛协作、开放利他的AI生态雨林。
中兴通讯执行副总裁、首席技术官王喜瑜 出席会议并发表致辞,他指出,封闭的智算生态带来的是选择受限,而解开生态封闭最根本的方法就是解耦。对此,中兴通讯愿意在构建开放解耦的AI生态进程中担当“一根扁担”,扁担的左边是算力芯片的供应商,扁担的右边是AI生态的需求方,同时为更好地支持扁担的左右两边,中兴通讯将自身定位为“开放赋能、自主创新的智网底座”,基于深厚的研发积累,提供从算力、连接到平台的全栈开放智算解决方案,兼容适配国内外主流芯片,并支持、推动多种开放互联标准。
人工智能进入大模型时代,对算力产生爆发式需求,算力成本居高不下,构建国产AI万卡的系统需综合考虑多个方面。 中国工程院院士郑纬民 以《构建国产AI卡的万卡系统生态》为题,分析了改善国产大模型生态系统所需要做好的十大方向,包括编程框架、并行加速、通信库、算子库、AI 编译器、编程语言、调度器、内存分配、容错系统、存储系统等。
当前智能计算的发展进入快车道,AI将从1.0进阶到2.0, 中兴通讯产品规划首席科学家王卫斌 提出面对AI进阶新挑战,中兴通讯将坚持开放解耦原则,通过“开放基座,多元算力灵活供给;以网强算,打造高效超万卡集群;训推并举,加速商业闭环;多方合作,催熟AI产业生态”的核心理念,与产业链合作伙伴共同构建一个开放的智算生态。
大模型的竞争热潮正在驱动智算中心从千卡集群向万卡甚至超万卡集群演进, 中国移动研究院主任研究员陈佳媛 在演讲中阐释了构建基于国产生态体系、技术领先的超万卡集群面临的诸多挑战。针对亟待解决的问题,中国移动大力推进全调度以太网GSE、全向智感互联OISA、算力原生等原创核心技术成熟,为超万卡集群的创新突破做好技术储备,同时也在着力研究跨集群分布式训练场景,解决大模型长距离分布式训练的难题。
随着AI技术的快速更新迭代,生成式人工智能逐渐渗透生产生活的多个领域,但广泛应用的大语言模型存在的局限性开始凸显,在此背景下,RAG应用而生。 阿里云计算平台AI产品架构总监魏博文 围绕《企业级大模型RAG场景应用构建》解读了PAI模块化RAG功能,如模块化设计,灵活可配置;基于社区开源组件构建,定制化门槛低;多维度自动评估体系,轻松掌握各模块性能质量等。
经过众多演讲嘉宾对AI智算领域的深度剖析,线上线下观众对相关技术发展、产业布局、应用场景等有了更加清晰的认识,在热烈而富有启发的氛围中, 智谱CIT创新中心主任冯小平 也登台亮相,带来了他对行业的独到见解和精彩演讲。