中国电信天翼云完成首个国产GPU万卡训练!4000亿参数大模型

AI Siri网9月20日消息,中国电信宣布,天翼云自研的国内首个单集群万卡国产化全功能预训练云服务平台正式发布上线。该平台基于华为昇腾芯片,并已完成万卡规模Llama3.1-405B大模型训练。

Llama3.1-405B作为拥有4000亿参数的大模型,在息壤训推服务平台的支持下,经过多轮优化,MFU(算力利用率)已达到国内领先水平。

此外,拥有700亿参数的大模型Llama2-70B也已在万卡规模下完成训练,MFU同样处于业界领先水平。

中国电信天翼云完成首个国产GPU万卡训练!4000亿参数大模型

据悉,天翼云的这个平台具备万卡纳管和并行训练能力,基于HPFS PB级并行文件系统、CTCCL RDMA高速卡间互联技术、Gang策略与拓扑感知的智算容器调度,以及慧聚自研分布式训练框架TeleFormers和平台,实现了万卡资源纳管、万卡规模并行训练。

其中,天翼云自研了AI框架Teleformers,通过对算子、通信、数据处理进行优化,并采用了自适应并行策略,显著提升了大模型训练的效率。

在目前业内最大参数规模开源单体稠密模型Llama3.1-405B大模型训练测试中,天翼云平台的表现已达到国际同等水平。

在算子优化方面,针对昇腾芯片的特性,天翼云在网络结构层面对诸多高频算子进行了定制化改造,构建了高性能算子集。

例如,matmul算子利用昇腾芯片的计算亲和性,将算子输入padding到特定的维度,大幅提升执行效率,从而明显缩短了训练时间。

在数据处理和流水线方面,天翼云通过设置合理的数据分片策略和HPFS条带化优化,结合数据预取与数据下沉技术,大幅提升数据流的处理效率和稳定性;对预处理后的数据集进行了二次分片并提供就近缓存能力,减少GPU空闲时间。

中国电信天翼云完成首个国产GPU万卡训练!4000亿参数大模型

在自适应并行策略方面,基于对3D并行中各类计算单元的分析,天翼云设计了多种自适应的3D并行策略,依据模型规模和硬件资源的不同可以自动选择合适的并行策略,充分利用计算资源和显存资源,缩短模型训练中每轮的迭代时间。

中国电信天翼云完成首个国产GPU万卡训练!4000亿参数大模型

此外,天翼云国产化万卡智算中心还取得了多项技术突破——

天翼云息壤训练服务平台基于软硬件协同设计,提供全链路故障监控、基于主动感知的全链路故障监控和定位、CheckPoint秒级多级高速存储系统、容错优雅调度和模型编译缓存等系统,将万卡规模故障发现和解决问题缩短到业内前沿的分钟级,大幅提升有效训练时间。

自动断点续训系统:

天翼云建设了丰富的故障库,并基于此构建了多维故障感知系统,能够快速主动感知相关故障事件和潜在的故障风险;

通过精准的故障隔离和调度手段,天翼云能够快速隔离处理故障节点并重新调度新节点接手任务继续训练,实现无人干预式断点续训,有效减少GPU闲置时间。

中国电信天翼云完成首个国产GPU万卡训练!4000亿参数大模型

高速多级CheckPoint系统:

天翼云设计了基于多级存储的高速CheckPoint系统,通过两阶段异步存储,实现高速写入内存,并最终异步写入远端系统;

针对断点恢复场景,天翼云提供进程级故障原地快恢和远端快速恢复能力,最终实现对CheckPoint的秒级读写能力,大幅降低断点恢复时间、提升训练效率。

中国电信天翼云完成首个国产GPU万卡训练!4000亿参数大模型

全链路检测工具链:

天翼云开发了全链路故障监控工具链,能够基于主动感知实现全链路的故障监控和定位。

该工具链可以主动发现设备故障,并降低训练中断的频次,确保训练过程的连续性和稳定性。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
(0)
上一篇 2024年9月20日
下一篇 2024年9月20日

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注