图表内容
太极AngelPTM为预训练加速组件
Pipeline Optimizer
异构镜一存储
GPU
CPU update
CPU
update
GPU
Persistent storage
Runtime temporary storage
when
异构统一存储
Contiguous
CPU
GPU
Memory
研究报告节选:
太极AngelPTM:预训练加速组件,单机最大可容纳55B模型,需要192张卡就可以训练万亿模型。 太极-HCF ToolKit:大模型压缩和分布式推理组件,包含了从模型蒸馏、压缩量化到模型加速的完整能力。