terminal

AI Stack

rss_feed
SYS_STABLE
目录

分布式训练

条目:36
2026年三月 1 篇
类型阅读条目
[自动] [ARXIV]
3minschool 数据集压缩至1MB:小规模数据集的模型训练效果评估
03-01 数据集压缩 PLADA 数据蒸馏
2026年二月 35 篇
类型阅读条目
[自动] [ARXIV]
3minschool 数据集压缩至1MB:小规模数据集的模型训练效果评估
02-27 PLADA 数据集压缩 伪标签
[自动] [BLOGS_PODCASTS]
4minmic 基于 veRL 与 Ray 在 SageMaker 上训练 CodeFu-7B 模型
02-26 veRL Ray SageMaker
[自动] [BLOGS_PODCASTS]
5minmic Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms
02-26 Meta RCCLX AMD
[自动] [BLOGS_PODCASTS]
4minmic 在 Amazon SageMaker 上使用 veRL 与 Ray 训练 CodeFu-7B 模型
02-26 SageMaker veRL Ray
[自动] [BLOGS_PODCASTS]
5minmic Meta 开源 RCCLX:优化 AMD 平台 GPU 通信性能
02-26 Meta RCCLX AMD
[自动] [BLOGS_PODCASTS]
5minmic 在 Amazon SageMaker 上使用 veRL 与 Ray 训练 CodeFu-7B 模型
02-26 SageMaker veRL Ray
[自动] [ARXIV]
6minschool Untied Ulysses:基于分头切分的高效上下文并行方案
02-26 上下文并行 长序列 Transformer
[自动] [BLOGS_PODCASTS]
5minmic 基于 veRL 在 SageMaker 与 Ray 上训练 CodeFu-7B 模型
02-25 veRL SageMaker Ray
[自动] [BLOGS_PODCASTS]
5minmic Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms
02-25 Meta RCCLX AMD GPU
[自动] [ARXIV]
6minschool Headwise Chunking:面向上下文并行的内存高效方案
02-25 上下文并行 长文本训练 内存优化
[自动] [BLOGS_PODCASTS]
5minmic 使用 veRL 和 Ray 在 SageMaker 上训练 CodeFu-7B 模型
02-25 veRL Ray SageMaker
[自动] [BLOGS_PODCASTS]
3minmic Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms
02-25 Meta RCCLX AMD
[自动] [BLOGS_PODCASTS]
5minmic 基于veRL与Ray在SageMaker上训练CodeFu-7B模型
02-25 veRL Ray SageMaker
[自动] [BLOGS_PODCASTS]
3minmic Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms
02-25 Meta RCCLX AMD
[自动] [BLOGS_PODCASTS]
5minmic 在 Amazon SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 模型
02-25 SageMaker veRL Ray
[自动] [BLOGS_PODCASTS]
5minmic Meta 开源 RCCLX:优化 AMD 平台 GPU 通信
02-25 Meta AMD RCCLX
[自动] [BLOGS_PODCASTS]
5minmic 使用 veRL 和 Ray 在 SageMaker 上训练 CodeFu-7B 模型
02-25 SageMaker Ray veRL
[自动] [BLOGS_PODCASTS]
5minmic Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms
02-25 Meta RCCLX AMD
[自动] [BLOGS_PODCASTS]
5minmic 在 SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B
02-25 SageMaker veRL Ray
[自动] [BLOGS_PODCASTS]
4minmic Hexagon 利用 SageMaker HyperPod 加速分割模型预训练
02-25 SageMaker HyperPod AWS
[自动] [BLOGS_PODCASTS]
5minmic 在 Amazon SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 模型
02-25 SageMaker veRL Ray
[自动] [BLOGS_PODCASTS]
4minmic Hexagon 利用 SageMaker HyperPod 加速分割模型预训练
02-25 SageMaker HyperPod 模型预训练
[自动] [ARXIV]
5minschool DeepSpeed图像工作负载评测:视觉Transformer扩展性能
02-25 DeepSpeed ViT 视觉Transformer
[自动] [BLOGS_PODCASTS]
5minmic 在 Amazon SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 模型
02-24 SageMaker veRL Ray
[自动] [BLOGS_PODCASTS]
5minmic Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms
02-24 Meta AMD GPU
[自动] [BLOGS_PODCASTS]
4minmic Hexagon 利用 SageMaker HyperPod 加速分割模型预训练
02-24 AWS SageMaker HyperPod
[自动] [BLOGS_PODCASTS]
5minmic 在 SageMaker 上利用 veRL 与 Ray 训练 CodeFu-7B
02-24 LLM SageMaker Ray
[自动] [BLOGS_PODCASTS]
6minmic 使用veRL和Ray在SageMaker上训练CodeFu-7B模型
02-24 SageMaker veRL Ray
[自动] [BLOGS_PODCASTS]
4minmic Hexagon 利用 SageMaker HyperPod 加速分割模型预训练
02-24 SageMaker HyperPod AWS
[自动] [BLOGS_PODCASTS]
3minmic Hexagon 利用 SageMaker HyperPod 加速分割模型预训练
02-24 AWS SageMaker HyperPod
[自动] [BLOGS_PODCASTS]
3minmic Hexagon 利用 SageMaker HyperPod 规模化生产分割模型
02-24 SageMaker HyperPod 分布式训练
[自动] [BLOGS_PODCASTS]
2minmic Hexagon 利用 SageMaker HyperPod 加速分割模型预训练
02-24 SageMaker HyperPod 模型预训练
[自动] [ARXIV]
5minschool Multi-Head LatentMoE 与 Head 并行:通信高效的确定性 MoE 并行策略
02-06 MoE 分布式训练 通信优化
[自动] [ARXIV]
5minschool Multi-Head LatentMoE与Head并行:通信高效且确定性的MoE方案
02-05 MoE 分布式训练 通信优化
[自动] [ARXIV]
4minschool 利用权重更新稀疏性的通信高效分布式强化学习
02-04 分布式训练 强化学习 通信优化