目录
分布式训练
条目:36
2026年三月
1 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 3min | school
数据集压缩至1MB:小规模数据集的模型训练效果评估 03-01
数据集压缩
PLADA
数据蒸馏 |
2026年二月
35 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 3min | school
数据集压缩至1MB:小规模数据集的模型训练效果评估 02-27
PLADA
数据集压缩
伪标签 |
[自动]
[BLOGS_PODCASTS] | 4min | mic
基于 veRL 与 Ray 在 SageMaker 上训练 CodeFu-7B 模型 02-26
veRL
Ray
SageMaker |
[自动]
[BLOGS_PODCASTS] | 5min | mic
Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms 02-26
Meta
RCCLX
AMD |
[自动]
[BLOGS_PODCASTS] | 4min | mic
在 Amazon SageMaker 上使用 veRL 与 Ray 训练 CodeFu-7B 模型 02-26
SageMaker
veRL
Ray |
[自动]
[BLOGS_PODCASTS] | 5min | mic
Meta 开源 RCCLX:优化 AMD 平台 GPU 通信性能 02-26
Meta
RCCLX
AMD |
[自动]
[BLOGS_PODCASTS] | 5min | mic
在 Amazon SageMaker 上使用 veRL 与 Ray 训练 CodeFu-7B 模型 02-26
SageMaker
veRL
Ray |
[自动]
[ARXIV] | 6min | school
Untied Ulysses:基于分头切分的高效上下文并行方案 02-26
上下文并行
长序列
Transformer |
[自动]
[BLOGS_PODCASTS] | 5min | mic
基于 veRL 在 SageMaker 与 Ray 上训练 CodeFu-7B 模型 02-25
veRL
SageMaker
Ray |
[自动]
[BLOGS_PODCASTS] | 5min | mic
Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms 02-25
Meta
RCCLX
AMD GPU |
[自动]
[ARXIV] | 6min | school
Headwise Chunking:面向上下文并行的内存高效方案 02-25
上下文并行
长文本训练
内存优化 |
[自动]
[BLOGS_PODCASTS] | 5min | mic
使用 veRL 和 Ray 在 SageMaker 上训练 CodeFu-7B 模型 02-25
veRL
Ray
SageMaker |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms 02-25
Meta
RCCLX
AMD |
[自动]
[BLOGS_PODCASTS] | 5min | mic
基于veRL与Ray在SageMaker上训练CodeFu-7B模型 02-25
veRL
Ray
SageMaker |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms 02-25
Meta
RCCLX
AMD |
[自动]
[BLOGS_PODCASTS] | 5min | mic
在 Amazon SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 模型 02-25
SageMaker
veRL
Ray |
[自动]
[BLOGS_PODCASTS] | 5min | mic
Meta 开源 RCCLX:优化 AMD 平台 GPU 通信 02-25
Meta
AMD
RCCLX |
[自动]
[BLOGS_PODCASTS] | 5min | mic
使用 veRL 和 Ray 在 SageMaker 上训练 CodeFu-7B 模型 02-25
SageMaker
Ray
veRL |
[自动]
[BLOGS_PODCASTS] | 5min | mic
Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms 02-25
Meta
RCCLX
AMD |
[自动]
[BLOGS_PODCASTS] | 5min | mic
在 SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 02-25
SageMaker
veRL
Ray |
[自动]
[BLOGS_PODCASTS] | 4min | mic
Hexagon 利用 SageMaker HyperPod 加速分割模型预训练 02-25
SageMaker
HyperPod
AWS |
[自动]
[BLOGS_PODCASTS] | 5min | mic
在 Amazon SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 模型 02-25
SageMaker
veRL
Ray |
[自动]
[BLOGS_PODCASTS] | 4min | mic
Hexagon 利用 SageMaker HyperPod 加速分割模型预训练 02-25
SageMaker
HyperPod
模型预训练 |
[自动]
[ARXIV] | 5min | school
DeepSpeed图像工作负载评测:视觉Transformer扩展性能 02-25
DeepSpeed
ViT
视觉Transformer |
[自动]
[BLOGS_PODCASTS] | 5min | mic
在 Amazon SageMaker 上使用 veRL 和 Ray 训练 CodeFu-7B 模型 02-24
SageMaker
veRL
Ray |
[自动]
[BLOGS_PODCASTS] | 5min | mic
Meta 开源 RCCLX:优化 AMD GPU 通信并集成 Torchcomms 02-24
Meta
AMD
GPU |
[自动]
[BLOGS_PODCASTS] | 4min | mic
Hexagon 利用 SageMaker HyperPod 加速分割模型预训练 02-24
AWS
SageMaker
HyperPod |
[自动]
[BLOGS_PODCASTS] | 5min | mic
在 SageMaker 上利用 veRL 与 Ray 训练 CodeFu-7B 02-24
LLM
SageMaker
Ray |
[自动]
[BLOGS_PODCASTS] | 6min | mic
使用veRL和Ray在SageMaker上训练CodeFu-7B模型 02-24
SageMaker
veRL
Ray |
[自动]
[BLOGS_PODCASTS] | 4min | mic
Hexagon 利用 SageMaker HyperPod 加速分割模型预训练 02-24
SageMaker
HyperPod
AWS |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Hexagon 利用 SageMaker HyperPod 加速分割模型预训练 02-24
AWS
SageMaker
HyperPod |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Hexagon 利用 SageMaker HyperPod 规模化生产分割模型 02-24
SageMaker
HyperPod
分布式训练 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
Hexagon 利用 SageMaker HyperPod 加速分割模型预训练 02-24
SageMaker
HyperPod
模型预训练 |
[自动]
[ARXIV] | 5min | school
Multi-Head LatentMoE 与 Head 并行:通信高效的确定性 MoE 并行策略 02-06
MoE
分布式训练
通信优化 |
[自动]
[ARXIV] | 5min | school
Multi-Head LatentMoE与Head并行:通信高效且确定性的MoE方案 02-05
MoE
分布式训练
通信优化 |
[自动]
[ARXIV] | 4min | school
利用权重更新稀疏性的通信高效分布式强化学习 02-04
分布式训练
强化学习
通信优化 |
无匹配条目