目录
算法优化
条目:20
2026年三月
9 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 1min | newspaper
基于PPO的树搜索蒸馏优化语言模型 03-15
PPO
强化学习
模型蒸馏 |
[自动]
[HACKER_NEWS] | 1min | newspaper
基于PPO的树搜索蒸馏技术优化语言模型 03-15
PPO
树搜索
模型蒸馏 |
[自动]
[HACKER_NEWS] | 1min | newspaper
基于PPO的树搜索蒸馏技术优化语言模型 03-15
PPO
强化学习
树搜索 |
[自动]
[HACKER_NEWS] | 1min | newspaper
在Transformer内部执行程序以实现指数级推理加速 03-13
Transformer
推理加速
算法优化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
在Transformer内部执行程序以实现指数级推理加速 03-13
Transformer
推理加速
算法优化 |
[自动]
[ARXIV] | 4min | school
基于 Leech 格的向量量化实现高效大模型压缩 03-13
LLVQ
模型压缩
向量量化 |
[自动]
[ARXIV] | 4min | school
Leech 格点向量量化实现高效大模型压缩 03-12
LLVQ
模型压缩
量化 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
AI自改进研究新进展:递归自我优化能力的初步实现 03-11
AGI
自我改进
递归优化 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
AI实现递归式自我改进:AGI研究新进展 03-10
AGI
递归自我改进
AutoResearch |
2026年二月
9 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[BLOGS_PODCASTS] | 2min | mic
利用闲置算时将大模型训练速度翻倍且保持精度 02-26
LLM
模型训练
算力优化 |
[自动]
[ARXIV] | 4min | school
重新思考大模型强化学习中的信任区域机制 02-06
强化学习
LLM
PPO |
[自动]
[ARXIV] | 5min | school
重新思考大模型强化学习中的信任区域 02-05
RLHF
PPO
强化学习 |
[自动]
[HACKER_NEWS] | 6min | newspaper
对称感知泰勒近似实现恒定Token成本注意力机制 02-05
注意力机制
Transformer
泰勒近似 |
[自动]
[HACKER_NEWS] | 5min | newspaper
基于对称性泰勒近似实现恒定每Token成本注意力机制 02-04
注意力机制
Transformer
泰勒近似 |
[自动]
[HACKER_NEWS] | 7min | newspaper
基于对称感知泰勒近似实现恒定Token成本注意力机制 02-04
注意力机制
Transformer
泰勒近似 |
[自动]
[ARXIV] | 3min | school
训练LLM采用分治推理提升测试时扩展性 02-04
LLM
推理
强化学习 |
[自动]
[ARXIV] | 3min | school
训练LLM采用分治推理提升测试时扩展性 02-03
LLM
推理
强化学习 |
[自动]
[ARXIV] | 3min | school
发现模型仓库中的隐藏价值 02-02
模型评估
Llama-3.1
多臂老虎机 |
2026年一月
2 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
发现模型仓库中的隐藏价值 01-31
模型评估
Llama
多臂老虎机 |
[自动]
[ARXIV] | 4min | school
🚀复用FLOPs!RL突破性扩展:超离策略前缀如何解决硬难题? 01-28
强化学习
RL
LLM |
无匹配条目