目录
模型压缩
条目:44
2026年四月
4 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 1min | newspaper
小型模型复现Mythos漏洞检测能力 04-11
漏洞检测
小型模型
Mythos |
[自动]
[BLOGS_PODCASTS] | 1min | mic
AI模型训练中复杂性削减技术 04-09
模型压缩
在线剪枝
控制理论 |
[自动]
[HACKER_NEWS] | 1min | newspaper
自蒸馏方法提升代码生成效率 04-04
自蒸馏
代码生成
模型优化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Apple自蒸馏技术简化代码生成流程 04-04
自蒸馏
代码生成
大模型 |
2026年三月
20 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
统一时空Token评分提升视频VLM效率 03-19
视频VLM
Token剪枝
计算效率 |
[自动]
[ARXIV] | 3min | school
边缘端高效推理:资源受限设备的模型优化方法 03-18
边缘计算
模型压缩
高效推理 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
Nemotron 3 Nano 4B:面向高效本地AI的紧凑型混合模型 03-18
Nemotron
本地部署
混合模型 |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Nemotron 3 Nano 4B:面向高效本地 AI 的紧凑混合模型 03-18
Nemotron
本地部署
混合模型 |
[自动]
[ARXIV] | 3min | school
基于脉冲神经网络的层级自适应幅度剪枝 03-17
脉冲神经网络
剪枝
模型压缩 |
[自动]
[ARXIV] | 3min | school
SFedHIFI:基于发放率的脉冲联邦学习异构信息融合 03-17
联邦学习
脉冲神经网络
SNN |
[自动]
[ARXIV] | 4min | school
基于 Leech 格的向量量化实现高效大模型压缩 03-13
LLVQ
模型压缩
向量量化 |
[自动]
[ARXIV] | 4min | school
Leech 格点向量量化实现高效大模型压缩 03-12
LLVQ
模型压缩
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:面向本地CPU的1000亿参数1比特模型 03-12
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:面向本地CPU的1000亿参数1比特模型 03-12
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet: 100B Param 1-Bit model for local CPUs 03-12
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:支持本地CPU运行的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:面向本地CPU的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
微软BitNet:可在本地CPU运行的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
微软BitNet:可在本地CPU运行的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[ARXIV] | 4min | school
SERQ:基于显著性感知的低秩误差重构LLM量化方法 03-10
LLM量化
SERQ
PTQ |
[自动]
[HACKER_NEWS] | 1min | newspaper
根据系统硬件资源自动调整大模型规模 03-02
LLM
资源调度
GPU |
[自动]
[HACKER_NEWS] | 1min | newspaper
根据系统硬件配置动态调整LLM模型规模 03-02
LLM
模型压缩
硬件适配 |
[自动]
[HACKER_NEWS] | 1min | newspaper
根据系统硬件配置自动调整大模型规模 03-02
LLM
资源调度
硬件适配 |
[自动]
[HACKER_NEWS] | 1min | newspaper
MicroGPT:面向微控制器的轻量级 GPT 实现 03-01
MicroGPT
LLM
嵌入式 |
2026年二月
15 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
面向高效高分辨率GUI智能体的时空令牌剪枝 02-27
GUI Agent
Token Pruning
Qwen2-VL |
[自动]
[JUEJIN] | 2min | sticky_note_2
ArcFlow实现FLUX与Qwen推理40倍加速 02-24
ArcFlow
FLUX
Qwen |
[自动]
[ARXIV] | 4min | school
SPQ:面向大语言模型压缩的集成技术 02-24
LLM
模型压缩
SPQ |
[自动]
[ARXIV] | 4min | school
SPQ:大语言模型压缩的集成技术 02-23
模型压缩
LLM
量化 |
[自动]
[ARXIV] | 3min | school
面向扩散语言模型的感知剪枝方法 02-23
扩散模型
语言模型
模型剪枝 |
[自动]
[HACKER_NEWS] | 3min | newspaper
Taalas 如何将大语言模型直接打印至芯片 02-22
Taalas
LLM
芯片 |
[自动]
[ARXIV] | 4min | school
面向扩散语言模型的Sink感知剪枝方法 02-21
扩散模型
语言模型
模型剪枝 |
[自动]
[HACKER_NEWS] | 1min | newspaper
通向无处不在的AI之路:实现每秒1.7万tokens推理 02-21
推理加速
Token生成
AI部署 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
Qwen3.5-397B-A17B:最小的高效Open-Opus级模型 02-18
Qwen3.5
模型压缩
性能优化 |
[自动]
[ARXIV] | 5min | school
CoPE-VideoLM:基于编解码基元的高效视频语言模型 02-17
VideoLM
视频理解
多模态 |
[自动]
[ARXIV] | 3min | school
ROCKET:校准导向背包增强截断的高效模型压缩 02-12
模型压缩
ROCKET
免训练 |
[自动]
[ARXIV] | 3min | school
LoRA-Squeeze:LoRA模块的调优后与调优中压缩方法 02-12
LoRA
PEFT
模型压缩 |
[自动]
[ARXIV] | 5min | school
共享LoRA子空间实现近乎严格的持续学习 02-09
持续学习
LoRA
灾难性遗忘 |
[自动]
[HACKER_NEWS] | 4min | newspaper
超网络:面向层级数据的神经网络架构 02-05
超网络
层级数据
神经网络架构 |
[自动]
[ARXIV] | 3min | school
Routing the Lottery: 面向异构数据的自适应子网络路由 02-02
模型剪枝
彩票假设
异构数据 |
2026年一月
5 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
面向异构数据的自适应子网络路由方法 01-31
模型剪枝
异构数据
自适应子网络 |
[自动]
[ARXIV] | 4min | school
面向异构数据的自适应子网络路由机制 01-30
模型剪枝
异构数据
子网络 |
[自动]
[HACKER_NEWS] | 5min | newspaper
Compressed Agents:Agent Skills 技术解析 01-30
Agent
LLM
技术解析 |
[自动]
[HACKER_NEWS] | 5min | newspaper
Agent Skills:压缩智能体技能以提升模型效率 01-29
Agent
模型压缩
效率优化 |
[自动]
[HACKER_NEWS] | 5min | newspaper
在8位摩托罗拉6809上运行深度卷积神经网络玩桌游 01-29
复古计算
深度学习
卷积神经网络 |
无匹配条目