terminal

AI Stack

rss_feed
SYS_STABLE
目录

模型压缩

条目:20
2026年二月 15 篇
类型阅读条目
[自动] [ARXIV]
5minschool 面向高效高分辨率GUI智能体的时空令牌剪枝
02-27 GUI Agent Token Pruning Qwen2-VL
[自动] [JUEJIN]
2minsticky_note_2 ArcFlow实现FLUX与Qwen推理40倍加速
02-24 ArcFlow FLUX Qwen
[自动] [ARXIV]
4minschool SPQ:面向大语言模型压缩的集成技术
02-24 LLM 模型压缩 SPQ
[自动] [ARXIV]
6minschool SPQ:大语言模型压缩的集成技术
02-23 模型压缩 LLM 量化
[自动] [ARXIV]
4minschool 面向扩散语言模型的感知剪枝方法
02-23 扩散模型 语言模型 模型剪枝
[自动] [HACKER_NEWS]
4minnewspaper Taalas 如何将大语言模型直接打印至芯片
02-22 Taalas LLM 芯片
[自动] [ARXIV]
5minschool 面向扩散语言模型的Sink感知剪枝方法
02-21 扩散模型 语言模型 模型剪枝
[自动] [HACKER_NEWS]
4minnewspaper 通向无处不在的AI之路:实现每秒1.7万tokens推理
02-21 推理加速 Token生成 AI部署
[自动] [BLOGS_PODCASTS]
2minmic Qwen3.5-397B-A17B:最小的高效Open-Opus级模型
02-18 Qwen3.5 模型压缩 性能优化
[自动] [ARXIV]
5minschool CoPE-VideoLM:基于编解码基元的高效视频语言模型
02-17 VideoLM 视频理解 多模态
[自动] [ARXIV]
3minschool ROCKET:校准导向背包增强截断的高效模型压缩
02-12 模型压缩 ROCKET 免训练
[自动] [ARXIV]
4minschool LoRA-Squeeze:LoRA模块的调优后与调优中压缩方法
02-12 LoRA PEFT 模型压缩
[自动] [ARXIV]
5minschool 共享LoRA子空间实现近乎严格的持续学习
02-09 持续学习 LoRA 灾难性遗忘
[自动] [HACKER_NEWS]
4minnewspaper 超网络:面向层级数据的神经网络架构
02-05 超网络 层级数据 神经网络架构
[自动] [ARXIV]
3minschool Routing the Lottery: 面向异构数据的自适应子网络路由
02-02 模型剪枝 彩票假设 异构数据
2026年一月 5 篇
类型阅读条目
[自动] [ARXIV]
4minschool 面向异构数据的自适应子网络路由方法
01-31 模型剪枝 异构数据 自适应子网络
[自动] [ARXIV]
4minschool 面向异构数据的自适应子网络路由机制
01-30 模型剪枝 异构数据 子网络
[自动] [HACKER_NEWS]
5minnewspaper Compressed Agents:Agent Skills 技术解析
01-30 Agent LLM 技术解析
[自动] [HACKER_NEWS]
5minnewspaper Agent Skills:压缩智能体技能以提升模型效率
01-29 Agent 模型压缩 效率优化
[自动] [HACKER_NEWS]
5minnewspaper 在8位摩托罗拉6809上运行深度卷积神经网络玩桌游
01-29 复古计算 深度学习 卷积神经网络