terminal

AI Stack

rss_feed
SYS_STABLE
目录

模型压缩

条目:44
2026年四月 4 篇
类型阅读条目
[自动] [HACKER_NEWS]
1minnewspaper 小型模型复现Mythos漏洞检测能力
04-11 漏洞检测 小型模型 Mythos
[自动] [BLOGS_PODCASTS]
1minmic AI模型训练中复杂性削减技术
04-09 模型压缩 在线剪枝 控制理论
[自动] [HACKER_NEWS]
1minnewspaper 自蒸馏方法提升代码生成效率
04-04 自蒸馏 代码生成 模型优化
[自动] [HACKER_NEWS]
1minnewspaper Apple自蒸馏技术简化代码生成流程
04-04 自蒸馏 代码生成 大模型
2026年三月 20 篇
类型阅读条目
[自动] [ARXIV]
4minschool 统一时空Token评分提升视频VLM效率
03-19 视频VLM Token剪枝 计算效率
[自动] [ARXIV]
3minschool 边缘端高效推理:资源受限设备的模型优化方法
03-18 边缘计算 模型压缩 高效推理
[自动] [BLOGS_PODCASTS]
2minmic Nemotron 3 Nano 4B:面向高效本地AI的紧凑型混合模型
03-18 Nemotron 本地部署 混合模型
[自动] [BLOGS_PODCASTS]
3minmic Nemotron 3 Nano 4B:面向高效本地 AI 的紧凑混合模型
03-18 Nemotron 本地部署 混合模型
[自动] [ARXIV]
3minschool 基于脉冲神经网络的层级自适应幅度剪枝
03-17 脉冲神经网络 剪枝 模型压缩
[自动] [ARXIV]
3minschool SFedHIFI:基于发放率的脉冲联邦学习异构信息融合
03-17 联邦学习 脉冲神经网络 SNN
[自动] [ARXIV]
4minschool 基于 Leech 格的向量量化实现高效大模型压缩
03-13 LLVQ 模型压缩 向量量化
[自动] [ARXIV]
4minschool Leech 格点向量量化实现高效大模型压缩
03-12 LLVQ 模型压缩 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:面向本地CPU的1000亿参数1比特模型
03-12 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:面向本地CPU的1000亿参数1比特模型
03-12 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet: 100B Param 1-Bit model for local CPUs
03-12 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:支持本地CPU运行的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:面向本地CPU的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper 微软BitNet:可在本地CPU运行的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper 微软BitNet:可在本地CPU运行的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [ARXIV]
4minschool SERQ:基于显著性感知的低秩误差重构LLM量化方法
03-10 LLM量化 SERQ PTQ
[自动] [HACKER_NEWS]
1minnewspaper 根据系统硬件资源自动调整大模型规模
03-02 LLM 资源调度 GPU
[自动] [HACKER_NEWS]
1minnewspaper 根据系统硬件配置动态调整LLM模型规模
03-02 LLM 模型压缩 硬件适配
[自动] [HACKER_NEWS]
1minnewspaper 根据系统硬件配置自动调整大模型规模
03-02 LLM 资源调度 硬件适配
[自动] [HACKER_NEWS]
1minnewspaper MicroGPT:面向微控制器的轻量级 GPT 实现
03-01 MicroGPT LLM 嵌入式
2026年二月 15 篇
类型阅读条目
[自动] [ARXIV]
4minschool 面向高效高分辨率GUI智能体的时空令牌剪枝
02-27 GUI Agent Token Pruning Qwen2-VL
[自动] [JUEJIN]
2minsticky_note_2 ArcFlow实现FLUX与Qwen推理40倍加速
02-24 ArcFlow FLUX Qwen
[自动] [ARXIV]
4minschool SPQ:面向大语言模型压缩的集成技术
02-24 LLM 模型压缩 SPQ
[自动] [ARXIV]
4minschool SPQ:大语言模型压缩的集成技术
02-23 模型压缩 LLM 量化
[自动] [ARXIV]
3minschool 面向扩散语言模型的感知剪枝方法
02-23 扩散模型 语言模型 模型剪枝
[自动] [HACKER_NEWS]
3minnewspaper Taalas 如何将大语言模型直接打印至芯片
02-22 Taalas LLM 芯片
[自动] [ARXIV]
4minschool 面向扩散语言模型的Sink感知剪枝方法
02-21 扩散模型 语言模型 模型剪枝
[自动] [HACKER_NEWS]
1minnewspaper 通向无处不在的AI之路:实现每秒1.7万tokens推理
02-21 推理加速 Token生成 AI部署
[自动] [BLOGS_PODCASTS]
2minmic Qwen3.5-397B-A17B:最小的高效Open-Opus级模型
02-18 Qwen3.5 模型压缩 性能优化
[自动] [ARXIV]
5minschool CoPE-VideoLM:基于编解码基元的高效视频语言模型
02-17 VideoLM 视频理解 多模态
[自动] [ARXIV]
3minschool ROCKET:校准导向背包增强截断的高效模型压缩
02-12 模型压缩 ROCKET 免训练
[自动] [ARXIV]
3minschool LoRA-Squeeze:LoRA模块的调优后与调优中压缩方法
02-12 LoRA PEFT 模型压缩
[自动] [ARXIV]
5minschool 共享LoRA子空间实现近乎严格的持续学习
02-09 持续学习 LoRA 灾难性遗忘
[自动] [HACKER_NEWS]
4minnewspaper 超网络:面向层级数据的神经网络架构
02-05 超网络 层级数据 神经网络架构
[自动] [ARXIV]
3minschool Routing the Lottery: 面向异构数据的自适应子网络路由
02-02 模型剪枝 彩票假设 异构数据
2026年一月 5 篇
类型阅读条目
[自动] [ARXIV]
4minschool 面向异构数据的自适应子网络路由方法
01-31 模型剪枝 异构数据 自适应子网络
[自动] [ARXIV]
4minschool 面向异构数据的自适应子网络路由机制
01-30 模型剪枝 异构数据 子网络
[自动] [HACKER_NEWS]
5minnewspaper Compressed Agents:Agent Skills 技术解析
01-30 Agent LLM 技术解析
[自动] [HACKER_NEWS]
5minnewspaper Agent Skills:压缩智能体技能以提升模型效率
01-29 Agent 模型压缩 效率优化
[自动] [HACKER_NEWS]
5minnewspaper 在8位摩托罗拉6809上运行深度卷积神经网络玩桌游
01-29 复古计算 深度学习 卷积神经网络