terminal

AI Stack

rss_feed
SYS_STABLE
目录

量化

条目:39
2026年三月 21 篇
类型阅读条目
[自动] [HACKER_NEWS]
1minnewspaper 能否在本地设备运行人工智能模型
03-14 本地部署 LLM 边缘计算
[自动] [ARXIV]
4minschool 基于 Leech 格的向量量化实现高效大模型压缩
03-13 LLVQ 模型压缩 向量量化
[自动] [ARXIV]
4minschool Leech 格点向量量化实现高效大模型压缩
03-12 LLVQ 模型压缩 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:面向本地CPU的1000亿参数1比特模型
03-12 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:面向本地CPU的1000亿参数1比特模型
03-12 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet: 100B Param 1-Bit model for local CPUs
03-12 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:支持本地CPU运行的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper BitNet:面向本地CPU的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper 微软BitNet:可在本地CPU运行的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
1minnewspaper 微软BitNet:可在本地CPU运行的1000亿参数1比特模型
03-11 BitNet 1-bit 量化
[自动] [HACKER_NEWS]
5minnewspaper 本地部署 Qwen 3.5 大模型的方法与流程
03-08 Qwen 本地部署 LLM
[自动] [HACKER_NEWS]
1minnewspaper 如何在本地部署运行 Qwen 3.5 大模型
03-08 Qwen 本地部署 LLM
[自动] [HACKER_NEWS]
5minnewspaper 如何在本地运行 Qwen 3.5 模型
03-08 Qwen 本地部署 LLM
[自动] [HACKER_NEWS]
5minnewspaper 如何在本地部署并运行 Qwen 3.5 大模型
03-08 Qwen 本地部署 LLM
[自动] [HACKER_NEWS]
2minnewspaper 本地运行 Qwen 3.5 大模型的完整指南
03-08 Qwen 本地部署 LLM
[自动] [HACKER_NEWS]
5minnewspaper 如何在本地运行 Qwen 3.5 大模型
03-08 Qwen 3.5 本地部署 LLM
[自动] [ARXIV]
3minschool 面向硬件加速器的位级脉动阵列架构支持运行时可重构多精度量化乘法
03-02 硬件加速器 脉动阵列 量化
[自动] [ARXIV]
5minschool FlashOptim:面向大模型内存高效训练的优化器
03-02 FlashOptim 显存优化 训练优化器
[自动] [ARXIV]
3minschool 面向硬件加速器的位级脉动阵列架构支持运行时可重构多精度量化乘法
03-01 硬件加速器 脉动阵列 量化
[自动] [ARXIV]
4minschool FlashOptim:面向内存高效训练的优化器
03-01 FlashOptim 内存优化 训练优化器
[自动] [HACKER_NEWS]
1minnewspaper Qwen3.5 122B/35B 本地跑出 Sonnet 4.5 性能
03-01 Qwen3.5 Sonnet 4.5 本地部署
2026年二月 17 篇
类型阅读条目
[自动] [ARXIV]
3minschool 面向硬件加速器的运行时可重构多精度量化乘法按位脉动阵列架构
02-28 硬件加速器 脉动阵列 量化
[自动] [HACKER_NEWS]
1minnewspaper Qwen3.5 122B与35B本地部署性能对标Sonnet 4.5
02-28 Qwen3.5 Sonnet 4.5 本地部署
[自动] [ARXIV]
4minschool FlashOptim:面向内存高效训练的优化器
02-28 FlashOptim 大模型训练 显存优化
[自动] [HACKER_NEWS]
1minnewspaper Unsloth Dynamic 2.0 发布:支持 GGUF 格式
02-28 Unsloth GGUF LLM
[自动] [HACKER_NEWS]
1minnewspaper Unsloth Dynamic 2.0 GGUFs 发布
02-28 Unsloth GGUF llama.cpp
[自动] [ARXIV]
3minschool 面向硬件加速器的运行时可重构多精度量化乘法按位脉动阵列架构
02-27 硬件加速器 脉动阵列 量化
[自动] [ARXIV]
4minschool SPQ:面向大语言模型压缩的集成技术
02-24 LLM 模型压缩 SPQ
[自动] [ARXIV]
4minschool SPQ:大语言模型压缩的集成技术
02-23 模型压缩 LLM 量化
[自动] [HACKER_NEWS]
1minnewspaper 单张RTX 3090利用NVMe直通运行Llama 3.1 70B
02-22 Llama 3.1 RTX 3090 NVMe
[自动] [HACKER_NEWS]
1minnewspaper zclaw:体积小于888 KB的个人AI助手,运行于ESP32
02-22 LLM ESP32 嵌入式
[自动] [HACKER_NEWS]
1minnewspaper zclaw:体积小于888 KB的个人AI助手,可运行于ESP32
02-21 zclaw ESP32 嵌入式AI
[自动] [HACKER_NEWS]
5minnewspaper 两种提升大模型推理速度的技术方法
02-15 LLM 推理加速 KV Cache
[自动] [HACKER_NEWS]
5minnewspaper 两种提升大模型推理速度的技术方法
02-15 LLM 推理加速 KV Cache
[自动] [HACKER_NEWS]
6minnewspaper iPhone 16 Pro Max 运行 MLX 大模型输出质量异常
02-02 MLX LLM Apple Silicon
[自动] [HACKER_NEWS]
5minnewspaper iPhone 16 Pro Max 运行 MLX 大模型输出质量差
02-02 MLX LLM iPhone 16
[自动] [HACKER_NEWS]
5minnewspaper iPhone 16 Pro Max 运行 MLX 大模型输出质量异常
02-02 MLX LLM iPhone 16
[自动] [HACKER_NEWS]
5minnewspaper iPhone 16 Pro Max 运行 MLX 大模型输出质量异常
02-02 MLX LLM Apple Silicon
2026年一月 1 篇
类型阅读条目
[自动] [HACKER_NEWS]
5minnewspaper 在8位摩托罗拉6809上运行深度卷积神经网络玩桌游
01-29 复古计算 深度学习 卷积神经网络