目录
本地部署
条目:75
2026年四月
2 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[JUEJIN] | 1min | sticky_note_2
内网离线场景AI模型本地部署指南 04-12
本地部署
离线运行
数据安全 |
[自动]
[HACKER_NEWS] | 1min | newspaper
实测Gemma 4在iPhone上的性能表现 04-05
Gemma
iPhone
性能测试 |
2026年三月
48 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[BLOGS_PODCASTS] | 2min | mic
Nemotron 3 Nano 4B:面向高效本地AI的紧凑型混合模型 03-18
Nemotron
本地部署
混合模型 |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Nemotron 3 Nano 4B:面向高效本地 AI 的紧凑混合模型 03-18
Nemotron
本地部署
混合模型 |
[自动]
[HACKER_NEWS] | 1min | newspaper
构建可靠且易用的本地语音助手实践指南 03-17
语音助手
本地部署
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
构建可靠且易用的本地语音助手实践 03-17
语音助手
本地部署
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
打造稳定且易用的本地语音助手实践 03-17
语音助手
本地部署
LLM |
[自动]
[JUEJIN] | 3min | sticky_note_2
Next.js + Ollama + Qwen3 构建本地流式聊天应用 03-17
Next.js
Ollama
Qwen3 |
[自动]
[HACKER_NEWS] | 1min | newspaper
打造可靠且好用的本地语音助手实践指南 03-16
语音助手
本地部署
LLM |
[自动]
[JUEJIN] | 2min | sticky_note_2
本地AI Agent Memory系统建设:存储策略与检索注入机制 03-15
AI Agent
Memory系统
本地部署 |
[自动]
[HACKER_NEWS] | 1min | newspaper
本地运行AI的可行性评估与硬件配置指南 03-14
本地部署
硬件配置
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
能否在本地设备运行人工智能模型 03-14
本地部署
LLM
边缘计算 |
[自动]
[HACKER_NEWS] | 1min | newspaper
本地运行AI的可行性评估与硬件需求分析 03-14
本地部署
硬件需求
大模型 |
[自动]
[HACKER_NEWS] | 1min | newspaper
在本地设备运行 AI 模型的硬件与软件指南 03-14
本地部署
边缘计算
硬件指南 |
[自动]
[HACKER_NEWS] | 3min | newspaper
本地运行AI的可行性评估与硬件需求分析 03-14
本地部署
硬件需求
GPU |
[自动]
[HACKER_NEWS] | 1min | newspaper
本地运行AI的硬件需求与可行性评估 03-14
本地部署
硬件需求
GPU |
[自动]
[HACKER_NEWS] | 1min | newspaper
本地运行AI的硬件需求与可行性评估 03-13
本地部署
硬件需求
GPU |
[自动]
[HACKER_NEWS] | 1min | newspaper
本地运行AI的可行性评估与硬件配置指南 03-13
本地部署
硬件配置
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
Show HN: Axe——用12MB二进制文件替代AI框架 03-13
Axe
LLM
推理引擎 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Show HN: Axe – A 12MB binary that replaces your AI fram 03-12
Axe
AI 框架
二进制 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Axe:12MB 二进制文件可替代 AI 框架 03-12
Axe
AI 框架
二进制 |
[自动]
[JUEJIN] | 2min | sticky_note_2
我把本地文档 RAG 做成了可用系统:Flask + Vue3 + LangChain + FAISS(多知识 03-12
RAG
LangChain
Flask |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:面向本地CPU的1000亿参数1比特模型 03-12
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:面向本地CPU的1000亿参数1比特模型 03-12
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet: 100B Param 1-Bit model for local CPUs 03-12
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:支持本地CPU运行的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
BitNet:面向本地CPU的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
微软BitNet:可在本地CPU运行的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
微软BitNet:可在本地CPU运行的1000亿参数1比特模型 03-11
BitNet
1-bit
量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Launch HN: RunAnywhere (YC W26) – Faster AI Inference o 03-11
Apple Silicon
AI 推理
模型优化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RunAnywhere:基于 Apple Silicon 的 AI 推理加速方案 03-11
RunAnywhere
Apple Silicon
AI 推理 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RunAnywhere:在 Apple Silicon 上实现更快的 AI 推理 03-11
RunAnywhere
Apple Silicon
AI 推理 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RunAnywhere:在Apple Silicon上实现更快的AI推理 03-11
Apple Silicon
AI 推理
模型优化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RunAnywhere:基于Apple Silicon的AI推理加速方案 03-11
Apple Silicon
AI 推理
模型加速 |
[自动]
[HACKER_NEWS] | 2min | newspaper
RunAnywhere:基于Apple Silicon的AI推理加速工具 03-10
RunAnywhere
Apple Silicon
AI 推理 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RunAnywhere:在 Apple Silicon 上实现更快的 AI 推理 03-10
RunAnywhere
Apple Silicon
AI 推理 |
[自动]
[HACKER_NEWS] | 2min | newspaper
RunAnwhere:在 Apple Silicon 上实现更快的 AI 推理 03-10
Apple Silicon
AI 推理
本地部署 |
[自动]
[HACKER_NEWS] | 3min | newspaper
Agent Safehouse:macOS 原生沙箱技术保护本地 Agent 03-09
Agent
macOS
沙箱技术 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Agent Safehouse:利用 macOS 原生沙箱实现本地 Agent 隔离 03-09
Agent
macOS
沙箱 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Agent Safehouse:macOS 本地 Agent 的原生沙箱方案 03-09
Agent Safehouse
macOS
沙箱 |
[自动]
[HACKER_NEWS] | 5min | newspaper
本地部署 Qwen 3.5 大模型的方法与流程 03-08
Qwen
本地部署
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
如何在本地部署运行 Qwen 3.5 大模型 03-08
Qwen
本地部署
LLM |
[自动]
[HACKER_NEWS] | 5min | newspaper
如何在本地运行 Qwen 3.5 模型 03-08
Qwen
本地部署
LLM |
[自动]
[HACKER_NEWS] | 5min | newspaper
如何在本地部署并运行 Qwen 3.5 大模型 03-08
Qwen
本地部署
LLM |
[自动]
[HACKER_NEWS] | 2min | newspaper
本地运行 Qwen 3.5 大模型的完整指南 03-08
Qwen
本地部署
LLM |
[自动]
[HACKER_NEWS] | 5min | newspaper
如何在本地运行 Qwen 3.5 大模型 03-08
Qwen 3.5
本地部署
LLM |
[自动]
[HACKER_NEWS] | 2min | newspaper
Timber:比 Python 快 336 倍的经典机器学习模型工具 03-02
Timber
机器学习
Ollama |
[自动]
[JUEJIN] | 3min | sticky_note_2
Ollama 本地部署开源大模型指南与代码实践 03-02
Ollama
LLM
本地部署 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Qwen3.5 122B/35B 本地跑出 Sonnet 4.5 性能 03-01
Qwen3.5
Sonnet 4.5
本地部署 |
[自动]
[HACKER_NEWS] | 2min | newspaper
Qwen3.5 122B与35B模型本地实现Sonnet 4.5性能 03-01
Qwen3.5
Sonnet 4.5
本地部署 |
2026年二月
18 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 1min | newspaper
Qwen3.5 122B与35B本地部署性能对标Sonnet 4.5 02-28
Qwen3.5
Sonnet 4.5
本地部署 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Unsloth发布Dynamic 2.0 GGUF模型 02-28
Unsloth
GGUF
模型量化 |
[自动]
[HACKER_NEWS] | 1min | newspaper
Unsloth推出Dynamic 2.0 GGUF模型 02-28
Unsloth
GGUF
模型量化 |
[自动]
[HACKER_NEWS] | 2min | newspaper
Parakeet.cpp:支持Metal GPU加速的C++版ASR推理 02-27
ASR
C++
Metal |
[自动]
[HACKER_NEWS] | 1min | newspaper
单张RTX 3090运行Llama 3.1 70B:NVMe直通GPU方案 02-22
Llama 3.1
RTX 3090
NVMe |
[自动]
[HACKER_NEWS] | 1min | newspaper
单张RTX 3090利用NVMe直通运行Llama 3.1 70B 02-22
Llama 3.1
RTX 3090
NVMe |
[自动]
[HACKER_NEWS] | 1min | newspaper
单张RTX 3090利用NVMe直通运行Llama 3.1 70B 02-22
Llama 3.1
RTX 3090
NVMe |
[自动]
[HACKER_NEWS] | 1min | newspaper
单张RTX 3090运行Llama 3.1 70B:NVMe直通GPU方案 02-22
Llama 3.1
RTX 3090
NVMe |
[自动]
[BLOGS_PODCASTS] | 2min | mic
Z.ai发布GLM-5开源权重模型,性能达SOTA 02-15
GLM-5
Z.ai
SOTA |
[自动]
[HACKER_NEWS] | 4min | newspaper
Off Grid:手机端离线运行AI文本、图像及视觉模型 02-15
离线AI
边缘计算
移动端推理 |
[自动]
[HACKER_NEWS] | 4min | newspaper
单头文件 C 语言向量数据库库 02-15
C语言
向量数据库
单头文件 |
[自动]
[HACKER_NEWS] | 4min | newspaper
仅头文件的 C 语言向量数据库库 02-14
C语言
向量数据库
头文件库 |
[自动]
[HACKER_NEWS] | 5min | newspaper
仅头文件的 C 语言向量数据库库 02-14
C语言
向量数据库
头文件库 |
[自动]
[HACKER_NEWS] | 5min | newspaper
我放弃OpenClaw并构建更安全的AI代理 02-13
AI Agent
OpenClaw
Mac Mini |
[自动]
[JUEJIN] | 3min | sticky_note_2
SSH反向隧道实战:安全暴露本地AI助手至公网 02-13
SSH
反向隧道
内网穿透 |
[自动]
[HACKER_NEWS] | 5min | newspaper
在 Linux 上安装 Ollama 并部署 Gemma 3B 模型 02-07
Ollama
Gemma
LLM |
[自动]
[HACKER_NEWS] | 3min | newspaper
Voxtral Transcribe 2:本地运行的语音转文字工具 02-05
语音转文字
本地部署
隐私保护 |
[自动]
[HACKER_NEWS] | 5min | newspaper
iPhone 16 Pro Max 运行 MLX 大模型输出质量异常 02-02
MLX
LLM
iPhone 16 |
2026年一月
7 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
RedSage:网络安全通用大语言模型 01-31
RedSage
网络安全
LLM |
[自动]
[HACKER_NEWS] | 4min | newspaper
发现逾17.5万个Ollama AI实例公网暴露 01-31
Ollama
数据泄露
公网暴露 |
[自动]
[ARXIV] | 5min | school
RedSage:网络安全通用大模型 01-30
RedSage
网络安全
LLM |
[自动]
[HACKER_NEWS] | 4min | newspaper
Moltworker:自托管个人 AI 智能体 01-30
AI Agent
自托管
个人助理 |
[自动]
[HACKER_NEWS] | 5min | newspaper
Moltworker:自托管个人 AI 智能体 01-30
AI Agent
自托管
个人助理 |
[自动]
[HACKER_NEWS] | 5min | newspaper
LM Studio 0.4 发布:支持本地运行 Llama 3 与多模型并行 01-29
LM Studio
Llama 3
本地部署 |
[自动]
[HACKER_NEWS] | 3min | newspaper
🔥Show HN: AutoShorts!本地GPU加速的AI视频神器✨ 01-25
AutoShorts
AI视频
GPU加速 |
无匹配条目