terminal

AI Stack

rss_feed
SYS_STABLE
目录

模型优化

条目:95
2026年四月 2 篇
类型阅读条目
[自动] [ARXIV]
1minschool 面向代理多模态模型的元认知工具使用培养
04-10 多模态模型 强化学习 工具使用
[自动] [HACKER_NEWS]
1minnewspaper 自蒸馏方法提升代码生成效率
04-04 自蒸馏 代码生成 模型优化
2026年三月 40 篇
类型阅读条目
[自动] [HACKER_NEWS]
1minnewspaper Unsloth Studio
03-17 Unsloth LLM 微调
[自动] [BLOGS_PODCASTS]
2minmic OpenAI研究员谈提升LLM抱负的高回报活动
03-17 OpenAI LLM 模型优化
[自动] [BLOGS_PODCASTS]
4minmic P-EAGLE:vLLM 集成并行推测解码加速 LLM 推理
03-17 LLM vLLM 推理加速
[自动] [JUEJIN]
2minsticky_note_2 Amazon Nova Forge 如何缓解大模型微调中的灾难性遗忘
03-17 大模型微调 灾难性遗忘 SFT
[自动] [BLOGS_PODCASTS]
2minmic OpenAI研究员探讨提升LLM抱负的高回报活动
03-14 LLM OpenAI Prompt Engineering
[自动] [JUEJIN]
2minsticky_note_2 1-bit 大模型官方推理框架:低显存低功耗 LLM 部署方案
03-13 1-bit LLM 推理框架 模型量化
[自动] [HACKER_NEWS]
1minnewspaper LLM 模型合并率未见提升,技术瓶颈待解
03-13 LLM 模型合并 模型融合
[自动] [BLOGS_PODCASTS]
2minmic NVIDIA AI-Q登顶DeepResearch Bench I与II榜单
03-12 NVIDIA AI-Q DeepResearch
[自动] [BLOGS_PODCASTS]
2minmic NVIDIA AI-Q登顶DeepResearch Bench I与II榜单
03-12 NVIDIA AI-Q DeepResearch
[自动] [BLOGS_PODCASTS]
2minmic AI递归自我改进:迈向AGI的关键进展
03-11 AGI 自我改进 递归
[自动] [HACKER_NEWS]
1minnewspaper Launch HN: RunAnywhere (YC W26) – Faster AI Inference o
03-11 Apple Silicon AI 推理 模型优化
[自动] [HACKER_NEWS]
1minnewspaper RunAnywhere:在 Apple Silicon 上实现更快的 AI 推理
03-11 RunAnywhere Apple Silicon AI 推理
[自动] [HACKER_NEWS]
1minnewspaper RunAnywhere:在Apple Silicon上实现更快的AI推理
03-11 Apple Silicon AI 推理 模型优化
[自动] [ARXIV]
4minschool 尺度空间扩散模型
03-11 扩散模型 计算机视觉 尺度空间
[自动] [HACKER_NEWS]
2minnewspaper 双游戏GPU登顶HuggingFace开源LLM榜单的实现方法
03-10 LLM HuggingFace GPU
[自动] [HACKER_NEWS]
1minnewspaper RunAnywhere:在 Apple Silicon 上实现更快的 AI 推理
03-10 RunAnywhere Apple Silicon AI 推理
[自动] [HACKER_NEWS]
1minnewspaper 双游戏显卡登顶HuggingFace开源大模型排行榜
03-10 HuggingFace LLM 排行榜
[自动] [HACKER_NEWS]
2minnewspaper RunAnwhere:在 Apple Silicon 上实现更快的 AI 推理
03-10 Apple Silicon AI 推理 本地部署
[自动] [BLOGS_PODCASTS]
2minmic AI实现递归自我改进:AGI迈向新一步
03-10 AGI 递归自我改进 LLM
[自动] [HACKER_NEWS]
1minnewspaper 如何用两张游戏显卡登顶HuggingFace开源大模型榜单
03-10 HuggingFace 开源榜单 显卡
[自动] [BLOGS_PODCASTS]
2minmic 新方法提升AI模型可解释性以增强关键领域信任度
03-09 可解释性 XAI 模型信任
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI引入嵌入式平台:数据集录制、VLA微调与端侧优化
03-09 机器人 嵌入式 VLA
[自动] [HACKER_NEWS]
1minnewspaper 单GPU微调NanoChat:自动Agent实现端到端训练研究
03-08 微调 Agent 单GPU
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI引入嵌入式平台:数据集录制、VLA微调与端侧优化
03-07 机器人 嵌入式 VLA
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI引入嵌入式平台:数据集录制、VLA微调与端侧优化
03-06 机器人 嵌入式 VLA
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI移植至嵌入式平台:数据采集、VLA微调与端侧优化
03-06 机器人 VLA 嵌入式
[自动] [BLOGS_PODCASTS]
1minmic 将机器人AI引入嵌入式平台:数据采集、VLA微调与端侧优化
03-06 机器人 嵌入式 VLA
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI引入嵌入式平台:数据集构建、VLA微调与端侧优化
03-06 机器人 VLA 端侧部署
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI引入嵌入式平台:数据集录制、VLA微调与端侧优化
03-05 机器人 VLA 端侧部署
[自动] [BLOGS_PODCASTS]
2minmic 将机器人AI引入嵌入式平台:数据集录制、VLA微调与端侧优化
03-05 机器人 嵌入式 VLA
[自动] [HACKER_NEWS]
1minnewspaper Qwen3.5 微调指南
03-05 Qwen3.5 微调 Fine-tuning
[自动] [ARXIV]
4minschool Speculative Decoding:推测解码加速大模型推理
03-04 Speculative Decoding 推理加速 SSD
[自动] [HACKER_NEWS]
3minnewspaper Qwen3.5 微调指南:基于 Unsloth 的高效训练流程
03-04 Qwen3.5 Unsloth 微调
[自动] [HACKER_NEWS]
1minnewspaper Speculative Decoding:大模型推理加速的投机解码技术
03-04 Speculative Decoding SSD 推理加速
[自动] [HACKER_NEWS]
1minnewspaper 推测性推测解码:一种加速大模型推理的方法
03-04 SSD 推理加速 推测解码
[自动] [HACKER_NEWS]
1minnewspaper 根据硬件资源动态调整大模型规模
03-02 LLM 资源调度 动态调整
[自动] [HACKER_NEWS]
1minnewspaper 根据系统硬件配置自动调整大模型规模
03-02 LLM 硬件适配 资源调度
[自动] [HACKER_NEWS]
1minnewspaper 根据硬件资源动态调整LLM模型规模
03-02 LLM 模型优化 资源调度
[自动] [ARXIV]
4minschool SenCache:基于敏感度感知缓存加速扩散模型推理
03-02 扩散模型 SenCache 推理加速
[自动] [HACKER_NEWS]
1minnewspaper MicroGPT:基于微型Transformer的轻量级语言模型
03-02 MicroGPT Transformer 轻量级模型
2026年二月 48 篇
类型阅读条目
[自动] [HACKER_NEWS]
1minnewspaper 能计算两个10位数加法的最小Transformer模型
02-28 Transformer 算法推理 算术运算
[自动] [BLOGS_PODCASTS]
2minmic 使用 Nano Banana 2 构建图像生成与编辑应用
02-27 Nano Banana 2 图像生成 图像编辑
[自动] [BLOGS_PODCASTS]
2minmic Transformer 架构中的混合专家模型原理与优势
02-26 MoE Transformer 混合专家
[自动] [BLOGS_PODCASTS]
2minmic Transformer架构中的混合专家模型原理与应用
02-26 MoE Transformer 混合专家
[自动] [BLOGS_PODCASTS]
2minmic Transformer中的混合专家模型:架构原理与应用
02-26 MoE Transformer 混合专家模型
[自动] [BLOGS_PODCASTS]
2minmic Transformer架构中的混合专家模型原理与应用
02-26 MoE Transformer 混合专家模型
[自动] [BLOGS_PODCASTS]
2minmic Transformer架构中的混合专家模型原理与应用
02-26 MoE Transformer 混合专家模型
[自动] [BLOGS_PODCASTS]
2minmic Transformer架构中的混合专家模型原理与应用
02-26 Transformer MoE 混合专家模型
[自动] [BLOGS_PODCASTS]
2minmic AI 资讯:中型模型发布凸显闭环效应
02-26 中型模型 闭环效应 模型发布
[自动] [JUEJIN]
2minsticky_note_2 空洞卷积原理:如何解决计算机视觉的精度与视野矛盾
02-26 空洞卷积 计算机视觉 深度学习
[自动] [HACKER_NEWS]
1minnewspaper Mercury 2:基于扩散模型的快速推理大语言模型
02-25 Mercury 2 扩散模型 Diffusion Model
[自动] [HACKER_NEWS]
1minnewspaper Mercury 2:基于扩散模型的快速推理大语言模型
02-25 Mercury 2 扩散模型 推理加速
[自动] [ARXIV]
3minschool 基于Tokenizer的文本语言识别方法研究
02-23 UniLID 语言识别 Tokenizer
[自动] [ARXIV]
4minschool 面向扩散语言模型的感知汇点剪枝方法
02-22 扩散模型 DLM 模型剪枝
[自动] [HACKER_NEWS]
1minnewspaper LLM智能体新增Claws层以增强能力
02-22 LLM 智能体 Claws
[自动] [HACKER_NEWS]
2minnewspaper 误差随时间前向传播机制解析
02-22 误差传播 时间序列 神经网络
[自动] [HACKER_NEWS]
1minnewspaper LLM智能体新增Claws层以增强功能
02-22 LLM 智能体 Claws
[自动] [HACKER_NEWS]
1minnewspaper 迈向通用AI:17k tokens/sec的推理性能路径
02-20 推理性能 Token生成 通用AI
[自动] [HACKER_NEWS]
1minnewspaper 一致性扩散语言模型提速14倍且无损质量
02-20 扩散模型 一致性模型 语言模型
[自动] [HACKER_NEWS]
1minnewspaper 一致性扩散语言模型提速14倍且无损质量
02-20 扩散模型 一致性模型 语言模型
[自动] [HACKER_NEWS]
1minnewspaper 通往普及AI之路:实现每秒1.7万tokens推理
02-20 推理加速 高性能计算 Token吞吐
[自动] [HACKER_NEWS]
1minnewspaper 一致性扩散语言模型提速14倍且无损质量
02-20 扩散模型 一致性模型 语言模型
[自动] [HACKER_NEWS]
1minnewspaper 利用注意力匹配加速 KV 键值对压缩
02-20 KV压缩 注意力机制 推理加速
[自动] [HACKER_NEWS]
3minnewspaper 一致性扩散语言模型提速14倍且无损质量
02-20 扩散模型 一致性模型 语言模型
[自动] [HACKER_NEWS]
4minnewspaper LLM 模型应关注的数据处理与优化策略
02-18 LLM 数据处理 模型优化
[自动] [ARXIV]
4minschool MonarchRT:面向实时视频生成的高效注意力机制
02-15 视频生成 DiT 注意力机制
[自动] [HACKER_NEWS]
5minnewspaper 两种加速大模型推理的技术方法
02-15 LLM 推理加速 KV Cache
[自动] [ARXIV]
4minschool 基于策略上下文蒸馏的大语言模型优化方法
02-14 LLM 蒸馏 上下文学习
[自动] [BLOGS_PODCASTS]
2minmic Codex与Claude支持定制化内核
02-13 Codex Claude 定制化内核
[自动] [BLOGS_PODCASTS]
2minmic Codex 与 Claude 支持构建自定义内核
02-13 Codex Claude 自定义内核
[自动] [HACKER_NEWS]
6minnewspaper 仅改用Harness框架即可提升15个大模型编程能力
02-13 LLM 代码生成 Harness
[自动] [ARXIV]
4minschool Meta-Sel:基于监督元学习的高效上下文学习示例选择方法
02-13 ICL 元学习 示例选择
[自动] [BLOGS_PODCASTS]
4minmic 利用 Hugging Face 与 SageMaker 扩展企业级 LLM 微调
02-10 LLM 微调 Hugging Face
[自动] [HACKER_NEWS]
3minnewspaper 停止生成开始思考:大模型推理范式转变
02-09 推理范式 思维链 CoT
[自动] [ARXIV]
4minschool 强化注意力学习:基于奖励反馈的注意力机制优化方法
02-05 强化学习 注意力机制 多模态
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-05 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-05 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-05 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-04 文本生成图像 模型训练 消融实验
[自动] [HACKER_NEWS]
6minnewspaper 基于对称性泰勒近似实现恒定Token成本注意力机制
02-04 注意力机制 Transformer 泰勒近似
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-04 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文生图模型训练设计:消融实验的经验总结
02-04 文生图 模型训练 消融实验
[自动] [HACKER_NEWS]
7minnewspaper FlashAttention-T:张量化注意力机制优化方案
02-04 FlashAttention 注意力机制 张量化
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-04 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-03 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-03 文本生成图像 模型训练 消融实验
[自动] [BLOGS_PODCASTS]
2minmic 文本生成图像模型训练设计:消融实验的经验总结
02-03 文本生成图像 模型训练 消融实验
[自动] [ARXIV]
4minschool 神经网络转逻辑流以优化边缘计算性能
02-01 边缘计算 神经网络 模型优化
2026年一月 5 篇
类型阅读条目
[自动] [ARXIV]
4minschool 神经网络转逻辑流以优化边缘计算性能
01-31 边缘计算 神经网络 逻辑流
[自动] [ARXIV]
4minschool 神经网络转逻辑流以优化边缘计算
01-30 边缘计算 神经网络 模型优化
[自动] [ARXIV]
4minschool 后训练公平性控制:推荐系统动态公平性单训练框架
01-30 推荐系统 公平性 Cofair
[自动] [HACKER_NEWS]
5minnewspaper 压缩智能体:Agent Skills 技术解析
01-30 Agent LLM 技术解析
[自动] [ARXIV]
4minschool 无需真值!🔥颠覆性校准技术来了!🤯
01-28 模型校准 无监督学习 LLM