目录
可解释性
条目:81
2026年三月
46 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 2min | newspaper
为何AI系统难以自主学习:基于认知科学的视角 03-18
自主学习
认知科学
AI系统 |
[自动]
[HACKER_NEWS] | 1min | newspaper
为何AI系统难以自主学习:认知科学视角的解析 03-18
自主学习
认知科学
AI系统 |
[自动]
[ARXIV] | 3min | school
反事实解释指标与用户感知的一致性研究 03-18
XAI
反事实解释
模型评估 |
[自动]
[ARXIV] | 3min | school
大语言模型道德冷漠现象的机制起源研究 03-17
对齐
AI安全
道德推理 |
[自动]
[ARXIV] | 3min | school
反事实解释指标与用户感知的一致性研究 03-17
可解释性
反事实解释
用户感知 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
LLM可解释性研究:特征归因与数据归因方法解析 03-17
LLM
可解释性
特征归因 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
面向大规模语言模型的交互识别与可解释性研究 03-17
LLM
可解释性
SPEX |
[自动]
[BLOGS_PODCASTS] | 3min | mic
面向大语言模型的大规模交互识别方法 03-17
LLM
可解释性
SPEX |
[自动]
[ARXIV] | 3min | school
FairMed-XGB:贝叶斯优化的多指标可解释框架用于医疗数据人口公平性 03-17
医疗AI
公平性
XGBoost |
[自动]
[BLOGS_PODCASTS] | 2min | mic
面向大规模语言模型的交互识别与归因分析 03-16
LLM
可解释性
归因分析 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
LLM可解释性研究:规模化场景下的交互识别方法 03-16
LLM
可解释性
SPEX |
[自动]
[BLOGS_PODCASTS] | 2min | mic
识别LLM大规模交互:特征与数据归因 03-16
LLM
可解释性
特征归因 |
[自动]
[ARXIV] | 4min | school
高维混沌中的潜在颜色子空间涌现秩序 03-16
FLUX.1
文生图
VAE |
[自动]
[ARXIV] | 3min | school
潜在色彩子空间:高维混沌中的涌现秩序 03-15
文生图
FLUX.1
VAE |
[自动]
[BLOGS_PODCASTS] | 2min | mic
大规模识别LLM交互:提升可解释性与安全性的归因方法 03-15
LLM
可解释性
归因分析 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
识别大模型交互机制以提升可解释性与安全性 03-14
LLM
可解释性
SPEX |
[自动]
[BLOGS_PODCASTS] | 2min | mic
杰西·泰勒:AI与数理科学的双向桥梁与共同进步 03-13
AI for Science
跨学科融合
可解释性 |
[自动]
[ARXIV] | 3min | school
AI能否像艺术史学家一样解读视觉语言模型的艺术风格识别机制 03-12
VLM
视觉语言模型
艺术风格 |
[自动]
[BLOGS_PODCASTS] | 1min | mic
杰西·塞勒:AI与数理科学的协同演进愿景 03-12
AI for Science
跨学科融合
物理信息机器学习 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
杰西·泰勒:AI与数理科学的双向融合与未来愿景 03-12
AI for Science
可解释性
XAI |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强安全关键领域可信度 03-10
可解释性
XAI
安全关键 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强关键领域可信度 03-10
可解释性
黑箱问题
反事实解释 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型在医疗与自动驾驶等场景的可解释性 03-10
可解释性
XAI
医疗AI |
[自动]
[BLOGS_PODCASTS] | 2min | mic
新方法提升AI模型可解释性 助力医疗与自动驾驶可信度评估 03-10
可解释性
模型评估
医疗AI |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型在医疗与自动驾驶场景中的可解释性 03-10
XAI
可解释性
医疗AI |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强医疗与自动驾驶预测可信度 03-10
可解释性
XAI
医疗AI |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强安全关键应用的可信度 03-10
可解释性
XAI
安全关键应用 |
[自动]
[ARXIV] | 3min | school
基于贡献分解的神经网络计算因果解释 03-10
神经网络
可解释性
因果推断 |
[自动]
[ARXIV] | 3min | school
分层工业需求预测:时序与不确定性解释 03-10
时序预测
可解释性
需求预测 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强安全关键应用可信度 03-09
可解释性
XAI
安全关键应用 |
[自动]
[ARXIV] | 3min | school
神经网络计算的因果解释:基于贡献分解方法 03-09
神经网络
可解释性
因果推断 |
[自动]
[ARXIV] | 3min | school
分层工业需求预测:时序与不确定性解释 03-09
时间序列预测
可解释性
分层预测 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
新方法提升AI模型可解释性以增强关键领域信任度 03-09
可解释性
XAI
模型信任 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强安全关键应用可信度 03-09
可解释性
模型信任度
安全关键应用 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强安全关键应用的可信度 03-09
可解释性
XAI
安全关键应用 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
提升AI模型解释能力以增强安全关键应用可信度 03-09
可解释性
XAI
模型安全 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
OpenAI研究:推理模型思维链难控强化可监控性 03-07
OpenAI
CoT
思维链 |
[自动]
[ARXIV] | 3min | school
TaxonRL:基于中间奖励强化学习的可解释细粒度视觉推理 03-06
TaxonRL
强化学习
细粒度分类 |
[自动]
[ARXIV] | 3min | school
TaxonRL:基于中间奖励的可解释细粒度视觉推理 03-05
TaxonRL
强化学习
细粒度视觉推理 |
[自动]
[ARXIV] | 3min | school
自监督语音特征在说话人特性维度上的可解释性研究 03-04
自监督学习
语音识别
WavLM |
[自动]
[ARXIV] | 3min | school
神经机制稀疏化助力高效发现近似因果抽象 03-03
因果抽象
神经机制稀疏化
结构化剪枝 |
[自动]
[ARXIV] | 3min | school
通过神经机制稀疏化高效发现近似因果抽象 03-02
因果抽象
结构化剪枝
SCM |
[自动]
[HACKER_NEWS] | 1min | newspaper
语言模型存在可独立调控的个性子网络 03-02
LLM
个性子网络
模型调控 |
[自动]
[HACKER_NEWS] | 3min | newspaper
AI编写代码时,终端会话记录是否应纳入提交 03-02
AI编程
终端会话
Git提交 |
[自动]
[HACKER_NEWS] | 1min | newspaper
决策树:嵌套决策规则的强大效能 03-01
决策树
机器学习
可解释性 |
[自动]
[HACKER_NEWS] | 1min | newspaper
决策树:嵌套决策规则的强大效能 03-01
决策树
机器学习
分类算法 |
2026年二月
34 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 1min | newspaper
能对齐十位数加法的最小Transformer模型 02-28
Transformer
算法
算术 |
[自动]
[ARXIV] | 2min | school
缓解可读性代价:基于解耦证明者-验证者博弈的方法 02-27
LLM
可解释性
模型评估 |
[自动]
[HACKER_NEWS] | 1min | newspaper
用概念代数引导可解释的语言模型 02-26
可解释性
概念代数
模型控制 |
[自动]
[ARXIV] | 4min | school
行为学习:从数据中学习分层优化结构 02-25
行为学习
分层优化
可解释性 |
[自动]
[ARXIV] | 4min | school
行为学习:从数据中学习分层优化结构 02-24
行为学习
分层优化
可解释性 |
[自动]
[HACKER_NEWS] | 2min | newspaper
Steerling-8B:可解释自身生成任一 token 的语言模型 02-24
Steerling-8B
可解释性
LLM |
[自动]
[HACKER_NEWS] | 2min | newspaper
Steerling-8B:可解释自身生成任一 Token 的语言模型 02-24
Steerling-8B
可解释性
LLM |
[自动]
[HACKER_NEWS] | 2min | newspaper
Steerling-8B:可解释自身生成任一 Token 的语言模型 02-24
Steerling-8B
可解释性
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
Steerling-8B:可解释自身生成任一 Token 的语言模型 02-24
Steerling-8B
可解释性
LLM |
[自动]
[HACKER_NEWS] | 1min | newspaper
Steerling-8B:可解释自身生成任一 Token 的语言模型 02-24
Steerling-8B
可解释性
LLM |
[自动]
[BLOGS_PODCASTS] | 2min | mic
MIT新方法根除漏洞并提升大语言模型安全性与性能 02-23
MIT
LLM
模型安全 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
MIT新方法揭示大模型隐藏偏差并提升安全性 02-23
MIT
LLM
模型安全 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
MIT新方法根除漏洞并提升LLM安全性与性能 02-21
MIT
LLM
模型安全 |
[自动]
[HACKER_NEWS] | 1min | newspaper
大语言模型推理失败机制分析 02-21
LLM
推理
逻辑错误 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
麻省理工学院新方法提升大语言模型安全性与性能 02-21
MIT
LLM
可解释性 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
MIT新方法根除漏洞并提升大语言模型安全性与性能 02-20
LLM
MIT
模型安全 |
[自动]
[ARXIV] | 3min | school
因果性是可解释性泛化的关键 02-20
可解释性
因果推断
泛化性 |
[自动]
[ARXIV] | 2min | school
因果性是可解释性泛化的关键 02-19
因果推断
可解释性
LLM |
[自动]
[BLOGS_PODCASTS] | 2min | mic
MIT新方法根除漏洞并提升大语言模型安全性与性能 02-19
MIT
LLM
模型安全 |
[自动]
[BLOGS_PODCASTS] | 1min | mic
2026年负责任人工智能进展报告 02-19
负责任AI
AI安全
伦理 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
2026年度负责任人工智能进展报告 02-19
负责任AI
AI安全
伦理 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
2026年负责任AI进展报告 02-18
负责任AI
AI治理
AI伦理 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
2026年度负责任人工智能进展报告 02-18
负责任AI
AI安全
模型治理 |
[自动]
[HACKER_NEWS] | 4min | newspaper
语义消融实验:揭示AI写作为何平庸同质化 02-17
语义消融
AI写作
同质化 |
[自动]
[ARXIV] | 4min | school
过程监督多智能体强化学习提升临床推理可靠性 02-17
多智能体
强化学习
临床推理 |
[自动]
[ARXIV] | 2min | school
迈向可解释联邦学习:理解差分隐私的影响 02-12
联邦学习
差分隐私
可解释性 |
[自动]
[ARXIV] | 3min | school
迈向可解释联邦学习:理解差分隐私的影响 02-11
联邦学习
差分隐私
可解释性 |
[自动]
[ARXIV] | 4min | school
学习大模型神经元激活的生成式元模型 02-09
神经元激活
生成式模型
元模型 |
[自动]
[BLOGS_PODCASTS] | 3min | mic
Goodfire AI 打造机械可解释性标杆并发布 API 02-09
Goodfire AI
可解释性
Mechanistic Interpretability |
[自动]
[BLOGS_PODCASTS] | 3min | mic
首个机制可解释性前沿实验室:Goodfire AI 团队专访 02-07
机制可解释性
Goodfire AI
AI安全 |
[自动]
[ARXIV] | 4min | school
研究揭示推理大模型生成虚假新闻的内在机制 02-06
LLM
CoT
虚假新闻 |
[自动]
[ARXIV] | 3min | school
CoT非真理链:推理LLM生成假新闻的实证内部分析 02-05
LLM
CoT
假新闻 |
[自动]
[ARXIV] | 4min | school
DeALOG:基于日志中介的去中心化多智能体推理框架 02-03
Multi-Agent
去中心化
日志中介 |
[自动]
[ARXIV] | 4min | school
ExplainerPFN:面向表格数据的无模型零样本特征重要性估计 02-02
ExplainerPFN
TabPFN
表格数据 |
2026年一月
1 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
🚀ctELM:用ELM解码临床试验嵌入!精准操控💡 01-28
ctELM
临床试验
嵌入空间 |
无匹配条目