terminal

AI Stack

rss_feed
SYS_STABLE
目录

对抗攻击

条目:19
2026年四月 1 篇
类型阅读条目
[自动] [ARXIV]
1minschool 服务器学习驱动的联邦学习鲁棒性提升
04-06 联邦学习 服务器学习 鲁棒性
2026年三月 10 篇
类型阅读条目
[自动] [HACKER_NEWS]
2minnewspaper RAG系统文档投毒攻击:如何污染AI数据源
03-13 RAG LLM 提示注入
[自动] [HACKER_NEWS]
1minnewspaper RAG系统文档投毒攻击:如何污染AI数据源
03-13 RAG 数据投毒 提示注入
[自动] [HACKER_NEWS]
1minnewspaper RAG系统文档投毒攻击:如何污染AI数据源
03-13 RAG 数据投毒 提示词注入
[自动] [HACKER_NEWS]
2minnewspaper RAG系统文档投毒攻击:如何污染AI知识源
03-13 RAG 提示词注入 数据投毒
[自动] [HACKER_NEWS]
1minnewspaper RAG系统文档投毒攻击:如何通过污染数据源破坏AI
03-13 RAG 数据投毒 提示词注入
[自动] [HACKER_NEWS]
2minnewspaper RAG系统文档投毒攻击:攻击者如何污染AI数据源
03-12 RAG LLM 数据投毒
[自动] [BLOGS_PODCASTS]
2minmic IH-Challenge训练提升前沿大模型指令层级与安全性
03-11 指令层级 IH-Challenge 提示词注入
[自动] [BLOGS_PODCASTS]
2minmic IH-Challenge提升前沿大模型指令层级与抗攻击能力
03-10 LLM 指令层级 IH-Challenge
[自动] [ARXIV]
3minschool 审查大模型作为秘密知识提取的自然测试床
03-09 大模型安全 知识提取 审查机制
[自动] [HACKER_NEWS]
1minnewspaper LLM生成文本检测:原理、方法与技术挑战
03-01 LLM 文本检测 AI安全
2026年二月 7 篇
类型阅读条目
[自动] [HACKER_NEWS]
1minnewspaper 逆向工程神经网络:技术挑战与防御机制解析
02-27 模型提取 逆向工程 模型安全
[自动] [ARXIV]
3minschool 现成图像模型可攻破图像保护方案
02-27 图像保护 对抗攻击 Stable Diffusion
[自动] [HACKER_NEWS]
1minnewspaper 53 款模型参与“洗车”基准测试
02-23 基准测试 模型评估 LLM
[自动] [ARXIV]
3minschool 细粒度细节定向提升黑盒LVLM攻击能力
02-23 LVLM 黑盒攻击 对抗攻击
[自动] [ARXIV]
3minschool 通过细粒度细节定向提升黑盒LVLM攻击能力
02-20 对抗攻击 LVLM 黑盒攻击
[自动] [HACKER_NEWS]
1minnewspaper 不要盲目信任盐值:AI摘要、多语言安全与大模型护栏
02-20 LLM 安全护栏 AI摘要
[自动] [ARXIV]
3minschool 基于扩散模型从面部嵌入实现真实人脸重建
02-16 扩散模型 人脸重建 隐私保护
2026年一月 1 篇
类型阅读条目
[自动] [ARXIV]
4minschool 🛡️多模态大模型鲁棒性突破!特征空间平滑实现可证防御!
01-25 多模态大模型 鲁棒性 对抗攻击