目录
对抗攻击
条目:19
2026年四月
1 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 1min | school
服务器学习驱动的联邦学习鲁棒性提升 04-06
联邦学习
服务器学习
鲁棒性 |
2026年三月
10 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 2min | newspaper
RAG系统文档投毒攻击:如何污染AI数据源 03-13
RAG
LLM
提示注入 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RAG系统文档投毒攻击:如何污染AI数据源 03-13
RAG
数据投毒
提示注入 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RAG系统文档投毒攻击:如何污染AI数据源 03-13
RAG
数据投毒
提示词注入 |
[自动]
[HACKER_NEWS] | 2min | newspaper
RAG系统文档投毒攻击:如何污染AI知识源 03-13
RAG
提示词注入
数据投毒 |
[自动]
[HACKER_NEWS] | 1min | newspaper
RAG系统文档投毒攻击:如何通过污染数据源破坏AI 03-13
RAG
数据投毒
提示词注入 |
[自动]
[HACKER_NEWS] | 2min | newspaper
RAG系统文档投毒攻击:攻击者如何污染AI数据源 03-12
RAG
LLM
数据投毒 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
IH-Challenge训练提升前沿大模型指令层级与安全性 03-11
指令层级
IH-Challenge
提示词注入 |
[自动]
[BLOGS_PODCASTS] | 2min | mic
IH-Challenge提升前沿大模型指令层级与抗攻击能力 03-10
LLM
指令层级
IH-Challenge |
[自动]
[ARXIV] | 3min | school
审查大模型作为秘密知识提取的自然测试床 03-09
大模型安全
知识提取
审查机制 |
[自动]
[HACKER_NEWS] | 1min | newspaper
LLM生成文本检测:原理、方法与技术挑战 03-01
LLM
文本检测
AI安全 |
2026年二月
7 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[HACKER_NEWS] | 1min | newspaper
逆向工程神经网络:技术挑战与防御机制解析 02-27
模型提取
逆向工程
模型安全 |
[自动]
[ARXIV] | 3min | school
现成图像模型可攻破图像保护方案 02-27
图像保护
对抗攻击
Stable Diffusion |
[自动]
[HACKER_NEWS] | 1min | newspaper
53 款模型参与“洗车”基准测试 02-23
基准测试
模型评估
LLM |
[自动]
[ARXIV] | 3min | school
细粒度细节定向提升黑盒LVLM攻击能力 02-23
LVLM
黑盒攻击
对抗攻击 |
[自动]
[ARXIV] | 3min | school
通过细粒度细节定向提升黑盒LVLM攻击能力 02-20
对抗攻击
LVLM
黑盒攻击 |
[自动]
[HACKER_NEWS] | 1min | newspaper
不要盲目信任盐值:AI摘要、多语言安全与大模型护栏 02-20
LLM
安全护栏
AI摘要 |
[自动]
[ARXIV] | 3min | school
基于扩散模型从面部嵌入实现真实人脸重建 02-16
扩散模型
人脸重建
隐私保护 |
2026年一月
1 篇
| 类型 | 阅读 | 条目 |
|---|---|---|
[自动]
[ARXIV] | 4min | school
🛡️多模态大模型鲁棒性突破!特征空间平滑实现可证防御! 01-25
多模态大模型
鲁棒性
对抗攻击 |
无匹配条目