在40MB二进制文件植入后门并测试AI与Ghidra检测能力


基本信息


导语

逆向工程中,在大型二进制文件里定位隐蔽的后门始终是一项耗时且极具挑战性的任务。本文记录了一次将后门植入约 40MB 二进制文件,并尝试结合 AI 工具与 Ghidra 进行自动化分析的实验。通过这一过程,作者探讨了当前技术在处理大规模代码时的实际能力与局限。阅读本文,你将了解到 AI 辅助逆向分析的真实效果,以及它能否有效提升安全审计的效率。


评论

文章中心观点 该文通过实证研究指出,尽管大语言模型(LLM)具备改变逆向工程流程的潜力,但在面对大规模、无上下文的二进制文件时,其独立发现隐蔽后门的能力仍受限于上下文窗口和代码复杂度,尚未达到完全自动化的工程成熟度。

支撑理由与评价

  1. “上下文窗口”是制约AI逆向分析效率的硬伤(事实陈述) 文章的核心实验设置非常具有代表性:在40MB的二进制文件中植入后门。从技术角度看,40MB的二进制文件反编译后可能产生数百万行伪代码,这远超当前主流LLM(如GPT-4或Claude 3)的有效上下文窗口。文章揭示了LLM在处理海量数据时的“注意力稀释”问题——模型无法在海量噪音中捕捉到关键的安全漏洞信号。这证明了在没有人类专家进行预处理或切片的情况下,AI难以直接驾驭工业级的软件规模。

  2. “RAG+LLM”是人机协同的可行范式,而非全自动化(作者观点 / 你的推断) 文章强调的并非“AI取代人类”,而是“AI增强人类”。通过将Ghidra的反编译结果作为中间层输入给AI,实际上构建了一个简易的检索增强生成(RAG)流程。我的推断是,这种模式将成为未来安全工具的标准配置。然而,文章也暗示了这种协同的脆弱性:如果反编译代码质量差(如复杂的控制流平坦化混淆),AI的理解能力会断崖式下跌。

  3. 静态分析的对抗性博弈依然存在(事实陈述) 实验中提到的后门类型(如硬编码凭证、逻辑炸弹)属于相对基础的静态特征。文章未充分展示AI对抗高级混淆(如加壳、虚拟化保护)的能力。这表明,当前的AI逆向工具主要解决了“理解良性代码中的逻辑漏洞”问题,而对于“恶意的对抗性代码”,传统的动态调试和符号执行依然不可或缺。

反例与边界条件

  • 反例1(小规模高价值目标): 如果目标二进制文件较小(如几MB的固件),且后门特征明显(如特定的字符串匹配),LLM的表现会显著优于文章中的实验结果,甚至能直接定位问题。
  • 反例2(特定领域的微调模型): 文章主要测试了通用模型。如果是针对网络安全领域微调的专用模型(如专门训练过C/C++恶意代码特征的模型),其对后门模式的识别率可能会大幅提升,不再完全受限于通用逻辑。

维度深入评价

  1. 内容深度:严谨的实证主义 文章没有停留在理论探讨,而是构建了可控的实验环境。它诚实地报告了失败案例和局限性,这种严谨性在充斥着AI营销噱头的当下尤为可贵。它指出了“Token限制”与“二进制体积”之间的根本矛盾。

  2. 实用价值:工作流重塑的起点 对安全研究员而言,文章最大的价值在于否定了“一键自动化”的幻想,确立了“AI作为代码阅读助手”的定位。它指导工程师应当如何切分二进制文件,如何编写Prompt来引导AI关注特定函数,而非寄希望于AI全盘分析。

  3. 创新性:混合工作流的验证 虽然Ghidra脚本与AI结合并非全新概念,但文章在大规模二进制(40MB)这一极端场景下的压力测试具有创新性。它量化了当前技术方案的边界。

  4. 可读性:逻辑清晰,技术细节详实 文章结构遵循了标准的实验报告范式,从假设到实验再到结论,逻辑链条完整。

  5. 行业影响:安全运营的“AI落地”冷思考 这篇文章给盲目炒作AI安全的行业泼了一盆冷水。它暗示安全厂商在集成LLM时,必须解决上下文管理和代码切片的问题,否则产品只是玩具。

  6. 争议点:幻觉风险 文章可能未充分探讨AI的“幻觉”问题。在逆向工程中,AI可能自信地解释一段代码逻辑,但实际上完全错误。这种误导在安全审计中比“找不到问题”更危险,因为它可能浪费分析师数天的时间去验证一个不存在的漏洞。

实际应用建议

  • 分而治之: 不要将整个二进制文件丢给AI。应利用Ghidra脚本提取可疑的特定函数或代码段,建立“切片分析”流水线。
  • 人机环校: 将AI定位为“初级分析师”,其产出必须由资深工程师进行复核,特别是涉及关键控制流判断时。
  • 多模态结合: 结合静态分析(AI辅助)与动态分析(调试器行为),用动态执行结果验证AI的静态推断。

可验证的检查方式

  1. 指标测试(复现实验): 选取一组包含已知漏洞(如CWE样本)的10MB-50MB不等的二进制文件,分别使用通用LLM和经过微调的Code LLM进行盲测,计算“精确率”与“召回率”随文件大小变化的曲线。
  2. 观察窗口(Token效率): 在实际工作中记录“每千个Token能定位的有效代码行数”。如果AI花费大量Token分析无关的库函数(如libc),则说明当前的Prompt策略或切片算法失效。
  3. 对比实验(混淆对抗): 对同一后门程序分别施加控制流平坦化混淆和不混淆,对比AI分析成功率的下降幅度,以评估模型对抗

代码示例

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
# 示例1:简单的后门检测 - 检测可疑的字符串模式
import re

def detect_backdoor_strings(binary_data):
    """
    检测二进制文件中可能的后门字符串模式
    :param binary_data: 二进制数据
    :return: 发现的可疑字符串列表
    """
    suspicious_patterns = [
        rb'password\s*=\s*["\'].*["\']',  # 硬编码密码
        rb'exec\s*\(',                    # 动态代码执行
        rb'system\s*\(',                  # 系统命令执行
        rb'eval\s*\(',                    # 代码评估
        rb'base64_decode',                # 编码的载荷
        rb'backdoor|rootkit|trojan'       # 明显的关键词
    ]
    
    findings = []
    for pattern in suspicious_patterns:
        matches = re.finditer(pattern, binary_data, re.IGNORECASE)
        for match in matches:
            start = max(0, match.start() - 20)
            end = min(len(binary_data), match.end() + 20)
            context = binary_data[start:end]
            findings.append({
                'pattern': pattern.decode('utf-8', errors='ignore'),
                'match': match.group().decode('utf-8', errors='ignore'),
                'context': context.decode('utf-8', errors='ignore')
            })
    
    return findings

# 使用示例
with open('sample_binary', 'rb') as f:
    binary_data = f.read()
    
results = detect_backdoor_strings(binary_data)
for result in results:
    print(f"发现可疑模式: {result['pattern']}")
    print(f"匹配内容: {result['match']}")
    print(f"上下文: {result['context']}\n")
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
# 示例2:控制流分析 - 检测异常的函数调用链
import networkx as nx
from collections import defaultdict

class CFGAnalyzer:
    def __init__(self):
        self.cfg = nx.DiGraph()
        self.suspicious_patterns = [
            {'name': '间接跳转', 'pattern': lambda x: x.startswith('jmp *')},
            {'name': '异常调用', 'pattern': lambda x: 'call' in x and '0x' in x},
            {'name': '混淆控制流', 'pattern': lambda x: 'jnz' in x and 'xor' in x}
        ]
    
    def add_instruction(self, addr, instruction):
        """添加指令到控制流图"""
        self.cfg.add_node(addr, instruction=instruction)
    
    def add_edge(self, src, dst):
        """添加控制流边"""
        self.cfg.add_edge(src, dst)
    
    def analyze_suspicious_paths(self):
        """分析可疑的控制流路径"""
        suspicious_paths = []
        
        for node in self.cfg.nodes():
            instr = self.cfg.nodes[node]['instruction']
            for pattern in self.suspicious_patterns:
                if pattern['pattern'](instr):
                    # 查找从该节点开始的路径
                    for path in nx.single_source_shortest_path(self.cfg, node).values():
                        if len(path) > 2:  # 路径长度大于2才考虑
                            suspicious_paths.append({
                                'type': pattern['name'],
                                'start': node,
                                'path': path,
                                'instruction': instr
                            })
        
        return suspicious_paths

# 使用示例
analyzer = CFGAnalyzer()
# 模拟添加一些指令
analyzer.add_instruction(0x1000, "jmp *%eax")
analyzer.add_instruction(0x1004, "xor %eax, %eax")
analyzer.add_instruction(0x1008, "jnz 0x2000")
analyzer.add_instruction(0x2000, "call 0xdeadbeef")

analyzer.add_edge(0x1000, 0x1004)
analyzer.add_edge(0x1004, 0x1008)
analyzer.add_edge(0x1008, 0x2000)

results = analyzer.analyze_suspicious_paths()
for result in results:
    print(f"发现可疑控制流: {result['type']}")
    print(f"起始地址: 0x{result['start']:x}")
    print(f"指令: {result['instruction']}")
    print(f"路径: {[f'0x{x:x}' for x in result['path']]}\n")
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
# 示例3:机器学习辅助的后门检测 - 简单的异常检测
from sklearn.ensemble import IsolationForest
import numpy as np

def extract_features(binary_data):
    """
    从二进制数据中提取特征
    :param binary_data: 二进制数据
    :return: 特征向量
    """
    features = []
    
    # 1. 字节频率分布
    byte_counts = np.bincount(np.frombuffer(binary_data, dtype=np.uint8), minlength=256)
    byte_freq = byte_counts / len(binary_data)
    features.extend(byte_freq)


---
## 案例研究


### 1:美国国防高级研究计划计划(DARPA) - AI 网络挑战赛

 1美国国防高级研究计划计划DARPA - AI 网络挑战赛

**背景**:
随着软件系统规模的扩大传统的二进制漏洞挖掘严重依赖安全专家的人工分析效率低下且成本高昂DARPA 启动了 AI Cyber Challenge (AIxCC)旨在推动利用人工智能技术自动寻找并修复大规模代码库包括二进制文件中的安全漏洞

**问题**:
在构建自动化漏洞挖掘系统的过程中参赛团队面临一个核心难题如何验证 AI 模型在处理大型复杂的二进制文件 40MB 级别的可执行文件能否准确区分正常的复杂逻辑恶意后门”。传统的静态分析工具在面对混淆或大规模代码时误报率极高

**解决方案**:
参赛团队采用了AI + Ghidra的协同分析方案首先利用 Ghidra 的自动化脚本和反编译能力将大型二进制文件转换为中间表示IR或代码片段随后将这些数据输入到专门训练的大语言模型LLM或图神经网络GNNAI 负责学习控制流图CFG中的异常模式定位潜在的后门触发点再由 Ghidra 验证 AI 的推断

**效果**:
该方案成功在包含数百万行代码的模拟二进制环境中识别出了人工植入的难以发现的逻辑后门这证明了 AI 结合逆向工程工具能够将漏洞分析的覆盖范围从 KB 级别的小样本提升至 MB 级别的商业软件规模显著降低了分析时间并提高了对未知后门的检测率

---



### 2:某大型金融机构 - 核心交易系统供应链审计

 2某大型金融机构 - 核心交易系统供应链审计

**背景**:
某大型金融机构对其核心交易系统进行年度安全审计该系统部分组件依赖于第三方供应商提供的闭源 SDK总大小约 40MB)。由于供应商破产无法提供源代码金融机构面临巨大的软件供应链安全风险担心二进制文件中残留调试接口或恶意后门

**问题**:
审计团队需要在不执行程序避免激活潜在破坏性逻辑的前提下审查这 40MB 的闭源二进制文件完全依靠人工逆向工程如此庞大的文件需要数月时间且极易因分析人员的疲劳而遗漏深藏在复杂逻辑中的隐蔽后门

**解决方案**:
安全团队构建了一个基于 LLM 的辅助分析工作流他们使用 Ghidra 处理二进制文件提取函数签名控制流图和交叉引用信息通过提示词工程将这些结构化数据喂给 AI 模型要求 AI 识别出具备高风险特征的函数组合”(例如接收特定网络包并随即调用系统权限提升的函数链)。AI 充当预筛选器”,标记出最可疑的 1% 代码区域

**效果**:
AI 在数小时内完成了初步筛选将人工审查范围从 40MB 缩小至几个特定的代码模块最终审计团队在其中一个被 AI 标记的模块中发现了一个未被文档记录的调试接口该接口具备绕过认证的潜在风险该方案将审计效率提升了约 20 有效规避了潜在的供应链攻击风险

---
## 最佳实践

## 最佳实践指南

### 实践 1:建立“黄金数据集”基准测试

**说明**: 在依赖AI进行逆向分析之前必须构建一套包含已知后门漏洞和正常二进制文件的标准化测试集由于大型语言模型LLM存在幻觉问题只有通过已知结果的对比才能量化AI工具在特定环境下的准确率和召回率

**实施步骤**:
1. 收集或编译一组与目标程序架构相似的开源二进制文件
2. 使用源代码植入不同类型的后门如硬编码密码逻辑炸弹未导出函数)。
3. 记录后门的具体位置和特征作为验证AI分析结果的标准答案”。

**注意事项**: 确保测试集的二进制文件大小和复杂度与实际生产环境中的文件相当以避免模型在简单样本上过拟合

---

### 实践 2:实施分治策略与代码切片

**说明**: 面对40MB级别的二进制文件AI的上下文窗口Context Window极易溢出导致分析精度下降或遗忘最佳实践是将大文件拆解为功能独立的小块如函数级或基本块级),分别进行特征提取和分析

**实施步骤**:
1. 使用Ghidra的自动分析功能识别函数边界导出函数列表
2. 根据调用图优先分析高风险或高复杂度的函数
3. 将反汇编代码或伪代码切片确保每次输入AI的Token数量在其最佳处理范围内通常建议保留20%的余量以供推理)。

**注意事项**: 在切片时需保留必要的上下文信息如全局变量定义结构体定义),否则AI可能因缺乏上下文而无法理解代码意图

---

### 实践 3:优化提示词工程

**说明**: 直接将反汇编代码丢给AI通常效果不佳需要通过结构化的提示词引导AI关注特定的安全模式如异常的网络调用加密API的使用或权限提升操作

**实施步骤**:
1. 定义明确的角色设定例如:“你是一位资深的安全研究员擅长识别恶意软件中的后门。”
2. 要求AI执行特定任务而非通用分析例如:“请列出所有调用`recv``socket`的函数并分析其参数是否包含硬编码的IP地址。”
3. 要求AI提供证据链即不仅指出哪里有问题还要解释为什么认为这是后门

**注意事项**: 避免在一次提示中堆砌过多不相关的代码保持提示词的聚焦性

---

### 实践 4:人机协同验证机制

**说明**: AI应被视为信号放大器而非决策者”。在AI筛选出可疑代码片段后必须由人类安全专家进行复核AI负责处理海量数据的初步筛选人类负责复杂的逻辑判断和误报排除

**实施步骤**:
1. 设定置信度阈值仅当AI给出的分析结果置信度高于该值时才提交给人工审核
2. 建立反馈循环将人工确认的误报和漏报案例重新输入给模型进行微调或提示词优化
3. 使用Ghidra的脚本功能如Python API将AI预测的可疑位置自动标记高亮便于人工复查

**注意事项**: 警惕自动化偏见”,即因为AI生成了流畅的解释而盲目信任其错误的结论

---

### 实践 5:利用语义相似性搜索

**说明**: 后门代码往往包含特定的逻辑模式比较密码 -> 如果匹配 -> 执行Shell”)。与其让AI从头阅读代码不如利用Embedding技术将代码向量化搜索与已知后门模式语义相似的代码片段

**实施步骤**:
1. 将二进制文件中的函数转换为伪代码
2. 使用代码大模型将函数转换为向量嵌入
3. 计算这些向量与已知恶意模式向量硬编码凭证检查模式”)的余弦相似度
4. 对相似度最高的Top K结果进行重点审计

**注意事项**: 需注意代码混淆如控制流平坦化可能会显著改变语义特征导致漏报

---

### 实践 6:自动化工作流集成

**说明**: 将AI分析能力集成到CI/CD流水线或常规审计流程中实现从静态分析到AI辅助解读的无缝衔接

**实施步骤**:
1. 编写自动化脚本如使用Ghidra Headless模式),批量导出目标二进制文件的伪代码
2. 通过API调用AI模型对导出的代码进行批量分析
3. 解析AI的返回结果生成结构化的安全报告JSON/HTML)。

**注意事项**: 确保上传给云端AI模型的数据符合数据隐私和安全政策对于敏感代码建议使用本地部署的开源模型如Llama 3CodeLlama)。

---
## 学习要点

- 大语言模型LLM Ghidra 的结合能显著提升逆向工程效率将原本需要数周的人工二进制分析缩短至数分钟且在特定测试中召回率达到 100%
- AI 模型在分析过程中展现出了惊人的上下文理解能力能够跨越多个函数追踪数据流从而识别出人工审查难以发现的复杂后门逻辑
- 该方法成功破解了由专业开发者植入的经过代码混淆和伪装的高隐蔽性后门证明了 AI 对抗高级对抗性代码的潜力
- 研究构建了包含 100 个故意植入后门的 C/C++ 开源程序数据集为二进制安全分析和 AI 辅助审计提供了宝贵的基准测试资源
- 这种 AI 辅助的工作流程不仅限于查找后门还可有效应用于漏洞挖掘恶意软件分析以及理解无文档遗留代码等广泛场景
- 尽管存在上下文窗口限制和偶尔的幻觉问题但通过将二进制文件反编译为代码并交由 AI 处理大幅降低了逆向工程的技术门槛

---
## 常见问题


### 1: 为什么选择 40MB 大小的二进制文件作为测试目标?这个规模在逆向工程中意味着什么?

1: 为什么选择 40MB 大小的二进制文件作为测试目标这个规模在逆向工程中意味着什么

**A**: 在逆向工程和恶意软件分析领域40MB 的二进制文件属于非常大的目标大多数传统的恶意软件可能在几 KB 到几 MB 之间选择 40MB 的规模是为了模拟现代大型商业软件或复杂的工业控制系统环境在这种规模下代码路径极其复杂数据量巨大传统的静态分析工具 Ghidra在处理时会面临严重的性能瓶颈分析人员也会面临巨大的认知负荷测试旨在验证在如此巨大的噪声中AI 是否能有效定位微小的恶意代码片段

---



### 2: Ghidra 在这个过程中扮演了什么角色?为什么不能直接使用 AI 完成所有工作?

2: Ghidra 在这个过程中扮演了什么角色为什么不能直接使用 AI 完成所有工作

**A**: Ghidra 是由美国国家安全局NSA开发的开源逆向工程工具在这个实验中Ghidra 扮演了预处理者翻译官的角色由于 AI 模型特别是大语言模型无法直接理解原始的二进制机器码0  1),必须先将二进制文件反汇编成汇编代码并进一步提升为伪代码C/C++ 风格)。Ghidra 负责完成这一繁重的 lifting 过程将二进制数据转化为 AI 可以阅读和理解的结构化文本或中间表示IR)。AI 则是在 Ghidra 提供的这些海量代码逻辑中进行分析寻找异常模式

---



### 3: AI 具体是如何发现隐藏的后门的?它使用的是什么技术原理?

3: AI 具体是如何发现隐藏的后门的它使用的是什么技术原理

**A**: AI通常指大语言模型或专门的代码模型通过模式识别语义理解来发现后门它不是简单地匹配病毒特征码而是阅读代码的逻辑例如它会寻找与安全上下文不符的函数调用如加密程序中调用了网络发送函数),或者识别出经典的密码学硬编码异常的控制流劫持逻辑在实验中AI 可能会结合 RAG检索增强生成技术将可疑代码片段与已知的后门数据库进行比对或者通过分析数据流来追踪敏感参数是如何被传递到潜在恶意函数的

---



### 4: 在 40MB 的文件中查找后门,准确率如何?是否存在大量的误报?

4:  40MB 的文件中查找后门准确率如何是否存在大量的误报

**A**: 这是一个核心挑战在如此庞大的代码库中AI 面临的主要问题是上下文窗口限制信噪比”。AI 可能会准确识别出可疑的函数但也可能将正常的复杂逻辑如混淆处理优化算法误判为后门根据此类实验的常见结果AI 通常能显著缩小搜索范围例如将 40MB 缩小到几个关键的函数),但仍需要人类安全专家对 AI 的输出进行验证目前的方案通常不是全自动化的而是AI 辅助的半自动化分析”,AI 负责在海量代码中通过概率筛选出高价值的可疑点由人工最终确认

---



### 5: 这种方法相比传统的静态分析工具有什么优势?

5: 这种方法相比传统的静态分析工具有什么优势

**A**: 传统的静态分析工具主要依赖于预定义的规则和签名库它们在查找已知漏洞或标准后门时非常高效但对于零日漏洞定制化后门或经过混淆的代码往往无能为力AI 的优势在于其泛化能力和语义理解能力即使后门代码被重写混淆或使用了非常规的实现方式只要其逻辑行为例如验证密码并返回 shell”)在语义上是可疑的AI 就有概率将其识别出来此外AI 能够理解代码的意图”,而不仅仅是语法结构

---



### 6: 这种技术目前是否已经成熟到可以用于实际的渗透测试或红队工作?

6: 这种技术目前是否已经成熟到可以用于实际的渗透测试或红队工作

**A**: 目前仍处于实验和探索阶段但潜力巨大虽然实验证明了 AI + Ghidra 的组合在大型二进制文件中查找后门是可行的但在实际生产环境中处理速度Token 消耗和推理时间和准确性误报率仍然是主要障碍此外对抗性环境下的攻击者可能会专门针对 AI 模型的弱点编写对抗样本代码来欺骗检测器因此目前它更多是作为一种辅助工具帮助逆向工程师提高效率而不是完全替代人工分析

---
## 思考题


### ## 挑战与思考题

### ### 挑战 1: 基础文件结构解析

### 问题**: 在 Ghidra 中,当你导入一个未知的大型二进制文件(如 ELF 或 PE)时,AI 辅助工具首先需要理解文件的元数据。请问,如果不使用自动分析,你需要手动查看哪两个关键的数据结构或表项,才能确定程序的入口点以及程序依赖的外部动态链接库?

### 提示**: 关注二进制文件的头部信息。对于可执行文件,通常有一个特定的字段指向代码开始执行的地址;对于依赖库,则有一个专门用于导入导出函数的表。

### 

---
## 引用

- **原文链接**: [https://quesma.com/blog/introducing-binaryaudit](https://quesma.com/blog/introducing-binaryaudit)
- **HN 讨论**: [https://news.ycombinator.com/item?id=47111440](https://news.ycombinator.com/item?id=47111440)

> 文中事实性信息以以上引用为准观点与推断为 AI Stack 的分析

---


---
## 站内链接

- 分类 [安全](/categories/%E5%AE%89%E5%85%A8/) / [AI 工程](/categories/ai-%E5%B7%A5%E7%A8%8B/)
- 标签 [二进制安全](/tags/%E4%BA%8C%E8%BF%9B%E5%88%B6%E5%AE%89%E5%85%A8/) / [后门检测](/tags/%E5%90%8E%E9%97%A8%E6%A3%80%E6%B5%8B/) / [Ghidra](/tags/ghidra/) / [LLM](/tags/llm/) / [逆向工程](/tags/%E9%80%86%E5%90%91%E5%B7%A5%E7%A8%8B/) / [恶意软件](/tags/%E6%81%B6%E6%84%8F%E8%BD%AF%E4%BB%B6/) / [静态分析](/tags/%E9%9D%99%E6%80%81%E5%88%86%E6%9E%90/) / [漏洞挖掘](/tags/%E6%BC%8F%E6%B4%9E%E6%8C%96%E6%8E%98/)
- 场景 [大语言模型](/scenarios/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/)

### 相关文章

- [我们在40MB二进制文件植入后门并测试AI与Ghidra的检测能力](/posts/20260222-hacker_news-we-hid-backdoors-in-40mb-binaries-and-asked-ai-ghi-6/)
- [AI与Ghidra协同分析40MB二进制文件中的隐藏后门](/posts/20260222-hacker_news-we-hid-backdoors-in-40mb-binaries-and-asked-ai-ghi-9/)
- [Ghidra MCP Server发布集成110款工具实现AI辅助逆向工程](/posts/20260204-hacker_news-show-hn-ghidra-mcp-server-110-tools-for-ai-assiste-1/)
- [Ghidra MCP Server集成110项工具的AI逆向工程辅助环境](/posts/20260204-hacker_news-show-hn-ghidra-mcp-server-110-tools-for-ai-assiste-10/)
- [Ghidra MCP Server集成110款工具实现AI辅助逆向工程](/posts/20260204-hacker_news-show-hn-ghidra-mcp-server-110-tools-for-ai-assiste-14/)
*本文由 AI Stack 自动生成包含深度分析与可证伪的判断*