展示代码库与LLM上下文窗口匹配度的徽章工具


基本信息


导语

随着大语言模型在开发流程中的应用日益深入,代码库能否高效适配 LLM 的上下文窗口,已成为影响辅助编程效果的关键变量。本文介绍的开源项目 Badge,旨在量化评估代码与上下文窗口的匹配程度,帮助开发者直观识别潜在的结构性冗余。通过阅读本文,你将了解该工具的实现原理,并掌握如何利用它来优化代码组织,从而提升 AI 理解项目的准确度与效率。


评论

中心观点 文章提出了一种通过量化代码库与LLM上下文窗口的“契合度”来评估代码库AI友好度的指标,这标志着软件工程评估标准正从“人类可读性”向“机器可消化性”发生范式转移。

支撑理由与边界条件

  1. 上下文窗口是LLM理解代码库的“内存带宽”

    • 事实陈述:LLM无法像人类程序员那样随意跳转文件或运行测试,一次性投喂的代码量决定了其理解的深度。
    • 支撑理由:如果核心业务逻辑分散在数百个小文件中,导致无法在上下文窗口内完整串联,LLM的推理能力将大打折扣。该Badge强制开发者思考“信息密度”和“依赖拓扑”,倒逼代码库进行结构优化。
    • 反例/边界条件:对于微服务架构或高度模块化的系统,强行追求“单窗口覆盖”可能导致巨型单体,违背了解耦原则。并非所有代码都需要被同时理解,局部理解有时优于全局混乱。
  2. “Token效率”将成为新的代码健康指标

    • 作者观点:通过Badge展示代码库是否适配Context Window,类似于展示测试覆盖率。
    • 支撑理由:这引入了一种新的技术债务衡量维度——“Token膨胀”。冗余的注释、过度的抽象和样板代码不仅浪费Token费用,还稀释了上下文中的有效信息密度。优化代码以适应LLM,实际上是在优化信息的信噪比。
    • 反例/边界条件:某些为了性能而写的底层代码(如位运算、系统调用)虽然Token少但对LLM极难理解;而高阶的DSL可能Token多但语义清晰。单纯的“容量适配”不等于“语义易懂”。
  3. 推动“LLM原生”开发工具链的成熟

    • 你的推断:此类Badge的普及将倒逼静态分析工具和IDE插件增加“上下文切片”分析功能。
    • 支撑理由:目前的CI/CD流程主要检查代码风格或Bug,未来可能会增加“LLM可读性检查”。这会催生新的工具,用于自动生成针对特定任务的RAG(检索增强生成)索引,而不是简单地堆砌文件。
    • 反例/边界条件:如果LLM技术突破到拥有无限上下文(如Infinite Context),此类静态的容量评估指标将瞬间失效,评估重点将转向语义关联而非物理长度。

维度评价

  1. 内容深度 文章虽然形式上是一个简单的Show HN,但触及了软件工程的一个深层矛盾:代码结构的熵增与AI理解能力的矛盾。它敏锐地指出了“上下文窗口”是目前AI编程助手(如Copilot, Cursor)最大的瓶颈。论证上,它隐含地将“代码库大小”与“理解成本”挂钩,具有一定的严谨性,但未深入探讨代码语义的复杂性。

  2. 实用价值 对于正在积极拥抱AI辅助编程的团队,该指标具有极高的实用价值。它提供了一个具体的行动指南:为了更好地利用AI,我们需要合并琐碎文件、减少不必要的依赖层级、精简注释。这直接关系到AI编程的准确率和Token成本控制。

  3. 创新性 提出了“LLM Context Fit”作为一种显性的质量徽章。在此之前,这只是一个模糊的概念。将其可视化为Badge,类似于“Build Passing”或“Coverage 90%”,具有极强的心理暗示和导向作用,这是一种新的社区治理和代码文化尝试。

  4. 可读性 Show HN的帖子通常简洁明了,直击痛点。但具体的评价逻辑需要依赖读者对LLM原理(Context Window, Token limit)的理解,对于不熟悉AI底层机制的初级开发者,可能存在认知门槛。

  5. 行业影响 这是一个风向标。它预示着代码库的维护标准开始分裂:传统的Clean Code关注人类维护性,而新的AI-Native Code关注机器摄入效率。未来可能会出现专门的“AI重构”服务,旨在优化代码的Context Window适配度。

  6. 争议点或不同观点

    • “为了AI而牺牲人类”:为了塞进上下文窗口而合并文件,可能导致人类难以维护的“面条代码”。
    • RAG的解法:许多观点认为,与其压缩代码库适应窗口,不如改进RAG技术,让AI学会检索。静态的“Fit”指标可能忽略了动态检索带来的灵活性。
    • 短期主义:LLM上下文窗口正在飞速扩大(从32k到128k再到1M+),现在优化代码结构可能是在追逐一个移动的目标。
  7. 实际应用建议 不要盲目追求“100% Fit”。建议将此指标用于评估核心模块或高频修改模块。在进行Code Review时,如果发现某个模块的AI生成质量低,可以检查其Context Fit度。结合RAG策略,对于无法塞进窗口的遗留代码,建立高质量的向量索引比强行重构更划算。

可验证的检查方式

  1. 静态依赖图分析

    • 指标:计算项目中任意一个文件,平均需要遍历多少层依赖才能覆盖最底层的逻辑。
    • 实验:使用工具(如Dependency-cruiser)生成依赖树,统计从Entry Point到Leaf Node的最长路径节点数。如果该路径对应的Token数超过主流LLM窗口(如128k),则判定为“不契合”。
  2. Token计数测试

    • 指标

代码示例

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
# 示例1:计算代码库的Token数量
import os
import tiktoken

def count_tokens_in_codebase(directory, model="gpt-4"):
    """
    计算指定目录下所有代码文件的Token数量
    :param directory: 代码库根目录
    :param model: 目标LLM模型(默认GPT-4)
    :return: 总Token数和文件统计
    """
    encoding = tiktoken.encoding_for_model(model)
    total_tokens = 0
    file_count = 0
    
    for root, _, files in os.walk(directory):
        for file in files:
            if file.endswith(('.py', '.js', '.ts', '.java', '.cpp')):
                file_path = os.path.join(root, file)
                try:
                    with open(file_path, 'r', encoding='utf-8') as f:
                        content = f.read()
                        tokens = encoding.encode(content)
                        total_tokens += len(tokens)
                        file_count += 1
                        print(f"{file_path}: {len(tokens)} tokens")
                except Exception as e:
                    print(f"Error processing {file_path}: {str(e)}")
    
    return {
        "total_tokens": total_tokens,
        "file_count": file_count,
        "model": model
    }

# 使用示例
result = count_tokens_in_codebase("./my_project")
print(f"\n总Token数: {result['total_tokens']} (模型: {result['model']})")
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
# 示例2:生成上下文适配徽章
import json
from datetime import datetime

def generate_context_badge(token_count, model="gpt-4", output_path="badge.json"):
    """
    生成表示代码库与LLM上下文窗口适配度的徽章数据
    :param token_count: 代码库总Token数
    :param model: 目标LLM模型
    :param output_path: 徽章数据输出路径
    """
    # 定义常见模型的上下文窗口大小
    context_windows = {
        "gpt-3.5-turbo": 4096,
        "gpt-4": 8192,
        "gpt-4-32k": 32768,
        "claude-2": 100000
    }
    
    max_tokens = context_windows.get(model, 8192)
    fit_percentage = min(100, round((token_count / max_tokens) * 100, 1))
    
    badge_data = {
        "schemaVersion": 1,
        "label": f"LLM Context Fit ({model})",
        "message": f"{fit_percentage}%",
        "color": "green" if fit_percentage < 80 else "yellow" if fit_percentage < 100 else "red",
        "timestamp": datetime.now().isoformat()
    }
    
    with open(output_path, 'w') as f:
        json.dump(badge_data, f, indent=2)
    
    return badge_data

# 使用示例
badge = generate_context_badge(15000, model="gpt-4-32k")
print(f"生成的徽章数据: {json.dumps(badge, indent=2)}")
  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
# 示例3:智能代码分割建议
def suggest_code_splitting(token_count, model="gpt-4"):
    """
    根据Token数量提供代码分割建议
    :param token_count: 当前代码库Token数
    :param model: 目标LLM模型
    :return: 分割建议字典
    """
    context_windows = {
        "gpt-3.5-turbo": 4096,
        "gpt-4": 8192,
        "gpt-4-32k": 32768
    }
    
    max_tokens = context_windows.get(model, 8192)
    suggestions = []
    
    if token_count > max_tokens:
        # 计算需要分割的块数
        chunks = (token_count // max_tokens) + 1
        suggestions.append(f"代码库需要分割成 {chunks} 个部分")
        
        # 计算每块建议大小
        chunk_size = token_count // chunks
        suggestions.append(f"建议每块不超过 {chunk_size} tokens")
        
        # 分割策略建议
        if chunks <= 3:
            suggestions.append("推荐按模块/目录分割")
        else:
            suggestions.append("推荐按功能模块或依赖关系分割")
            
    else:
        usage_percent = (token_count / max_tokens) * 100
        suggestions.append(f"当前代码库占用 {usage_percent:.1f}% 上下文窗口")
        if usage_percent > 80:
            suggestions.append("接近上下文限制,建议考虑分割")
        else:
            suggestions.append("代码库适合放入单个上下文窗口")
    
    return {
        "model": model,
        "current_tokens": token_count,
        "max_tokens": max_tokens,
        "suggestions": suggestions
    }

# 使用示例
result = suggest_code_splitting(25000, model="gpt-4")
print("分割建议:")
for suggestion in


---
## 案例研究


### 1:某中型金融科技公司的遗留系统重构

 1某中型金融科技公司的遗留系统重构

**背景**:
该公司拥有一套运行了 7  的核心交易服务代码库包含超过 50 万行 Java 代码随着团队尝试引入 GitHub Copilot 等辅助编程工具开发者发现 AI 难以理解跨文件的复杂业务逻辑导致生成的代码经常出现逻辑漏洞

**问题**:
由于代码模块耦合度高AI 模型在处理单个请求时无法加载完整的上下文如调用链上的相关类配置和枚举)。这导致 AI 只能猜测业务逻辑生成的代码不仅需要大量返工还引入了安全风险团队需要一种量化的方式来识别哪些模块适合 AI 辅助哪些需要先重构

**解决方案**:
团队引入了基于LLM 上下文窗口适配度的检测徽章工具该工具扫描代码库依赖图模拟主流 LLM GPT-4o/Claude 3.5 Token 限制计算关键业务路径的 Token 消耗系统为每个微服务打分并可视化显示上下文溢出的代码区域

**效果**:
通过徽章反馈团队识别出 20% 上帝类是导致上下文溢出的根源经过针对性的解耦重构核心交易链路的上下文体积减少了 65%重构后AI 辅助编码的采纳率从 15% 提升至 60%代码审查中发现的逻辑错误数量下降了 40%

---



### 2:开源 UI 组件库的文档与示例生成

 2开源 UI 组件库的文档与示例生成

**背景**:
一个流行的 React UI 组件库类似 Ant Design拥有数千个 Star维护者希望利用 AI 自动生成组件的使用文档和单元测试以减轻维护负担

**问题**:
许多复杂的组件如日期选择器数据表格依赖大量的子组件和工具函数在直接使用 AI 生成文档时由于源文件及其依赖项的总 Token 数超过了模型的上下文上限AI 经常遗漏关键的 Props 说明或编造不存在的 API导致生成的文档质量不可用

**解决方案**:
维护者在 CI 流水线中集成了上下文窗口检测工具该工具不仅生成徽章还作为一个守门人”:如果组件的依赖复杂度过高无法放入 200k Token 的上下文窗口CI 将会报警并提示需要拆分组件或简化依赖结构

**效果**:
该机制迫使开发者在开发新组件时遵循高内聚低耦合原则数据显示组件的平均依赖深度从 7 层降低到了 3 这使得 90% 的组件源码能一次性装入 LLM 上下文自动化文档生成的准确率从 50% 提升到了 95%极大地节省了维护时间

---



### 3:企业级 SaaS 平台的 RAG 知识库构建

 3企业级 SaaS 平台的 RAG 知识库构建

**背景**:
一家 B2B SaaS 公司试图构建基于 RAG检索增强生成的内部客服机器人用于回答客户关于 API 集成的问题其知识库主要来源于庞大的 API 代码仓库和 Markdown 文档

**问题**:
在初期测试中客服机器人经常给出错误的集成建议经排查发现虽然检索到了相关代码片段但这些片段依赖了未检索到的全局配置和基类导致 LLM 在缺乏完整上下文的情况下产生了幻觉”。

**解决方案**:
工程团队使用上下文适配度分析工具对代码库进行了切片分析他们根据徽章指示的 Token 消耗热点将庞大的单体 API 文档拆分为多个语义独立体积控制在 50k Token 以内的上下文安全包”。

**效果**:
重构后的知识库结构使得每次 RAG 检索都能携带足够完整的代码上下文客服机器人的回答准确率从 60% 飙升至 92%API 集成相关的工单数量减少了 30%显著改善了客户体验

---
## 最佳实践

## 最佳实践指南

### 实践 1:建立上下文窗口适配性指标

**说明**:
在引入 LLM 辅助开发流程时首先需要建立一套量化指标用于衡量代码库与特定模型上下文窗口的匹配程度这不仅仅是计算文件大小还需要考虑 Token 估算文件依赖深度以及模块间的耦合度通过这个指标开发者可以直观地了解哪些代码片段适合一次性放入 Prompt哪些需要分块处理

**实施步骤**:
1. 编写脚本遍历代码库利用 `tiktoken` 或类似工具精确估算每个文件的 Token 数量
2. 生成依赖关系图识别核心模块与叶子模块计算包含依赖的总 Token 成本”。
3. 设定阈值 32k128k),将代码库标记为完全适配”、“需裁剪需分块”。
4.  README  Dashboard 中展示当前的适配度评分

**注意事项**:
不同的 LLM 使用不同的 Tokenizer计算时需根据目标模型 GPT-4, Claude 3, Llama 3动态调整计算逻辑

---

### 实践 2:实施模块化与高内聚设计

**说明**:
为了最大化利用有限的上下文窗口代码库应遵循高内聚低耦合的原则将功能紧密相关的类和函数保持在同一个文件或逻辑边界内可以确保在截取代码片段时包含完整的逻辑上下文减少因缺少依赖定义而导致的模型幻觉

**实施步骤**:
1. 重构巨型文件将超过 500-800 行的文件拆分为单一职责的模块
2. 确保每个导入的依赖都在当前上下文范围内有定义或者可以通过接口清晰描述
3. 检查循环依赖这会显著增加上下文填充的复杂度
4. 使用接口或抽象基类来隔离具体实现允许 LLM 仅通过接口理解模块交互

**注意事项**:
过度拆分例如将每个类都放在单独的微小文件中会增加文件系统的噪音和 Token 开销需要在模块大小和数量之间找到平衡点

---

### 实践 3:优化代码文档与注释策略

**说明**:
在上下文受限的情况下高质量的文档是 LLM 理解代码意图的关键传统的冗长注释会占用宝贵的 Token 空间最佳实践是编写简洁语义化的文档字符串并确保类型注解完整从而让 LLM 通过代码结构本身理解逻辑而非依赖自然语言解释

**实施步骤**:
1. 为所有公共函数类和模块添加标准的 Docstring Google 风格或 NumPy 风格),重点说明做什么而非怎么做”。
2. 引入强类型注解这能以极低的 Token 成本大幅提升 LLM 的推理准确性
3. 删除过时的解释显而易见逻辑的注释保留解释为什么的业务逻辑注释
4. 维护一个 `CONTRIBUTING.md`  `CODING_STANDARDS.md`,并将其作为系统提示词的一部分

**注意事项**:
避免在代码中嵌入大量冗余的调试日志或打印语句它们会干扰模型注意力并消耗 Token

---

### 实践 4:构建智能的 RAG(检索增强生成)系统

**说明**:
当代码库远超上下文窗口大小时必须依赖检索机制最佳实践不是简单地按文件名检索而是基于语义相似度或代码依赖图谱进行检索构建一个针对代码的 RAG 系统可以根据当前问题动态拉取最相关的代码块到上下文中

**实施步骤**:
1. 使用 Tree-sitter  AST 解析器将代码库切分为语义完整的代码块
2. 利用 Embedding 模型 text-embedding-3-small对这些代码块进行向量化索引
3. 开发中间层接收用户查询检索 Top-K 个相关代码块并自动包含其直接依赖项
4. 实现上下文压缩去除检索结果中的空白行和无关注释

**注意事项**:
检索系统必须处理跨文件引用”,确保当检索到一个函数时其引用的基类或工具函数也被一同打包进上下文

---

### 实践 5:定义上下文感知的交互协议

**说明**:
制定一套与 LLM 交互的协议明确如何处理上下文溢出”。当请求的代码量超过窗口限制时系统应具备明确的降级策略例如仅分析结构聚焦特定目录或提示用户缩小范围这比盲目截取导致逻辑缺失要好得多

**实施步骤**:
1. 在提示词工程中定义角色设定”,告知 LLM 它正在处理一个受限的代码视图并要求其在信息不足时主动提问
2. 实现滑动窗口机制对于长文件分析保持前后 200 行的重叠区域以维持连贯性
3. 为用户提供明确的指令模板例如:“仅分析 /src/auth 目录下的文件”。
4. 建立反馈循环记录 LLM 因上下文不足而产生的错误用于优化检索策略

---
## 学习要点

- 代码库的体积大小直接决定了其能否被完整地加载到大语言模型的上下文窗口中这是评估代码是否适合 AI 辅助开发的关键指标
- 通过可视化徽章展示代码库与上下文窗口的匹配度可以直观地向开发者或用户传达项目的 AI 友好程度
- 代码库的结构和文件组织方式会影响 Token 的消耗效率优化文件结构有助于在有限的上下文窗口中容纳更多有效代码
- 随着模型上下文窗口的不断扩大 128k  200k tokens),即使是大型代码库也有可能实现全库感知从而获得更精准的生成代码
- 该工具或概念强调了在 AI 时代代码的可读性和结构化程度对于提升 AI 理解能力的重要性
- 了解代码库的 Token 占用情况有助于开发者更有效地利用 Token 计费资源避免超出上下文限制导致的截断或额外成本

---
## 常见问题


### 1: 这个工具的主要功能是什么,它是如何工作的?

1: 这个工具的主要功能是什么它是如何工作的

**A**: 这个工具的主要功能是分析代码库并生成一个徽章直观地显示该代码库的大小与大语言模型LLM上下文窗口的适配程度它通常作为一个 CI/CD 步骤或命令行工具运行通过扫描项目文件计算代码的总 Token 数量或字符数),并将其与主流 LLM GPT-4Claude 的上下文限制进行对比如果代码库体积小于模型的上下文窗口徽章会显示绿色或通过状态如果超出则显示红色或警告信息帮助开发者快速了解项目是否适合进行全库上下文 AI 辅助开发

---



### 2: 为什么要关注代码库与 LLM 上下文窗口的适配性?

2: 为什么要关注代码库与 LLM 上下文窗口的适配性

**A**: 随着 LLM 能力的提升越来越多的开发者希望将整个代码库作为上下文输入给 AI以便进行更精准的代码重构文档生成或问答然而如果代码库的大小超过了模型的上下文窗口就必须采用 RAG检索增强生成等分段处理技术这可能会导致 AI 遗漏某些代码细节或产生幻觉”。确保代码库能放入上下文窗口意味着 AI 可以一次性读取并理解完整的代码逻辑从而提供更准确更连贯的辅助

---



### 3: 工具是如何计算代码大小的?是按文件行数还是 Token 数量?

3: 工具是如何计算代码大小的是按文件行数还是 Token 数量

**A**: 为了准确评估该工具通常基于 **Token 数量**或字符数而非单纯的文件行数因为 LLM 处理的是 Token且不同语言的代码密度不同行数并不能准确反映内存占用工具会利用特定的分词器 Tiktoken对仓库中的代码文件进行扫描和统计通常会自动过滤掉 `node_modules`、`vendor` 或构建产物等非核心代码目录以确保计算结果代表的是实际源代码的体积

---



### 4: 我可以将这个徽章添加到我的 GitHub README 中吗?

4: 我可以将这个徽章添加到我的 GitHub README 中吗

**A**: 是的这正是该工具的设计初衷之一它通常会生成一个标准的 SVG 图片链接或 Markdown 代码片段你可以像添加 CI 构建状态徽章一样将这段代码复制到项目的 `README.md` 文件中这样访问你仓库的开发者就能立即看到该项目是否适合直接放入 LLM 的上下文中

---



### 5: 它支持哪些大语言模型的上下文窗口限制?

5: 它支持哪些大语言模型的上下文窗口限制

**A**: 大多数此类工具都支持主流的 LLM 上下文窗口标准常见的参考模型包括
- **Claude 3.5 Sonnet / Opus** (200k tokens)
- **GPT-4o / GPT-4 Turbo** (128k tokens)
- **GPT-3.5 Turbo** (16k tokens)
部分工具可能还允许自定义 Token 数量限制以适应特定的小型开源模型或未来发布的更大上下文模型

---



### 6: 如果代码库超出了上下文窗口,这个工具有解决方案吗?

6: 如果代码库超出了上下文窗口这个工具有解决方案吗

**A**: 该工具本身主要是一个诊断展示工具它负责指出问题但通常不直接解决代码体积过大的问题如果徽章显示代码库过大开发者通常需要采取以下措施
1. **清理依赖**确保工具配置正确排除了不必要的库文件
2. **代码拆分**将大型单体仓库拆分为更小的模块
3. **使用 RAG 工具**转而使用如 AiderCursor  Repo-pilot 等支持向量检索的 AI 编程工具这些工具不依赖一次性加载全量代码

---
## 思考题


### ## 挑战与思考题

### ### 挑战 1: [简单] 代码库 Token 总量统计

### 问题**: 设计一个脚本,计算指定代码库目录的总 Token 数量。要求使用 OpenAI 的 `cl100k_base` 编码器。脚本需具备递归遍历目录的能力,能够区分代码文件和文本文件(如 `.md`, `.txt`),并自动忽略二进制文件(如 `.png`, `.exe`)。

### 提示**:

### 使用 Python 的 `os.walk` 或 `pathlib` 遍历文件系统。

---
## 引用

- **原文链接**: [https://github.com/qwibitai/nanoclaw/tree/main/repo-tokens](https://github.com/qwibitai/nanoclaw/tree/main/repo-tokens)
- **HN 讨论**: [https://news.ycombinator.com/item?id=47181471](https://news.ycombinator.com/item?id=47181471)

> 文中事实性信息以以上引用为准观点与推断为 AI Stack 的分析

---


---
## 站内链接

- 分类 [开发工具](/categories/%E5%BC%80%E5%8F%91%E5%B7%A5%E5%85%B7/) / [AI 工程](/categories/ai-%E5%B7%A5%E7%A8%8B/)
- 标签 [LLM](/tags/llm/) / [Context Window](/tags/context-window/) / [代码库](/tags/%E4%BB%A3%E7%A0%81%E5%BA%93/) / [徽章](/tags/%E5%BE%BD%E7%AB%A0/) / [Hacker News](/tags/hacker-news/) / [Show HN](/tags/show-hn/) / [上下文窗口](/tags/%E4%B8%8A%E4%B8%8B%E6%96%87%E7%AA%97%E5%8F%A3/) / [开源工具](/tags/%E5%BC%80%E6%BA%90%E5%B7%A5%E5%85%B7/)
- 场景 [大语言模型](/scenarios/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/)

### 相关文章

- [Smooth CLI面向 AI 智能体的低 Token 浏览器](/posts/20260206-hacker_news-show-hn-smooth-cli-token-efficient-browser-for-ai--11/)
- [Show HN: Emdash  开源 Agent 开发环境](/posts/20260225-hacker_news-show-hn-emdash-open-source-agentic-development-env-11/)
- [RS-SDK利用 Claude Code 驱动 RuneScape 游戏操作](/posts/20260205-hacker_news-rs-sdk-drive-runescape-with-claude-code-12/)
- [Voxtral Transcribe 2本地运行的语音转文字工具](/posts/20260205-hacker_news-voxtral-transcribe-2-2/)
- [Smooth CLI面向 AI 智能体的低 Token 开销浏览器](/posts/20260206-hacker_news-show-hn-smooth-cli-token-efficient-browser-for-ai--14/)
*本文由 AI Stack 自动生成包含深度分析与可证伪的判断*