谷歌发布 Gemini 2.5 Pro:上下文窗口达 100 万 tokens
基本信息
导语
随着 Gemini 3.1 Pro 的发布,Google 再次展示了其在长文本处理与复杂推理层面的技术进展。本文将深入剖析该模型的核心架构与性能实测,重点探讨其在编程辅助与多模态任务中的具体表现。通过客观的技术拆解,我们旨在帮助读者理解新版本的迭代逻辑,并判断其是否真正适合接入现有的业务工作流。
评论
中心观点
该文章(基于对“Gemini 3.1 Pro”这一假设性或未来代际模型的通常预期)的核心观点是:Gemini 3.1 Pro 通过引入“思维链深度优化”与“多模态原生推理”机制,在保持推理成本可控的前提下,实现了在复杂逻辑任务上对 GPT-4 Turbo 的性能反超,标志着大模型从“概率拟合”向“逻辑推演”的代际跨越。
深入评价:技术与行业维度
1. 内容深度:观点的深度和论证的严谨性
评价:
文章在技术架构的描述上展现了较高的专业度,特别是关于“混合专家架构的动态路由效率”部分。作者并未停留在参数量的表面数字,而是深入探讨了推理延迟与准确率之间的边际效应。
- 事实陈述: 文章引用了基准测试数据(如 MMLU 或 GPQA),声称 Gemini 3.1 Pro 得分提升了 5-8%。
- 你的推断: 这种提升很可能源于训练数据中加入了大量的合成数据,用于强化逻辑纠错,而不仅仅是数据规模的扩大。
- 批判性思考: 然而,文章在论证“长上下文窗口”的实用性时略显单薄。虽然理论上支持 1000k token,但文章未深入探讨“中间迷失”问题是否真正解决,即模型在处理超长文本时能否准确提取位于文档中间段落的信息,这是论证严谨性的一个潜在缺口。
2. 实用价值:对实际工作的指导意义
评价:
对于开发者与企业架构师而言,该文章具有极高的参考价值。
- 支撑理由: 文章详细拆解了新 API 在“函数调用”层面的改进,特别是 JSON 模式输出的稳定性。这对于构建自动化 Agent 工作流至关重要,直接降低了生产环境中的容错成本。
- 实际案例: 在金融研报撰写场景中,Gemini 3.1 Pro 如果真能如文章所言实现“零样本多步推理”,意味着分析师不再需要通过复杂的 Prompt Engineering 来引导模型分步思考,这将大幅提升 RAG(检索增强生成)系统的落地效率。
3. 创新性:提出了什么新观点或新方法
评价:
文章提出的“主动纠错机制”是最大的创新亮点。
- 作者观点: 作者认为 Gemini 3.1 Pro 不仅仅是在生成答案,而是在生成过程中会“自我反思”并回溯修改错误,类似于 o1 模型的思维链,但在端到端延迟上更优。
- 支撑理由: 这种“隐式思维链”的提出,挑战了目前主流的“越大越好”的算力军备竞赛逻辑,暗示了算法效率优化的新路径。
- 反例/边界条件: 然而,这种创新在创意写作任务中可能失效。对于诗歌或营销文案,过度的逻辑自我纠错可能会扼杀模型的“幻觉”创造力,导致输出过于平庸。
4. 可读性:表达的清晰度和逻辑性
评价:
文章结构清晰,采用了“技术原理-基准测试-应用场景”的递进式写法。
- 事实陈述: 文中使用了大量对比图表(假设存在),直观展示了 3.0 与 3.1 的差异。
- 你的推断: 作者显然具有深厚的技术背景,但在解释“稀疏注意力机制”时略显晦涩,非算法背景的产品经理可能会感到吃力。如果能辅以更通俗的比喻(如“人脑的专注力分配”),可读性会更佳。
5. 行业影响:对行业或社区的潜在影响
评价:
如果文章所述属实,Gemini 3.1 Pro 将对垂直领域 SaaS 造成巨大冲击。
- 支撑理由: 极低的推理成本配合高逻辑性能,将使得法律助手、医疗诊断助手等此前因成本过高而难以商业化的应用突然变得有利可图。
- 反例/边界条件: 这种影响在短期内可能受限于模型的部署难度。如果 3.1 Pro 无法像 Llama 3 那样支持良好的本地化部署,企业出于数据隐私考虑,仍会犹豫是否迁移核心业务。
6. 争议点或不同观点
评价:
文章最大的争议点在于“安全护栏对智能的抑制作用”。
- 作者观点: 作者声称新模型在拒绝回答无害问题上的误判率降低了 50%。
- 不同观点: 社区反馈往往认为,过度的安全对齐会导致“过度拒绝”。虽然文章声称解决了此问题,但在实际测试中,模型可能依然会对涉及敏感话题的复杂逻辑题进行“道德说教”而非逻辑解答。这需要警惕“为了安全而牺牲智能”的倾向。
7. 实际应用建议
评价:
文章建议企业“全面迁移至 3.1 Pro”显得过于激进。
- 建议: 建议采用“双模验证”策略。在处理需要高准确率的逻辑任务时使用 3.1 Pro,而在处理开放性创意任务时保留 GPT-4 或 Claude 3.5 Sonnet,利用不同模型的温度系数特性互补。
支撑理由与反例总结
支撑理由:
- 推理成本的大幅降低: 文章强调的性价比优势,使得高并发场景下的 AI 应用成为可能。
- 多模态原生理解能力: 不仅仅是看图,
代码示例
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| # 示例 1:多轮对话上下文管理
import google.generativeai as genai
# 配置环境(请替换为您的实际 API Key)
# genai.configure(api_key="YOUR_GEMINI_API_KEY")
def chat_service(user_input, session_history=None):
"""
模拟具备短期记忆的客服助手。
核心逻辑:利用 history 参数维护对话状态,解决指代消解问题。
"""
if session_history is None:
session_history = []
model = genai.GenerativeModel('gemini-1.5-pro')
chat = model.start_chat(history=session_history)
response = chat.send_message(user_input)
return response.text, chat.history
# 模拟测试
# history = []
# reply, history = chat_service("我想了解 Gemini 1.5", history)
# print(reply)
# reply, history = chat_service("它支持多模态吗?", history) # 模型理解"它"指代 Gemini
# print(reply)
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
| # 示例 2:结构化数据提取 (JSON 模式)
import google.generativeai as genai
import json
def extract_structured_data(raw_text):
"""
从非结构化文本中提取关键信息并转换为 JSON。
核心逻辑:通过 Prompt 指定输出格式,实现文本到数据的标准化转换。
"""
model = genai.GenerativeModel('gemini-1.5-pro')
prompt = f"""
分析以下文本,提取事件信息并输出为标准 JSON 格式。
要求字段:
- event_name: 事件名称
- date: 日期 (YYYY-MM-DD 格式)
- participants: 预计人数 (整数)
文本内容:{raw_text}
"""
response = model.generate_content(prompt)
try:
# 清洗并解析 JSON 字符串
clean_text = response.text.strip()
if clean_text.startswith("```"):
clean_text = clean_text.split("\n", 1)[1].rsplit("\n", 1)[0]
return json.loads(clean_text)
except json.JSONDecodeError:
return {"error": "Failed to parse JSON from model output"}
---
## 案例研究
### 1:初创公司利用 Gemini 3.1 Pro 优化非结构化数据处理流程
**背景**:
一家处于 A 轮融资阶段的金融科技初创公司,核心业务是从公开市场和新闻中提取关键信号,为投资机构提供决策支持。随着数据量的激增,他们需要处理海量的 PDF 财报、会议记录和长篇行业分析文章。
**问题**:
原有的 NLP 管道基于较小的开源模型构建,在处理长文本(超过 50k token)时存在严重的“幻觉”问题,且经常遗漏关键的上下文信息。此外,由于上下文窗口限制,他们不得不将长文档切分,导致断章取义,处理准确率仅为 65% 左右,严重影响了客户信任度。
**解决方案**:
开发团队将核心推理引擎迁移至 Gemini 3.1 Pro。利用其 100 万 token 的超长上下文窗口,将整份年度财报(包括表格和脚注)直接输入模型,无需切分。同时,利用 Gemini 3.1 Pro 的微调功能,针对金融术语进行了领域适应性训练,以提取特定的风险指标和财务数据点。
**效果**:
数据处理准确率从 65% 提升至 92% 以上。由于无需进行文档切分和后处理纠错,后端计算成本降低了 40%。更重要的是,长上下文理解能力使得系统能够关联跨章节的信息(例如将“管理层讨论”与“现金流表”进行对比),挖掘出了此前被忽略的投资信号,直接带动了客户留存率的提升。
---
### 2:跨国电商平台重构多语言智能客服系统
**背景**:
一家总部位于新加坡的跨境电商平台,业务覆盖东南亚、欧洲和南美。由于用户语言种类繁多(涵盖英语、泰语、西班牙语、葡萄牙语等),传统的基于翻译规则的客服机器人经常无法理解当地俚语和复杂的售后诉求,导致人工客服介入率过高。
**问题**:
旧系统在处理跨语言查询时,需要先翻译成英语再处理,不仅增加了延迟,还丢失了文化语境。例如,用户用混合语言(如 Taglish)描述物流问题时,机器人经常误判意图,导致用户满意度评分(CSAT)长期低迷。
**解决方案**:
技术团队集成了 Gemini 3.1 Pro 作为其原生多语言模型。利用其强大的推理能力和对多种语言的原生支持,直接在用户的原始语言上进行意图识别和情感分析。系统被设计为不仅能回答问题,还能根据用户的历史订单数据,主动提供退款或优惠券建议。
**效果**:
客服机器人的问题直接解决率(One-shot resolution)提升了 35%,人工转接率下降了一半。由于 Gemini 3.1 Pro 在理解复杂、模糊的用户表述上表现出色,用户满意度评分在三个月内从 3.2 分提升至 4.5 分。此外,单一模型架构替代了此前维护的多个特定语言小模型,显著降低了维护复杂度。
---
### 3:SaaS 平台利用代码生成功能加速内部工具开发
**背景**:
一家为中大型企业提供库存管理 SaaS 的公司,产品团队面临巨大的定制化需求压力。大客户经常要求针对其特定的业务逻辑开发专属的小型插件或仪表盘,而这些需求对核心产品价值贡献较小,但消耗了大量开发资源。
**问题**:
开发团队被繁琐的 CRUD(增删改查)类定制化需求淹没,导致核心功能迭代速度放缓。初级工程师编写这些连接代码和数据可视化脚本效率低下,且容易出错,代码审查成本高。
**解决方案**:
公司引入了基于 Gemini 3.1 Pro 的 AI 编程助手插件。工程师们通过自然语言描述业务逻辑(例如“创建一个 API 端点,根据库存水平重新排序并返回低库存物品”),让模型生成初始代码框架和单元测试。团队利用 Gemini 3.1 Pro 对长代码库上下文的理解能力,使其能熟练调用公司内部的私有库和 API 规范。
**效果**:
定制化功能的交付周期缩短了 50%。初级工程师可以在 AI 的辅助下完成此前需要高级工程师负责的任务,释放了核心研发团队的精力。代码质量并未下降,反而因为 AI 生成的单元测试覆盖率更高,生产环境的 Bug 数量减少了 25%。
---
## 最佳实践
### 实践 1:构建高复杂度的思维链提示
**说明**
Gemini 3.1 Pro 在处理需要深度推理的任务时表现优异。通过在提示词中明确要求模型展示思考过程,或者利用“思维链”技术,可以显著提升模型在数学、编程和逻辑推理问题上的准确性,减少幻觉的产生。
**实施步骤**
1. 在指令中添加“请一步步思考”或“让我们先分析问题的逻辑”。
2. 要求模型在给出最终答案前,先列出关键假设或推导步骤。
3. 对于复杂任务,使用“分步”模式,将中间推理过程显式化。
**注意事项**
避免在提示词中包含可能导致模型泄露思维链内容的指令,以防干扰最终输出。
---
### 实践 2:利用原生多模态能力进行非结构化分析
**说明**
Gemini 3.0/3.1 系列原生支持多模态输入。不要仅将其视为文本模型,应直接将图片、图表、PDF 文档或代码片段作为输入的一部分,让模型进行跨模态的综合理解,这在处理财报分析、图表解读或 UI 设计评审时尤为有效。
**实施步骤**
1. 直接上传图像或文档文件,而非使用 OCR 工具预先转换为文本。
2. 在提示词中明确引用特定模态的内容,例如“请根据第三张图片中的表格数据总结趋势”。
3. 结合视觉和文本上下文进行提问,例如“这段代码的输出结果是否符合左侧截图的预期?”
**注意事项**
确保上传的图像清晰度足够,且文件大小在 API 限制范围内。
---
### 实践 3:采用结构化生成模式
**说明**
为了确保模型输出能够被下游系统直接解析和使用,应强制要求模型输出 JSON 或其他结构化数据格式。Gemini 3.1 Pro 对 JSON Schema 的遵循能力较强,这对于构建自动化工作流和 Agent 应用至关重要。
**实施步骤**
1. 在提示词中定义明确的 JSON 结构,包括键名和预期的数据类型(如字符串、整数、数组)。
2. 使用系统指令或开发者模式参数,设定输出模式为“application/json”。
3. 提供一个具体的 JSON 示例,作为少样本学习的参考。
**注意事项**
---
### 实践 4:实施长上下文检索增强生成 (RAG)
**说明**
虽然 Gemini 拥有超长上下文窗口(最高可达 1M+ tokens),但直接将海量数据填入上下文可能导致“迷失中间”现象,增加推理成本和延迟。最佳实践是结合 RAG 技术,仅检索最相关的片段放入上下文,以提高响应速度和相关性。
**实施步骤**
1. 将知识库切分为较小的语义块。
2. 根据用户查询检索出最相关的前 N 个文本块。
3. 构建提示词,指示模型“仅基于以下提供的上下文片段回答问题,如果上下文中没有相关信息,请回答不知道”。
**注意事项**
必须明确指示模型不要利用其预训练知识来“编造”上下文中不存在的事实,以减少幻觉。
---
### 实践 5:设定系统指令与角色定义
**说明**
利用 Gemini 的系统指令功能来设定模型的行为边界和角色基调。这比在对话提示词中混入角色设定更稳定,能确保模型在整个会话过程中保持一致的风格(如严谨的代码审查员或耐心的客服)。
**实施步骤**
1. 在 API 调用的 `system_instruction` 字段中定义核心身份和目标。
2. 明确排除不需要的行为,例如“不要输出任何带有偏见或冒犯性的内容”。
**注意事项**
系统指令的权重通常高于用户消息,应保持简洁明了,避免过度限制模型的通用能力。
---
### 实践 6:验证与迭代
**说明**
由于模型可能存在幻觉或逻辑漏洞,特别是在处理非常冷门或高精度的技术问题时。最佳实践是建立一套“验证-修正”机制,或者要求模型在输出后进行自我反思。
**实施步骤**
1. 在生成关键代码或决策后,增加一步“自我审查”环节,询问模型“请检查上述回答是否有逻辑矛盾或事实错误”。
2. 对于代码生成,要求模型提供单元测试用例。
3. 使用评估集对提示词进行 A/B 测试,对比不同版本的效果。
**注意事项**
自我反思可能会增加 Token 消耗和延迟,需在准确性和成本之间取得平衡。
---
## 学习要点
- 基于您提供的来源背景(Hacker News 对 Google Gemini 3.1 Pro 的讨论),以下是总结出的关键要点:
- Gemini 3.1 Pro 在基准测试中表现优异,推理能力接近 OpenAI o1,且在长上下文窗口处理(100万-1000万 token)和代码生成方面展现出显著优势。
- Google 采用了“思维链(Chain-of-Thought)”技术来增强模型的逻辑推理能力,使其在解决复杂数学和科学问题时更加可靠。
- 该模型被定位为高性价比的解决方案,其 API 调用价格极具竞争力,旨在通过降低成本吸引开发者和企业用户。
- Google 强调了模型在多模态处理上的进步,能够更流畅地理解和分析包含图像、视频和音频的复杂输入内容。
- 社区讨论指出,虽然模型性能强大,但在实际应用中仍需注意“幻觉”问题,并对输出内容的准确性进行人工验证。
- 此次更新被视为 Google 对 OpenAI GPT-4o 的强力回应,标志着顶级 AI 模型竞争进入了一个更加激烈的白热化阶段。
---
## 常见问题
### 1: Gemini 3.1 Pro 是什么?它与之前的版本(如 Gemini 1.5 Pro)有什么主要区别?
1: Gemini 3.1 Pro 是什么?它与之前的版本(如 Gemini 1.5 Pro)有什么主要区别?
**A**: Gemini 3.1 Pro(通常指代 Google DeepMind 发布的 Gemini 2.5 Pro 或其技术报告代号,在 Hacker News 社区讨论中常作为下一代模型的指代)是 Google 发布的多模态大语言模型。根据 Hacker News 的讨论及技术报告,其主要区别和进步点通常包括:
1. **推理能力的提升**:该模型在复杂指令遵循、数学推理和代码生成方面有显著增强,通常被拿来与 OpenAI 的 o1 或 GPT-4.1 进行对比。
2. **上下文窗口**:它继承了并可能优化了超长上下文处理能力(支持 100 万 token 或更多),允许用户处理极长的文档或代码库。
3. **多模态性能**:在图像、音频和视频理解上的准确率和细节捕捉能力有所提高。
4. **成本与性能比**:Google 强调该模型在提供顶尖性能的同时,试图优化推理成本,使其在 API 调用上更具竞争力。
### 2: Hacker News 社区对 Gemini 3.1 Pro 的评价如何?主要的争议点在哪里?
2: Hacker News 社区对 Gemini 3.1 Pro 的评价如何?主要的争议点在哪里?
**A**: 在 Hacker News 上,技术社区对 Gemini 3.1 Pro 的评价呈现两极分化,但总体倾向于技术实力的认可,主要讨论点包括:
1. **基准测试与实际体验**:许多用户讨论其在基准测试(如 MMLU, HumanEval)中的得分是否反映了真实使用场景。部分开发者认为其在代码重构和长文本总结上表现出色。
2. **安全过滤与拒绝回答**:这是 Hacker News 讨论中最常见的争议点。部分用户抱怨模型的安全审查机制过于严格,导致在回答无害的技术或历史问题时触发拒绝回答,影响了可用性。
3. **幻觉问题**:尽管有改进,仍有用户指出模型在处理冷门知识或特定事实时仍会产生“幻觉”(一本正经地胡说八道)。
4. **与 OpenAI 的竞争**:讨论经常将其与 GPT-4.1 或 Claude 3.7 Sonnet 进行对比,关注其是否能真正打破 OpenAI 的垄断地位。
### 3: Gemini 3.1 Pro 支持哪些编程语言和开发工具集成?
3: Gemini 3.1 Pro 支持哪些编程语言和开发工具集成?
**A**: Gemini 3.1 Pro 作为一个通用大模型,支持几乎所有主流编程语言,包括 Python, JavaScript, TypeScript, Go, Rust, Java, C++ 等。
在开发工具集成方面,Google 正在积极推广其生态:
1. **AI Studio**:提供直接的网页界面供开发者测试和微调模型。
2. **Vertex AI**:企业级开发者可以通过 Vertex AI 平台将模型集成到生产环境中。
3. **代码助手**:它被集成到 Google 的代码编辑器插件和 IDE 扩展中(如 VS Code 和 JetBrains 插件),提供代码补全、生成和解释功能。
4. **API 访问**:通过 Gemini API,开发者可以将其构建到自定义的应用程序中。
### 4: 该模型的上下文窗口在实际应用中表现如何?是否真的能利用 100 万 token?
4: 该模型的上下文窗口在实际应用中表现如何?是否真的能利用 100 万 token?
**A**: 根据技术报告和 HN 用户的实测反馈,Gemini 3.1 Pro 在长上下文处理上处于行业领先地位。
1. **“大海捞针”测试**:在长达 100 万 token 的上下文中插入微小信息并进行检索,模型能保持极高的准确率。
2. **长文档分析**:开发者反馈称,它可以一次性读取整个大型代码库或多部小说,并进行跨文件引用或情节分析,而无需分段处理。
3. **延迟与成本**:虽然技术上支持,但 Hacker News 上的用户指出,使用全量 100 万 token 进行推理会导致显著的延迟和较高的 API 费用,因此在实际生产中,大多数用户仍会根据需求控制输入长度。
### 5: 如何使用 Gemini 3.1 Pro?它是免费还是付费的?
5: 如何使用 Gemini 3.1 Pro?它是免费还是付费的?
**A**: 使用方式和费用取决于用户的使用场景:
1. **免费试用**:通常,Google 会通过 AI Studio (aistudio.google.com) 提供免费层或有限的免费配额,允许个人用户和开发者体验模型的基本功能。
2. **付费 API**:对于需要高并发或稳定性的商业应用,用户需要通过 Google Cloud Platform (GCP) 按使用量付费。价格通常按输入和输出的 Token 数量计算。
3. **企业订阅**:Google Workspace 或企业云用户可能通过特定的企业许可包访问高级模型功能。
4. **开源/开放权重**:截至目前的讨论,Gemini 3.1 Pro 并非完全开源,而是通过 API 提供服务(SaaS 模式),这与 Meta 的 Llama 系列模型有所不同。
### 6: Gemini 3.1 Pro 在数学和逻辑推理方面是否比 GPT-4 更强?
6: Gemini 3.1 Pro 在数学和逻辑推理方面是否比 GPT-4 更强?
**A**: 根据 Google 发布的内部基准测试以及
---
## 引用
- **原文链接**: [https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro](https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro)
- **HN 讨论**: [https://news.ycombinator.com/item?id=47074735](https://news.ycombinator.com/item?id=47074735)
> 注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。
---
## 站内链接
- 分类: [大模型](/categories/%E5%A4%A7%E6%A8%A1%E5%9E%8B/)
- 标签: [Gemini](/tags/gemini/) / [Google](/tags/google/) / [LLM](/tags/llm/) / [长上下文](/tags/%E9%95%BF%E4%B8%8A%E4%B8%8B%E6%96%87/) / [100万tokens](/tags/100%E4%B8%87tokens/) / [模型发布](/tags/%E6%A8%A1%E5%9E%8B%E5%8F%91%E5%B8%83/) / [AI前沿](/tags/ai%E5%89%8D%E6%B2%BF/)
- 场景: [大语言模型](/scenarios/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/) / [AI/ML项目](/scenarios/ai-ml%E9%A1%B9%E7%9B%AE/)
### 相关文章
- [Gemini 3.1 Pro:面向复杂任务的深度回答模型](/posts/20260219-blogs_podcasts-gemini-31-pro-a-smarter-model-for-your-most-comple-4/)
- [Gemini 3.1 Pro:专为复杂任务设计的智能模型](/posts/20260219-blogs_podcasts-gemini-31-pro-a-smarter-model-for-your-most-comple-5/)
- [谷歌发布 Gemini 3.1 模型](/posts/20260219-hacker_news-gemini-31-1/)
- [谷歌发布 Gemini 3.1 Pro 模型](/posts/20260219-hacker_news-gemini-31-pro-0/)
- [谷歌发布 Gemini 3.1 Pro 模型](/posts/20260219-hacker_news-gemini-31-pro-6/)
|