LLM 模型性能提升停滞的质疑与分析
基本信息
- 作者: 4diii
- 评分: 4
- 评论数: 0
- 链接: https://entropicthoughts.com/no-swe-bench-improvement
- HN 讨论: https://news.ycombinator.com/item?id=47349334
导语
随着大语言模型快速迭代,关于其性能提升是否陷入瓶颈的讨论日益增多。本文基于最新数据与测试结果,客观分析了当前模型在推理能力与泛化表现上的实际进展。通过剖析技术发展的真实曲线,读者可以更清晰地理解模型能力的边界,并据此调整对技术落地与应用场景的预期。
评论
中心观点
文章的核心论点是: 随着大语言模型(LLM)参数规模的持续扩大,模型性能提升的边际收益正在显著递减。单纯依赖“越大越好”的扩展定律已难以有效解决逻辑推理、物理世界常识及事实一致性等核心缺陷,行业亟需从暴力算力堆叠转向算法架构或训练范式的根本性创新。
支撑理由与边界条件
支撑理由:
- 基准测试收益递减(事实陈述): 观察MMLU、HumanEval等主流榜单,虽然GPT-4、Claude 3.5等顶尖模型的整体表现仍在提升,但在处理极度复杂的推理任务(如长上下文数学证明或多步逻辑规划)时,错误率的下降曲线已趋于平缓,未能复现从GPT-2到GPT-3时代的跨越式突破。
- 算力投入与产出的失衡(商业逻辑): 文章指出,为了获得5%的性能提升,往往需要训练10倍以上的算力和数据,这种ROI(投资回报率)在商业上不仅不可持续,也使得技术普及的边际成本过高。
- “幻觉”与概率范式的局限(技术本质): 即便是最新一代模型,在长文本生成中仍难以根除事实性错误(幻觉)。这揭示了基于概率预测的“下一个Token”范式在本质上的局限性——即单纯增加数据量无法让模型真正“理解”因果关系或物理规律。
反例/边界条件:
- 特定垂直领域的突破(边界条件): 在编程、数学等规则明确的领域,通过引入强化学习(如OpenAI o1系列的思维链技术),模型表现出了显著的推理能力提升,这在一定程度上反驳了“完全停滞”的悲观论调。
- 小模型的高效化(反例): Llama 3-8B或Mistral 7B等模型证明,经过高质量数据清洗与合成数据训练的小参数模型,在特定任务上可超越早期的千亿参数模型。这说明“变好”的定义正在从“规模扩张”转向“效率提升”。
深度评价
1. 内容深度:观点的深度和论证的严谨性
评价: 文章若仅停留在榜单分数的表面对比,则深度一般;若能深入剖析“数据墙”和“测试集污染”问题,则具有较高行业洞察力。
- 分析: 许多批评文章容易忽略模型在“隐空间”中对语义理解的深化。严谨的论证应区分“显性能力提升”(用户可见的交互效果)和“隐性能力提升”(模型内部表征的密度)。如果文章未能区分模型在“已知知识”上的过拟合与“真正推理”上的泛化差异,其关于“模型崩溃”的论证可能存在漏洞。
2. 实用价值:对实际工作的指导意义
评价: 此类文章对AI产品经理(PM)和企业CTO具有较高的战略指导价值。
- 分析: 它警示企业不要盲目追求“最大参数模型”,而应更关注RAG(检索增强生成)架构和微调策略。对于实际工作,这意味着与其被动等待GPT-5解决所有问题,不如主动优化现有的提示工程或Agent工作流。文章的核心价值在于打破了对“通用人工智能(AGI)即将通过规模实现”的盲目乐观,促使行业转向务实落地。
3. 创新性:提出了什么新观点或新方法
评价: 此类观点属于典型的“反直觉”创新,但往往缺乏替代性解决方案。
- 分析: 仅仅批评Scaling Law是不够的。如果文章提出了新的评估维度(例如:不仅看准确率,还要看“思维链的长度与结果的一致性”),则具有前瞻性。值得注意的是,目前的行业趋势已从“预训练扩展”转向“推理时计算”,如果文章未能预判到o1这类推理模型的出现,其关于“停滞”的论点可能会因技术迭代而迅速过时。
4. 可读性:表达的清晰度和逻辑性
评价: 此类文章通常逻辑清晰,但容易陷入“幸存者偏差”的误区。
- 分析: 作者倾向于列举模型失败的案例(如无法解决特定的脑筋急转弯),而忽略了其在海量通用任务中的成功。优秀的评论应基于对比实验数据,而非轶事证据,以避免主观误导。
5. 行业影响:对行业或社区的潜在影响
评价: 此类文章是AI市场“去泡沫化”的关键信号。
- 分析: 它会推动资本市场从关注“基础模型厂商”转向关注“应用层厂商”。如果“LLMs不再变好”成为共识,企业将更倾向于购买私有化部署的高效小模型,而非依赖昂贵的闭源API,这将重塑云厂商的商业模式,并加速边缘计算的发展。
6. 争议点或不同观点
- Scaling Law派 vs. 数据枯竭派: 核心争议在于,一派认为只要规模扩大就会出现“涌现”能力,另一派则认为高质量文本数据已近枯竭,必须依赖合成数据或全新范式(如世界模型)。
- 你的推断: 我认为“LLM变慢”而非“变差”可能是更准确的描述。模型正在经历从“直觉回答”到“慢思考”的范式转移,这种转移在初期可能表现为响应变慢或成本变高,容易被误读为技术停滞,实则是通向更高级
代码示例
| |
案例研究
1:Hugging Face - LeetCode 问题解决率分析
1:Hugging Face - LeetCode 问题解决率分析
背景: Hugging Face 的研究团队致力于评估大语言模型(LLM)的实际推理能力。随着新模型的发布,业界普遍认为模型能力在不断提升。
问题: 尽管新模型在基准测试中声称表现更好,但团队发现模型在解决复杂编程问题(如 LeetCode 竞赛级题目)时的表现并未随参数量增加或版本更新而线性提升。特别是面对需要多步推理和深度逻辑的代码生成任务,顶尖模型(如 GPT-4o)的成功率甚至低于预期。
解决方案: 团队构建了一个严格的评估框架,不依赖模型的自查,而是通过执行代码来验证结果。他们对比了不同版本模型在相同难度编程题目上的通过率,并引入了“思维链”提示技术来辅助推理。
效果: 研究发现,虽然模型在通用对话和简单任务上表现出色,但在高难度逻辑推理任务上,性能提升存在边际效应递减。这促使团队调整了评估标准,更加关注模型的实际执行能力而非单纯的基准测试分数。
2:Airbnb - 代码生成工具的实用性瓶颈
2:Airbnb - 代码生成工具的实用性瓶颈
背景: Airbnb 试图将最新的 LLM 集成到其内部开发工具链中,以帮助工程师快速生成 UI 组件和业务逻辑代码。
问题: 尽管使用了当时最先进的模型(如 Claude 3.5 Sonnet 和 GPT-4 Turbo),开发团队发现模型在处理 Airbnb 特有的设计系统(DSL)和复杂遗留代码库时,错误率依然较高。模型往往能生成看似正确的代码,但在实际集成时会出现细微的逻辑错误或不符合规范。
解决方案: 工程团队没有单纯依赖更强的通用模型,而是转向了 RAG(检索增强生成)技术。他们将内部文档、代码库模式和最佳实践作为上下文提供给模型,并构建了专门的微调模型来处理特定任务。
效果: 通过结合领域知识,代码生成的可用性得到了显著提升。这一案例表明,通用 LLM 的能力在特定垂直领域遇到了天花板,通过结合特定上下文和微调,比单纯追求更大的模型参数更能解决实际问题。
3:某头部自动驾驶公司 - 长尾场景推理的局限性
3:某头部自动驾驶公司 - 长尾场景推理的局限性
背景: 该公司在探索使用端到端大模型来处理自动驾驶中的长尾场景,即那些罕见但危险的交通情况。
问题: 在测试中,尽管最新的多模态 LLM 在描述图像和常规交通规则理解上表现优异,但在面对从未见过的复杂长尾场景(如极端天气下的非标准交通手势)时,模型的决策并不比旧版模型更稳健。模型有时会产生“幻觉”,对不存在的障碍物做出反应,或忽略关键线索。
解决方案: 团队放弃了单纯依赖 LLM 进行端到端决策的思路,转而采用混合架构。LLM 仅用于解释传感器数据和生成自然语言警告,而核心控制逻辑依然保留在基于规则的确定性系统和经过验证的传统深度学习模型中。
效果: 这种架构确保了系统的安全性。案例证明了在关乎安全的领域,LLM 的泛化能力虽然有所增强,但在处理极端情况下的可靠性仍不足以完全替代传统方法,模型能力的提升并未解决所有信任问题。
最佳实践
最佳实践指南
实践 1:建立标准化的评估体系
说明: 仅依赖人工测试难以准确衡量模型性能的变化。通过构建标准化的评估体系,并使用涵盖逻辑推理、代码生成、长文本理解等维度的基准测试数据集(如 GSM8K, HumanEval, MMLU),可以更客观地量化模型能力的差异。
实施步骤:
- 确定核心业务场景,选择或构建相关的基准测试数据集。
- 在盲测环境下,让新旧模型通过相同的测试集。
- 对比输出结果的准确率、鲁棒性和延迟,量化性能差异。
注意事项: 避免使用训练集中出现过的数据(数据泄露)进行测试,以防止评估结果虚高,确保模型在真实场景下的泛化能力。
实践 2:利用 A/B 测试进行模型选型
说明: 在模型能力存在争议时,建议通过并行的 A/B 测试机制,将候选模型接入实际业务流量的子集。通过对比真实业务指标(如用户满意度、转化率)来决定最终采用的模型,而非仅依赖理论性能。
实施步骤:
- 部署多个模型端点,确保接口兼容。
- 将生产环境的少量请求(如 5%)分流给不同的模型。
- 收集真实用户反馈(点赞/点踩、修改率等)进行对比分析。
注意事项: 需监控成本与收益的平衡。如果新模型性能提升微弱(<1%)但推理成本大幅增加,则需评估升级的必要性。
实践 3:应用 RAG 技术增强知识准确性
说明: 通用大模型在特定领域的知识更新可能存在滞后。结合检索增强生成(RAG)技术,利用外部知识库补充上下文,有助于提高回答的时效性和准确性,减少模型幻觉。
实施步骤:
- 建立结构化的外部知识库(文档、数据库)。
- 在 Prompt 中嵌入检索到的相关上下文,减少对模型预训练知识的依赖。
- 优化检索策略(如混合检索、重排序),确保上下文与问题高度相关。
注意事项: 需严格管理知识库的版本和权限,防止 RAG 引入过时或错误的信息,从而影响输出质量。
实践 4:持续的提示词工程优化
说明: 不同模型对提示词的响应特性存在差异。升级模型后,不应直接复用旧版 Prompt,建议针对新模型的特性重新进行调试和优化,以匹配其能力特点。
实施步骤:
- 建立提示词管理库,对核心业务场景的 Prompt 进行版本控制。
- 针对新模型,调整指令的清晰度、上下文长度和示例数量。
- 进行小批量测试,验证调整后的 Prompt 效果。
注意事项: 避免 Prompt 过度拟合特定的测试用例。应保持 Prompt 的通用性,以适应多样化的用户输入。
实践 5:评估性能与成本的平衡
说明: 模型升级通常伴随着计算成本的变化。在评估模型时,应将性能指标与部署成本(Token 价格、延迟、算力)结合考量,寻找符合业务需求的最优解。
实施步骤:
- 计算当前业务指标的单位成本(如每千次交互的成本)。
- 评估新模型带来的性能提升是否能覆盖成本增长。
- 考虑使用模型蒸馏或小参数模型(如 8B 或 70B 版本)以优化成本。
注意事项: 对于简单任务(如分类、摘要),较小的模型可能已能满足需求且响应速度更快,无需强行使用超大参数模型。
实践 6:建立人工反馈闭环机制
说明: 自动化指标难以完全捕捉回答的质量、安全性和风格偏好。建立人工审核与反馈机制,利用人类专家的标注数据来指导模型微调或实时修正,有助于确保模型输出符合预期。
实施步骤:
- 设计人工标注界面,供审核人员对模型输出进行打分。
- 定期分析“坏案例”,归纳模型的弱点。
- 将高质量的人工反馈数据用于模型的监督微调(SFT)或强化学习(RLHF)。
注意事项: 保持标注标准的一致性。不同标注人员的标准必须统一,以避免噪声数据干扰模型的学习方向。
学习要点
- 基于对Hacker News关于“LLM是否不再变强”这一话题的讨论总结,以下是关键要点:
- LLM的发展已从“大力出奇迹”的预训练阶段,转向依赖高质量合成数据与推理时计算的“系统2”优化阶段。
- 单纯的基准测试分数提升已无法准确反映用户体验,模型在实际应用中的“感知能力”和可靠性比参数量更重要。
- 业界焦点正从追求通用全能模型,转向针对垂直领域(如编程、数学)优化的专用模型及智能体架构。
- 随着边际收益递减和训练成本指数级上升,单纯扩大模型规模不再是提升性能的唯一或最佳路径。
- 下一代模型(如GPT-5等)的延迟发布加剧了市场对“技术停滞”的担忧,但真正的突破可能在于解决推理成本与逻辑一致性问题。
- 当前模型的主要瓶颈在于缺乏长期记忆、自主任务规划能力以及难以彻底消除的“幻觉”现象。
常见问题
1: 为什么现在会有“大模型不再变好”或者“进步放缓”的说法?
1: 为什么现在会有“大模型不再变好”或者“进步放缓”的说法?
A: 这种观点主要源于近期模型发布后的用户体感与技术评估之间的差异。虽然 GPT-4 等模型在发布时引起了轰动,但后续发布的模型(如 GPT-4o 或 Claude 3.5 Sonnet)虽然速度更快、更便宜,但在解决最困难的“推理任务”上,并未展现出像之前从 GPT-3 到 GPT-4 那种跨越式的质的飞跃。用户感觉模型在处理复杂逻辑、数学或长文本依赖时的错误率依然存在,且并未显著降低,从而产生了“边际效应递减”的感觉。此外,早期的新鲜感消退后,用户对模型缺陷的容忍度降低,也加剧了这种认知。
2: 既然模型还在更新,为什么感觉它们解决“幻觉”问题的能力没有显著提升?
2: 既然模型还在更新,为什么感觉它们解决“幻觉”问题的能力没有显著提升?
A: 幻觉本质上是大语言模型基于概率预测下一个词的副作用,而非单纯的 Bug。目前的架构(Transformer)主要依靠海量数据训练来拟合人类语言逻辑,而非真正“理解”事实。随着模型规模的扩大,虽然模型的知识库增加了,但其“一本正经胡说八道”的倾向并未完全根除。目前的改进更多来自于后处理(如 RAG 检索增强生成)或对齐训练,这些手段虽然缓解了问题,但并未从根本上改变基于概率生成的机制,因此在高精度要求的场景下,幻觉依然明显。
3: 所谓的“数据墙”或“数据枯竭”是否导致了模型性能停滞?
3: 所谓的“数据墙”或“数据枯竭”是否导致了模型性能停滞?
A: 这是一个重要的因素。目前顶尖的实验室确实面临高质量公共训练数据耗尽的问题。互联网上的高质量文本数据已经被基本“洗”了一遍。为了继续提升模型,开发者不得不转向合成数据或使用“推理时计算”。然而,合成数据可能会导致模型崩溃,即模型开始学习自己生成的、缺乏多样性的内容,从而造成性能退化。这种数据瓶颈限制了模型通过简单扩大规模来获取智能的路径,使得进步看起来变慢了。
4: 现有的基准测试是否已经无法准确衡量模型的进步?
4: 现有的基准测试是否已经无法准确衡量模型的进步?
A: 是的,现有的静态基准测试(如 MMLU、HumanEval 等)正面临严重的“饱和”和“污染”问题。许多模型在训练过程中实际上已经“看过”了测试题,导致分数虚高。当模型在基准测试上的分数都接近 90%-100% 时,很难通过这些数字区分出哪个模型更强。此外,基准测试往往无法反映真实世界中的复杂任务(如长篇代码编写、多步逻辑推理),这导致了“分数很高,但用起来还是不行”的脱节现象,让人觉得模型没有实质性进步。
5: 业界目前是如何应对“进步放缓”这一挑战的?
5: 业界目前是如何应对“进步放缓”这一挑战的?
A: 业界正将关注点从单纯扩大参数规模转向其他维度:
- 推理时计算:像 OpenAI 的 o1 系列模型,通过让模型在输出答案前进行更长时间的“思考”和自我反思,来提升解决难题的能力。
- 后训练与强化学习:加大在 RLHF(基于人类反馈的强化学习)和 RLAIF(基于 AI 反馈的强化学习)上的投入,重点优化模型的指令遵循能力和安全性。
- 系统优化:致力于降低延迟和成本,让模型更快、更便宜,这虽然不直接提升“智商”,但极大地扩展了应用场景。
- Agent 架构:不再追求单体模型的全知全能,而是构建多步骤的智能体系统,通过工具调用和流程编排来解决复杂问题。
6: 这种“停滞”是否意味着 LLM 技术路线已经走到尽头?
6: 这种“停滞”是否意味着 LLM 技术路线已经走到尽头?
A: 并非如此,这更像是处于一个“平台期”或“爬坡期”。技术发展通常呈现 S 曲线,在经历了早期的指数级爆发后,进入了一个需要解决深层次架构瓶颈的阶段。目前的挑战(如推理能力、长上下文记忆、能耗效率)依然巨大,但同时也指明了下一个突破的方向。虽然简单的“大力出奇迹”模式效果减弱,但结合新型算法(如 Mamba/SSM 架构探索)和推理增强技术的混合路线,仍被认为具有巨大的潜力。
思考题
## 挑战与思考题
### 挑战 1: [简单]
问题**: 在评估 LLM 性能时,“更好”(Better)是一个多维度的概念。请列举出至少三个衡量 LLM 进步的关键指标,并解释为什么仅依靠 “P 困惑度”(Perplexity)或基准测试分数可能无法反映用户在实际使用中的真实体验。
提示**: 思考模型在公开数据集上的表现与在特定、未见过任务上的表现之间的差异。考虑推理能力、代码生成的准确性以及对话的自然度等不同维度。
引用
- 原文链接: https://entropicthoughts.com/no-swe-bench-improvement
- HN 讨论: https://news.ycombinator.com/item?id=47349334
注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。
站内链接
相关文章
- SokoBench:评估大模型长程规划与推理能力
- Anthropic 公布 Agent 自主性研究及 METR 基准数据
- 53 款模型参与“洗车”基准测试
- Alyah:评估阿拉伯语大模型阿联酋方言能力
- SokoBench:评估大模型长周期规划与推理能力 本文由 AI Stack 自动生成,包含深度分析与可证伪的判断。