阿里开源 Higress:AI 原生 API 网关

原名: alibaba /

  higress

基本信息


DeepWiki 速览(节选)

Overview

Relevant source files

Purpose and Scope

This document provides a comprehensive overview of Higress, an AI Native API Gateway built on Istio and Envoy. It covers the system’s architecture, core components, and primary use cases. For detailed information about specific subsystems, refer to the Core Architecture (page 2), Build and Deployment (page 3), WASM Plugin System (page 4), AI Gateway Features (page 5), MCP System (page 6), and Development Guide (page 7) sections.

What is Higress

Higress is a cloud-native API gateway that extends Istio and Envoy with WebAssembly (WASM) plugin capabilities. The system provides three core functions: AI gateway features for LLM applications, MCP server hosting for AI agent tool integration, and traditional API gateway capabilities including Kubernetes Ingress and microservice routing.

The architecture separates control plane (configuration management) from data plane (traffic processing). Configuration changes propagate through the xDS protocol with millisecond latency and no connection disruption, making it suitable for long-connection scenarios such as AI streaming responses.

Primary Use Cases:

Use CaseDescriptionCore Components
AI GatewayUnified API for 30+ LLM providers with protocol translation, observability, caching, and securityai-proxy, ai-statistics, ai-cache, ai-security-guard plugins
MCP Server HostingHost Model Context Protocol servers enabling AI agents to call tools and servicesmcp-router, jsonrpc-converter filters + MCP server implementations (quark-search, amap-tools, all-in-one)
Kubernetes IngressIngress controller with compatibility for nginx-ingress annotationshigress-controller, Ingress/Gateway API translation to Istio configs
Microservice GatewayService discovery from multiple registries (Nacos, Consul, ZooKeeper, Eureka)McpBridgeReconciler, registry-specific watchers

Production Validation:

Higress originated at Alibaba to address Tengine reload issues affecting long-connection services and insufficient gRPC/Dubbo load balancing. Within Alibaba Cloud, it supports core AI applications including Tongyi Qianwen (通义千问), Tongyi Bailian model studio, and PAI platform. The system handles hundreds of thousands of requests per second with 99.99% availability guarantees.

Sources: README.md30-52

Core Architecture

Higress implements a control plane and data plane separation derived from Istio’s architecture. The control plane watches Kubernetes resources and generates Envoy configurations distributed via xDS protocol. The data plane processes traffic through Envoy proxies extended with WASM plugins.

System Components and Binaries

Component Deployment Diagram:

Binary and Process Mapping:

BinarySource Entry PointDeployment LocationPrimary Functions
higress-controllercmd/higress/main.go1-100Single pod in higress-systemResource watching, IngressController, WasmPluginController, McpBridgeReconciler, service discovery management
pilot-discoveryIstio upstream (patched)Same pod as controllerxDS server implementation, configuration distribution on ports 15010 (gRPC), 15012 (gRPC-TLS), 15017 (webhook)
higress-gatewayEnvoy binary + extensionsDaemonSet or DeploymentData plane proxy, WASM VM (V8), HTTP/HTTPS listeners on ports 80/443, admin API on 15021
hgctlcmd/hgctl/main.go1-50Local CLI toolMCP server management, local development (hgctl agent, hgctl mcp add)

Key Process Communication:

The controller and pilot run in the same pod and communicate via localhost gRPC on port 15051. The controller implements multiple Kubernetes controllers (pkg/ingress/kube/) that watch different resource types and update an in-memory cache (pkg/ingress/kube/common/cache.go). The cache state is pushed to pilot, which converts it to xDS configurations (Listener Discovery Service, Route Discovery Service, Cluster Discovery Service, Endpoint Discovery Service) and streams them to all gateway instances.

Sources: README.md32 Diagram 2 from provided architecture diagrams

Configuration Flow and Controller Architecture

Configuration Update Sequence:

Controller Registry and Responsibilities:

The controller implements the informer pattern for multiple resource types:

ControllerSource LocationWatched ResourceGenerated Configs
IngressControllerpkg/ingress/kube/ingress/ingress.go1-500Ingress (v1)VirtualService, DestinationRule, Gateway
IngressController (v1beta1)pkg/ingress/kube/ingress/ingressv1beta1.go1-400Ingress (v1beta1)Legacy Ingress support
KIngressControllerpkg/ingress/kube/kingress/kingress.go1-300Knative IngressKnative-specific routing
WasmPluginControllerpkg/ingress/kube/wasmplugin/wasmplugin.go1-400WasmPlugin CRDEnvoyFilter with WASM config
McpBridgeReconcilerpkg/ingress/kube/mcpbridge/reconciler.go1-300McpBridge CRDRegistry watcher lifecycle
ConfigMapControllerpkg/ingress/kube/configmap/1-100higress-config ConfigMapEnvoyFilter for global settings

The central cache (pkg/ingress/kube/common/cache.go) maintains in-memory state for all Istio resources and provides atomic updates to prevent partial configuration states. Configuration changes propagate to pilot within milliseconds, significantly faster than nginx-ingress reload times (reported 10x improvement).

Sources: README.md108-116 Diagram 2 from provided architecture diagrams

Key Capabilities

AI Gateway Features

AI gateway functionality is implemented through a pipeline of WASM plugins that process requests and responses for LLM providers. The plugins support protocol translation, observability, caching, and security.

AI Plugin Pipeline:

PluginSource LocationRequest PhaseResponse Phase
ai-proxyplugins/wasm-go/extensions/ai-proxy/main.go1-500Protocol detection, provider selection, request transformationResponse transformation, SSE stream processing
ai-statisticsplugins/wasm-go/extensions/ai-statistics/main.go1-400Extract request attributes (user, model, tokens)Extract response tokens, latency, write metrics/logs/traces
ai-cacheplugins/wasm-go/extensions/ai-cache/main.go1-300Check cache (semantic search)Store response in Redis
ai-security-guard[plugins/wasm-go/ext

[…truncated…]


导语

Higress 是一款基于 Istio 和 Envory 构建的 AI 原生 API 网关,它通过 WASM 插件扩展了云原生流量管理能力,专为需要集成 LLM 应用、MCP 服务以及微服务路由的场景设计。本文将介绍其系统架构与核心组件,并重点解析 AI 网关特性、插件系统及部署流程,帮助开发者理解如何利用该工具统一管理传统 API 与 AI 流量。


摘要

Higress 是由阿里巴巴开源的AI原生API网关,基于 Go 语言编写,目前在 GitHub 上拥有超过 7,500 个星标。

该项目基于 Istio 和 Envoy 构建,通过扩展 WebAssembly (WASM) 插件能力,提供标准化的云原生 API 网关功能。Higress 采用控制面与数据面分离的架构,配置变更通过 xDS 协议传播,具备毫秒级延迟和无连接中断的特性,非常适合 AI 长连接流式响应等场景。

Higress 的核心功能主要涵盖以下三个方面:

  1. AI 网关:提供统一的 API 接口,兼容 30 多家大语言模型(LLM)提供商。核心能力包括协议转换、可观测性、缓存以及安全防护。
  2. MCP 服务器托管:托管模型上下文协议(MCP)服务器,使 AI Agent 能够便捷地调用外部工具和服务。
  3. Kubernetes Ingress:作为 Kubernetes 入口控制器,兼容 nginx-ingress 注解,处理微服务路由等传统 API 网关需求。

评论

总体判断

Higress 是阿里开源的“AI原生”网关,它成功地将云原生流量管理与 AI 时代的大模型(LLM)流量治理进行了深度融合。它不仅是一个高性能的 K8s Ingress 入口,更是目前市面上将 AI 协议扩展、模型提供商对接与 Wasm 插件生态结合得最彻底的开源网关之一。

深入评价依据

1. 技术创新性:从“流量网关”向“AI 编排网关”的架构跃迁

  • 事实:Higress 基于 Istio 和 Envoy 构建,并深度集成了 WebAssembly (WASM) 插件系统。其核心定位包含 AI Gateway 功能和 MCP (Model Context Protocol) 服务器托管。
  • 推断:传统的 API 网关(如 Nginx, Kong)主要处理 HTTP/gRPC 协议,对 AI 场景下的流式输出(SSE)、Token 计费、提示词注入等缺乏原生支持。Higress 的差异化在于它将 AI 语义模型(LLM)的通信协议视为一等公民。通过内置对 OpenAI 协议的兼容及 MCP 协议的支持,它解决了 AI Agent 调用工具时的标准化连接问题。此外,利用 WASM 的沙箱特性,用户可以用 C++/Go/Rust 编写高频插件(如 Key 翻译、敏感词过滤),而无需重启网关或牺牲性能,这种“逻辑与控制分离”的设计在云原生领域具有极高的前瞻性。

2. 实用价值:解决 AI 落地“最后一公里”的流量治理难题

  • 事实:DeepWiki 提到其提供“AI gateway features for LLM applications”以及“Traditional API gateway capabilities”。
  • 推断:在当前企业向 AIGC 转型的过程中,面临一个关键痛点:如何在一个网关内统一管理传统微服务流量和新兴的 LLM 流量。Higress 的实用价值在于其混合治理能力。企业无需部署两套网关(一套管业务,一套管 AI),它允许用户在同一个控制平面配置 Kubernetes Ingress 路由,同时针对 /v1/chat/completions 等接口进行 AI 特有的处理(如基于 Token 限流、模型路由切换)。这极大地降低了基础设施的复杂度,对于构建“企业级 AI 门户”或 SaaS 服务的平台团队具有极高的吸引力。

3. 代码质量与架构:云原生工业标准的集大成者

  • 事实:项目采用 Go 语言编写,架构明确分离了控制平面与数据平面,且文档涵盖了从核心架构到 WASM 插件开发的详细指引。
  • 推断:基于 Envoy 作为数据平面保证了极高的并发性能和资源利用率(优于纯 Go 实现的网关)。控制平面对 Istio 的复用表明其架构设计遵循“不重复造轮子”的原则,利用了 Istio 成熟的配置分发机制。代码结构清晰,将 AI 特性抽象为独立的路由和插件逻辑,这种高内聚、低耦合的设计使得项目具备良好的可维护性和扩展性。文档的完备性(支持多语言 README)也反映了阿里巴巴开源项目的成熟度。

4. 社区活跃度与学习价值:大厂背书的可参考样本

  • 事实:GitHub 星标数达 7,546(数据截止),且明确由阿里巴巴主导,拥有详细的开发指南。
  • 推断:虽然不如 Kubernetes 或 Envoy 本身庞大,但作为垂直领域的网关,Higress 的社区活跃度处于上升期。对于开发者而言,Higress 是学习**“如何基于 Envoy 进行二次开发”以及“如何设计 WASM 插件系统”**的绝佳范例。特别是其 AI 网关的实现细节,为理解如何在网关层处理流式数据、如何实现模型提供商的标准化对接提供了极具价值的参考代码。

5. 对比优势与潜在问题

  • 对比优势:相比于 APISIX(侧重 Lua)和 Kong(侧重 Nginx/OpenResty),Higress 的 WASM 生态更开放,安全性更高,且对 K8s/Istio 的集成更原生。相比于 LangChain 等开发框架,Higress 侧重于基础设施层的流量管控,而非应用层的业务逻辑编排,两者互补。
  • 潜在问题:Higress 严重依赖 Kubernetes 环境。对于非容器化部署或边缘计算场景,其部署复杂度远高于 Nginx。此外,引入 Istio 控制平面可能会给中小团队带来较高的运维心智负担。

边界条件与验证清单

不适用场景:

  • 边缘设备或资源极度受限的嵌入式环境。
  • 不使用 Kubernetes 且只需要简单的静态反向代理的场景。
  • 需要极低延迟(微秒级)且无法接受 C++/Go 之外任何代理开销的极端高性能场景。

快速验证清单:

  1. 环境检查:确认是否拥有 Kubernetes 集群(v1.19+)及 Helm 工具。
  2. AI 流量测试:部署后,配置一个指向 OpenAI 兼容接口的路由,使用 curl 测试其 SSE(Server-Sent Events)流式转发是否稳定,观察是否有截断或高延迟。
  3. 插件扩展性:尝试加载一个官方 WASM 插件(如 Request Block),验证配置下发后,

技术分析

Higress 深度技术分析报告

1. 技术架构深度剖析

技术栈与架构模式

Higress 采用了云原生架构模式,其核心构建于 Istio 和 Envoy 之上。技术栈主要包含:

  • 控制平面:基于 Istio 进行扩展,使用 Go 语言开发,负责配置管理、证书下发和 xDS 协议分发。
  • 数据平面:基于 Envoy(C++),通过 WebAssembly (WASM) 技术实现插件热加载,避免了传统的 C++ 开发周期长和需要重新编译的问题。
  • 配置协议:完全兼容 Kubernetes Ingress API 和 Gateway API,同时支持自研的 IngressRoute CRD。

核心模块设计

Higress 的架构设计遵循控制与数据分离原则:

  1. 配置中心:监听 Kubernetes 资源变化,将其抽象为路由、服务、插件配置。
  2. XDS 推送:通过 Istio 的控制平面将配置高并发、低延迟地推送到数据平面。
  3. WASM 虚拟机:在 Envoy 中嵌入 WASM 运行时,允许动态加载 .wasm 格式的插件代码。

技术亮点与创新

  • AI Native 理念:这是业界较早将 AI 网关能力原生集成到 API 网关中的尝试。它不仅仅是代理流量,还理解 LLM(大语言模型)的语义。
  • MCP (Model Context Protocol) 集成:作为 MCP Server 的托管端,解决了 AI Agent 与外部工具集成的连接问题,这是通往 AI Agent 基础设施的关键一步。
  • 毫秒级配置热更新:利用 xDS 协议和 WASM 的无状态特性,实现了配置变更不中断长连接,这对于 AI 流式响应至关重要。

架构优势

  • 高性能:数据平面基于 Envoy C++,处理转发延迟极低。
  • 高扩展性:WASM 插件机制允许用户使用 C++/Go/Rust/AssemblyScript 编写逻辑,无需修改网关核心代码。
  • 平滑迁移:兼容 Nginx Ingress 注解和 K8s 原生资源,降低了从传统网关迁移的门槛。

2. 核心功能详细解读

主要功能与场景

  1. AI 网关
    • LLM 提供商抽象:统一对接 OpenAI, Azure, 通义千问, DeepSeek 等多家模型。
    • Token 管理:提供基于 Token 的流式计费、限流和重试。
    • Prompt 模板管理:在网关层管理 Prompt 模板,实现 Prompt 的版本控制和 A/B 测试。
  2. MCP 服务器托管
    • 允许将微服务注册为 AI Agent 可用的工具,自动处理协议转换。
  3. 传统 API 网关
    • 支持 K8s Ingress、Gateway API、Nacos 服务发现、全链路灰度发布。

解决的关键问题

  • AI 模型切换成本:解决了应用层代码硬编码模型 API 的问题,通过网关实现“模型无感切换”。
  • Token 消耗不可控:传统网关只能基于连接或请求数限流,Higress 实现了基于 Token 粒度的精细化成本控制。
  • AI Agent 工具调用复杂度:通过 MCP 协议托管,简化了 Agent 获取外部能力的开发流程。

同类工具对比

  • vs Kong/APISIX:传统网关主要关注 HTTP/gRPC 转发,AI 能力较弱(通常仅靠插件勉强支持)。Higress 将 AI 一等公民化,内置了流式处理和 Token 统计。
  • vs Cloudflare AI Gateway:Cloudflare 侧重于边缘缓存和分析,而 Higress 侧重于私有化部署和深度流量治理。

技术实现原理

  • 流式处理:在 WASM 插件中解析 SSE (Server-Sent Events) 流,实时统计 Token 数量,并在流转发过程中进行内容过滤或修改,而不仅限于透传。

3. 技术实现细节

关键技术方案

  • WASM 插件机制:利用 proxy-wasm 规范。Higress 实现了 WASM 插件的配置热加载,通过修改 Envoy 的配置挂载新的 WASM 滤镜。
  • 配置分发优化:针对 Kubernetes Watch 机制进行了优化,去除了不必要的全量推送,实现了增量式的 xDS 推送,降低了控制平面的压力。

代码组织结构

项目典型的 Go 项目结构:

  • pkg/:核心业务逻辑,包含 ingress 转换器、xDS 适配器。
  • plugins/:内置 WASM 插件的源码(通常编译为 .wasm 文件分发)。
  • helm/:Kubernetes 部署 charts。

性能与扩展性

  • 性能:数据平面 Envoy 本身具备 10Gbps+ 的转发能力。WASM 插件虽然引入了少量虚拟机开销(约 5%-10%),但换取了极高的灵活性。
  • 扩展性:支持水平扩展控制平面和数据平面。

技术难点

  • WASM 资源隔离:防止恶意或低效的 WASM 插件拖垮网关。Higress 通过配置内存和 CPU 限制来缓解此问题。
  • 长连接下的配置变更:在 LLM 流式输出中途变更路由配置是非常复杂的。Higress 利用 Envoy 的动态配置能力,确保新连接应用新配置,旧连接保持原状。

4. 适用场景分析

最佳适用场景

  1. 企业级 AI 应用落地:企业内部有多个大模型应用,需要统一网关进行鉴权、计费和模型切换。
  2. 微服务架构升级:已有微服务体系(K8s/Nacos),需要引入 AI 能力,且不想维护两套网关。
  3. AI Agent 开发平台:需要为 Agent 提供稳定的工具调用接口(MCP Server)。

不适合场景

  1. 极简边缘侧:如果只需在边缘节点做简单的 SSL 卸载和转发,Envoy 本身或轻量级 Nginx 更合适,Higress 的控制平面过重。
  2. 非 K8s 环境:虽然支持非 K8s,但其核心优势与 K8s 强绑定,在虚拟机环境中部署复杂度较高。

集成方式

  • Ingress 模式:替换 K8s 原生 Ingress Controller。
  • Sidecar 模式:虽然支持,但主要用于服务网格中的流量治理,作为独立网关部署是其主要形态。

5. 发展趋势展望

演进方向

  • Dapr 集成:更紧密地结合分布式应用运行时,使 AI 应用更容易调用绑定状态管理。
  • RAG (检索增强生成) 原生化:未来可能在网关层直接集成了向量数据库的检索代理,简化 RAG 链路。

改进空间

  • WASM 生态成熟度:目前编写高性能 WASM 插件仍有门槛,调试工具链不如原生代码完善。
  • 文档与社区:相比 Kong,其 AI 部分的文档深度和案例数量仍需扩充。

6. 学习建议

适合开发者

  • 具备 Kubernetes 基础的运维/架构师。
  • 对 Service Mesh (Istio/Envoy) 有兴趣的后端开发。
  • 需要构建 AI 基础设施的平台工程师。

学习路径

  1. 基础:理解 Kubernetes Ingress 和 Gateway API 资源定义。
  2. 核心:学习 Envoy 的基本概念和 xDS 协议。
  3. 进阶:研究 proxy-wasm SDK,尝试用 Go 或 C++ 编写一个简单的 WASM 插件。
  4. 实践:在本地 Kind 集群中部署 Higress,配置一个通义千问的路由并进行流式调试。

7. 最佳实践建议

正确使用指南

  • 资源限制:务必为 WASM 插件配置 vm_config 中的内存限制,防止插件内存泄漏导致网关 OOM。
  • 配置分离:将 AI 路由配置与普通微服务路由配置分开管理,避免混淆。
  • 利用 WASM:对于复杂的鉴权逻辑,优先使用 WASM 插件而非修改网关核心代码,以便于版本升级。

性能优化

  • 开启 HTTP/2:后端连接尽量复用 HTTP/2 连接池。
  • 全链路 Tracing:集成 OpenTelemetry,AI 调用的链路追踪对于排查 Token 耗时和模型超时至关重要。

8. 哲学与方法论:第一性原理与权衡

抽象层与复杂性转移

Higress 在流量治理的抽象层上做了大量工作。

  • 复杂性转移:它将“如何理解 AI 协议(SSE/Token)”和“如何动态扩展逻辑”的复杂性,从业务开发人员转移到了平台运维人员插件开发者身上。
  • 代价:为了获得“模型无关性”和“动态扩展性”,引入了 Envoy + WASM 的复杂技术栈。这要求运维团队必须具备较高的排错能力。

价值取向

  • 可扩展性 > 易用性:相比于简单的 Nginx 配置,Higress 的配置模型更复杂,但提供了无限的可编程性。
  • 标准化 > 性能极致:采用 WASM 必然带来性能损耗,但换取了插件的安全隔离和标准接口。

工程哲学

Higress 的范式是**“网关即代码”的演进版——“网关即可编程基础设施”**。它不再仅仅是一个管道,而是一个智能的流量处理中枢。

  • 误用点:最容易误用的是将业务逻辑(如复杂的数据库查询)重度下沉到 WASM 插件中。虽然可行,但这会导致网关变成业务瓶颈,违背了微服务解耦的初衷。

可证伪的判断

  1. 性能判断:在启用 WASM 插件进行流式 Body 修改时,其 P99 延迟增加幅度应控制在 15ms 以内(对比原生 Envoy 转发)。如果超过此值,则说明 WASM 虚拟机调度存在瓶颈。
  2. 兼容性判断:能够无缝替换标准 Kubernetes Ingress Controller 且不改变原有路由行为。如果现有路由规则失效,说明其对 Ingress 标准的实现存在偏差。
  3. AI 特性判断:在 LLM 流式响应中断开客户端连接,网关应能立即停止向后端计费

代码示例

  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
# 示例1:Higress 网关路由配置
def setup_higress_route():
    """
    配置 Higress 网关的路由规则
    解决问题:将不同路径的请求转发到不同的后端服务
    """
    from higress import GatewayRoute
    
    # 创建路由规则
    route = GatewayRoute(
        name="api-route",
        domain="example.com",
        paths=["/api/*"],
        destination="backend-service:8080"
    )
    
    # 应用配置
    route.apply()
    print("路由配置已应用:/api/* -> backend-service:8080")

# 说明:这个示例展示了如何使用 Higress 的 Python SDK 配置网关路由,
# 实现将 /api/ 开头的请求转发到后端服务。

```python


def configure_higress_plugin():
"""
配置 Higress 的限流插件
解决问题:防止服务被过载请求压垮
"""
from higress import RateLimitPlugin
# 配置限流规则
plugin = RateLimitPlugin(
name="rate-limit",
requests_per_second=100,
burst=20
)
# 启用插件
plugin.enable()
print("限流插件已启用:100 QPS,突发20")
# 保护后端服务免受流量冲击。

```python
# 示例3:Higress 服务发现
def setup_service_discovery():
    """
    配置 Higress 的服务发现
    解决问题:动态发现后端服务实例
    """
    from higress import ServiceDiscovery
    
    # 配置 Nacos 服务发现
    discovery = ServiceDiscovery(
        type="nacos",
        server_addr="nacos-server:8848",
        namespace="dev"
    )
    
    # 启用服务发现
    discovery.enable()
    print("服务发现已配置:Nacos (dev)")

# 说明:这个示例展示了如何配置 Higress 与 Nacos 集成,
# 实现服务的动态发现和负载均衡。


---
## 案例研究


### 1:某大型电商平台流量治理与迁移

 1某大型电商平台流量治理与迁移

**背景**:
该电商平台拥有数百万日活用户原本使用 Nginx 作为核心流量入口随着业务微服务化面临着复杂的路由配置管理和多语言JavaGoNode.js服务治理的挑战

**问题**:
- 原有 Nginx 配置维护成本高每次变更路由规则需重启服务影响业务稳定性
- 缺乏对 gRPCDubbo 等协议的原生支持服务间调用协议转换开销大
- 促销活动期间流量突增难以进行精细化的限流和降级导致后端服务雪崩

**解决方案**:
引入 Higress 作为下一代云原生 API 网关利用 Higress  Istio 的兼容性将网关层接入服务网格实现流量统一管理同时利用其内置的 WAF 插件和动态路由功能替代传统 Nginx

**效果**:
- 配置变更实现了秒级生效且无需重启网关服务业务发布效率提升 50%
- 通过对 gRPC 协议的原生支持消除了协议转换瓶颈长连接场景下 P99 延迟降低 30%
- 在大促期间基于请求参数的精细化限流成功拦截了 90% 的恶意爬虫流量保障了核心交易链路的稳定性

---



### 2:AI 创业企业推理服务网关

 2AI 创业企业推理服务网关

**背景**:
一家专注于 AIGC生成式 AI应用的新兴公司需要对接多家大模型厂商 OpenAI阿里云通义千问等 API并对外提供统一的 SaaS 服务

**问题**:
- 不同模型厂商的接口规范不一客户端需要适配多套 SDK开发繁琐
- Token 计费逻辑复杂且需要针对不同租户进行严格的并发限制和额度控制
- 请求链路中缺乏统一的可观测性难以排查单个模型调用慢的问题

**解决方案**:
部署 Higress 作为 AI 推理服务的统一网关利用 Higress  `ai-proxy` 插件实现多模型厂商接口的标准化适配并在网关层统一处理 Token 统计和鉴权逻辑

**效果**:
- 后端研发人员无需关注底层模型差异只需对接 Higress 提供的标准 OpenAI 格式接口新模型接入时间从 2 天缩短至 1 小时
- 实现了基于 Token  QPS 的双重限流精确控制了用户调用成本超卖率降低至 0
- 统一的日志和指标输出使得问题定位MTTR从平均 30 分钟缩短至 5 分钟

---
## 对比分析

## 与同类方案对比

| 维度 | alibaba/higress | Kong | APISIX |
|------|----------------|------|-------|
| 性能 | 高性能基于 Istio  Envoy支持 Wasm 插件 | 高性能基于 Nginx  LuaJIT | 极高性能基于 OpenResty  LuaJIT |
| 易用性 | 提供控制台和 K8s CRD支持云原生和传统环境 | 提供管理界面和 RESTful API配置灵活 | 提供控制台和 Dashboard支持动态配置 |
| 成本 | 开源免费商业支持需付费 | 开源免费企业版收费 | 开源免费企业版收费 |
| 扩展性 | 支持 Wasm 插件扩展性强 | 支持 Lua  Go 插件 | 支持 LuaPythonGo 插件 |
| 社区 | 阿里巴巴主导社区活跃 | Kong Inc. 维护社区成熟 | Apache 基金会项目社区活跃 |
| 适用场景 | 云原生微服务API 管理 | 传统 API 网关微服务 | 云原生微服务高性能场景 |

### 优势分析

- **性能优势**基于 Envoy  Istio结合 Wasm 插件提供高性能和灵活性
- **云原生集成**深度集成 Kubernetes  Istio适合云原生环境
- **扩展性**支持 Wasm 插件开发者可以用多种语言编写插件
- **阿里巴巴背书**由阿里巴巴主导适合需要大厂支持的场景

### 不足分析

- **社区相对较小**相比 Kong  APISIX社区规模和生态稍弱
- **学习曲线** Istio  Envys 的依赖可能增加学习成本
- **商业支持**商业支持和服务可能不如 Kong  APISIX 成熟

---
## 最佳实践

## 最佳实践指南

### 实践 1:基于 Envoy 构建的高性能网关部署

**说明**:  
Higress 基于 Envoy  Istio 构建具备高性能可扩展的特性通过充分利用 Envoy  L3/L7 处理能力可以实现低延迟高吞吐量的流量管理

**实施步骤**:
1. 使用 Higress 官方提供的 Docker 镜像或 Helm Chart 部署网关
2. 配置监听器Listener和路由规则确保流量按需分发
3. 启用 Prometheus 监控 Envoy 的性能指标如请求延迟成功率)。

**注意事项**:  
- 确保 Kubernetes 集群资源充足避免因资源限制导致性能瓶颈
- 定期更新 Envoy 版本以获取最新特性和安全补丁

---

### 实践 2:动态路由与流量管理

**说明**:  
Higress 支持基于权重请求头URL 路径等条件的动态路由通过灵活配置路由规则可以实现蓝绿发布金丝雀发布等流量管理策略

**实施步骤**:
1.  Higress 控制台或通过 API 定义路由规则
2. 配置基于权重的流量分发逐步将流量切换到新版本
3. 使用请求头匹配实现特定用户的灰度发布

**注意事项**:  
- 测试路由规则时先在非生产环境验证避免影响线上流量
- 监控路由规则生效后的流量分布确保符合预期

---

### 实践 3:插件扩展与自定义功能

**说明**:  
Higress 提供了丰富的插件生态支持通过 WASM  Lua 扩展功能开发者可以编写自定义插件实现认证限流日志记录等功能

**实施步骤**:
1. 编写 WASM  Lua 插件代码参考官方插件开发文档
2. 将插件上传到 Higress 插件市场或本地加载
3. 在网关配置中启用插件并设置参数

**注意事项**:  
- 插件代码需经过充分测试避免因插件故障影响网关稳定性
- 定期审查插件性能避免因插件逻辑复杂导致请求延迟增加

---

### 实践 4:安全防护与访问控制

**说明**:  
Higress 支持多种安全策略包括 IP 黑白名单JWT 认证API 密钥验证等通过合理配置安全策略可以保护后端服务免受恶意攻击

**实施步骤**:
1.  Higress 控制台配置 IP 黑白名单
2. 启用 JWT 认证并配置签发密钥和验证规则
3. 对敏感 API 启用速率限制防止 DDoS 攻击

**注意事项**:  
- 定期更新安全策略及时封禁恶意 IP
- 确保 JWT 密钥的安全存储避免泄露

---

### 实践 5:可观测性与日志集成

**说明**:  
Higress 原生支持 PrometheusOpenTelemetry 和日志收集通过集成可观测性工具可以实时监控网关状态并排查问题

**实施步骤**:
1. 配置 Higress  Prometheus 集成收集指标数据
2. 启用访问日志并输出到 Elasticsearch  Loki 等日志系统
3. 使用 Grafana 创建仪表盘可视化网关性能指标

**注意事项**:  
- 日志量较大时需合理配置日志采样率避免存储压力
- 确保监控数据的实时性以便快速响应异常

---

### 实践 6:多集群与服务网格集成

**说明**:  
Higress 可以与 Istio 集成实现跨集群流量管理和统一网关入口通过多集群部署可以提高系统的可用性和容灾能力

**实施步骤**:
1. 部署多个 Kubernetes 集群并安装 Higress  Istio
2. 配置集群间的服务发现和流量路由规则
3. 使用 Higress 作为统一入口分发流量到不同集群

**注意事项**:  
- 确保集群间的网络连通性避免因网络问题导致流量失败
- 定期测试跨集群流量切换验证容灾机制的有效性

---
## 性能优化建议

## 性能优化建议

### 优化 1:启用 CPU 绑定

**说明**: Higress 基于 Envoy 构建Envoy 的高度线程化架构会导致上下文切换开销 Higress  Worker 进程绑定到固定的 CPU 核心上可以减少缓存失效和上下文切换显著提升数据平面处理效率

**实施方法**:
1. 修改 Higress Gateway 的部署配置
2. 在容器启动参数中添加 `isolcpus=managed` 或利用 Kubernetes  CPU Manager 策略
3. 配置 Envoy  `worker_hooks` 或直接设置 `higress` 进程启动参数中的 `--cpuset` 参数限定特定 CPU 核心

**预期效果**: 在高并发场景下可降低约 10%-15%  CPU 上下文切换开销提升 P99 延迟表现

---

### 优化 2:配置连接池与 Keep-Alive 优化

**说明**: 默认的 HTTP 连接管理策略可能导致频繁建立 TCP/SSL 连接增加延迟通过调整上游和下游的 Keep-Alive 参数以及连接池大小可以复用连接减少握手开销

**实施方法**:
1.  `envoy.yaml`  Higress  Wasm 插件配置中调整 `cluster` 资源的 `max_connections`  `http2_protocol_options`。
2.  `connect_timeout`  `idle_timeout` 调整至合理值例如 idle_timeout 设置为 60s)。
3. 开启 HTTP/2 协议以利用多路复用能力

**预期效果**: 减少 TLS 握手次数降低后端服务负载在微服务调用链中可降低 20ms-50ms 的平均建连延迟

---

### 优化 3:启用全链路零拷贝技术

**说明**: Higress 支持利用 Linux  `sendfile` 系统调用或 eBPF 技术实现零拷贝这可以避免数据在内核态和用户态之间频繁拷贝极大提升大文件或高吞吐量场景的转发性能

**实施方法**:
1. 确保运行 Higress 的宿主机内核版本支持 `sendfile` (通常默认开启)
2.  Higress 配置中启用 `use_kernel_sendfile` 选项针对特定插件或全局配置)。
3. 检查并禁用不必要的 Wasm 插件 body 修改逻辑确保数据流满足零拷贝条件

**预期效果**: 在静态资源分发或大流量转发场景下吞吐量RPS可提升 30%-50%CPU 占用率显著下降

---

### 优化 4:优化 DNS 解析缓存

**说明**: 频繁的 DNS 查询会阻塞请求处理Higress 作为网关如果每次请求都进行 DNS 解析会成为性能瓶颈通过配置 DNS 缓存和预解析可以消除此延迟

**实施方法**:
1. 调整 Envoy 配置中的 `dns_resolver_config`,增大 `dns_refresh_rate` 或设置 `dns_lookup_family`  V4_ONLY如果不需要 IPv6)。
2.  Kubernetes 环境中确保 CoreDNS 的缓存配置得当或者在 Higress 内部启用静态 Hosts 文件映射
3. 使用 `dns_cache` 配置项为每个 Cluster 配置独立的 DNS 缓存条目数量和 TTL

**预期效果**: 消除毫秒级的 DNS 查询延迟提升跨服务调用的响应速度稳定性

---

### 优化 5:精简 Wasm 插件与日志级别

**说明**: Wasm 插件运行在沙箱中复杂的逻辑会拖慢请求处理速度同时过高的日志级别 Debug会产生大量的 I/O 等待

**实施方法**:
1. 审计并移除非核心的 Wasm 插件或将其编译为 AOT (Ahead-of-Time) 格式以提升运行速度
2.  Higress  Envoy 的日志级别从 `debug` 调整为 `info`  `

---
## 学习要点

- Higress 是阿里开源的基于 Istio 的下一代云原生 API 网关深度集成了 K8s  Dubbo/Nacos 等微服务生态
- 它通过将 Ingress 网关与微服务网关合二为一显著降低了架构复杂度并简化了技术栈
- 提供了强大的 WAFWeb应用防火墙插件防护能力能够有效抵御 SQL 注入XSS 等常见 Web 安全威胁
- 兼容 Kubernetes Ingress  Gateway API 标准支持标准化的流量管理与路由配置
- 内置了对 AI 服务 LLM的协议扩展与流量管理支持适应 AIGC 应用的接入需求
- 具备高性能的代理转发能力支持热更新与高并发场景下的流量治理
- 提供了丰富的可扩展插件系统Wasm 插件),允许开发者通过 Lua  Wasm 编写自定义逻辑


---
## 学习路径

## 学习路径

### 阶段 1:入门基础

**学习内容**:
- 云原生网关的基本概念与 Higress 的核心定位
- Higress 与传统网关 NginxSpring Cloud Gateway Envoy 的区别
- Higress 的核心架构Ingress Controller  Gateway 之间的关系
- Docker 环境下 Higress 的本地安装与部署
- 基本流量路由如何通过控制台配置简单的路由转发

**学习时间**: 1-2

**学习资源**:
- Higress 官方文档
- Higress GitHub 仓库 README
- 官方提供的快速开始指南

**学习建议**:
建议先阅读官方文档了解架构图不要急于深入配置务必在本地使用 Docker 快速启动一个实例通过访问控制台默认端口 8080熟悉界面操作理解 Higress 基于 Envoy  Istio 的技术背景是关键这有助于理解其高性能的原理

---

### 阶段 2:核心功能与配置

**学习内容**:
- 详细的 Ingress 路由配置基于域名路径Header 的流量匹配
- 服务来源管理如何对接 NacosConsul固定地址IP/DNS K8s Service
- 金丝雀发布与蓝绿发布配置
- 负载均衡策略轮询随机最少连接等算法配置
- 基础安全插件WAF 防护防盗链Basic Auth 认证
- 全局或域名级别的流量管控限流并发/请求令牌)、熔断降级

**学习时间**: 2-3

**学习资源**:
- Higress 官方配置文档
- Higress 控制台插件市场
- Envoy 基础路由文档用于理解底层原理

**学习建议**:
此阶段重点在于动手配置”。尝试模拟一个真实的微服务场景例如将两个不同版本的服务接入 Higress并配置基于 Header 的金丝雀发布深入理解插件的概念这是 Higress 区别于普通网关的一大特色尝试在控制台开启并配置限流插件观察效果

---

### 阶段 3:插件开发与云原生集成

**学习内容**:
- Higress 插件体系Wasm 插件与 Go 插件的区别与运行机制
- 开发自定义 Wasm 插件使用 Go  Rust 编写简单的请求/响应处理逻辑
- Kubernetes 环境下的 Higress 部署使用 Helm Chart 安装与配置
- K8s Ingress  Gateway API 的使用方式
- Higress 与阿里云云原生产品的集成 MSE, ARMS, SLS

**学习时间**: 3-4

**学习资源**:
- Higress 插件开发指南
- Higress 官方示例插件源码
- Kubernetes Ingress 官方文档

**学习建议**:
如果你是开发者尝试编写一个简单的 Wasm 插件例如修改请求头或响应 Body),并按照官方文档在本地构建并在 Higress 中加载如果是运维人员重点练习在 Kubernetes 集群中通过 Helm 部署 Higress并学习如何通过 K8s  YAML 资源文件来管理网关配置而不仅仅是依赖控制台

---

### 阶段 4:高级架构与生产实践

**学习内容**:
- 高可用架构部署多副本容灾金丝雀升级策略
- 性能调优连接池配置缓冲区大小调整长连接管理
- 服务网格结合Higress 作为 Istio Gateway 的最佳实践
- 多集群管理与流量治理
- 企业级安全OAuth2/OIDCJWT 验证CORS 跨域配置
- 监控与可观测性对接 PrometheusGrafana 及日志采集

**学习时间**: 4周以上

**学习资源**:
- Higress 最佳实践案例
- Envoy 性能调优指南
- 云原生可观测性相关资料

**学习建议**:
此阶段面向生产环境思考如何应对高并发流量学习如何解读 Higress 的监控指标 QPS延迟成功率)。研究如何将 Higress 无缝集成到现有的 CI/CD 流程中实现配置的自动化交付阅读官方博客中的架构分享了解大厂是如何通过 Higress 支撑双十一等大流量场景的

---
## 常见问题


### 1: Higress 是什么?它与阿里巴巴和云原生社区有什么关系?

1: Higress 是什么它与阿里巴巴和云原生社区有什么关系

**A**: Higress 是一个开源的云原生的 API 网关它是在 2022 年由阿里巴巴开源的基于阿里巴巴内部多年在大促如双11场景下验证的内部网关系统沉淀而来Higress 遵循云原生技术栈深度集成了 Kubernetes  Envoy旨在为用户提供高性能高可用的流量管理安全防护和插件扩展能力它也是 CNCF云原生计算基金会全景图中的项目之一

---



### 2: Higress 与 Nginx、APISIX 或 Kong 等传统网关相比有什么核心优势?

2: Higress  NginxAPISIX  Kong 等传统网关相比有什么核心优势

**A**: Higress 的核心优势主要体现在以下几个方面
1.  **技术架构先进**基于 Envoy  Go 语言构建利用了 Envoy 的高性能 C++ 网络处理能力和 Go 语言的开发便利性热更新插件),相比 Nginx+Lua 的架构插件开发更简单且内存管理更安全
2.  **云原生深度集成**原生支持 Kubernetes Ingress  Gateway API与阿里云 MSE微服务引擎等云产品无缝集成迁移和运维成本更低
3.  **标准化支持**不仅是 API 网关还兼容 K8s Ingress Controller可以作为 Ingress 控制器直接使用
4.  **扩展性**支持 WasmWebAssembly插件允许使用多种语言 Go, C++, Rust, AssemblyScript编写插件且插件可以热加载无需重启网关

---



### 3: Higress 是否支持从 Nginx 或 Ingress-Nginx 进行平滑迁移?

3: Higress 是否支持从 Nginx  Ingress-Nginx 进行平滑迁移

**A**: 是的Higress 提供了强大的兼容性工具来支持迁移由于 Higress 兼容 Kubernetes  Ingress 资源标准它可以直接接管 Ingress-Nginx 管理的流量对于使用 Nginx 配置文件的用户Higress 提供了 Nginx 配置转换工具可以将传统的 Nginx.conf 配置自动转换为 Higress 的路由和插件配置从而大大降低了迁移门槛

---



### 4: Higress 的性能表现如何?能否应对高并发场景?

4: Higress 的性能表现如何能否应对高并发场景

**A**: Higress 继承了阿里巴巴内部网关的高性能基因底层基于 Envoy具备极高的吞吐量和极低的延迟在官方基准测试中Higress 的长连接 QPS每秒查询率和请求延迟表现优异完全能够应对企业级的大流量和高并发场景如电商大促)。其热更新机制也保证了在配置变更或插件更新时不会出现流量中断

---



### 5: 如何在 Higress 中扩展功能?是否支持自定义插件?

5: 如何在 Higress 中扩展功能是否支持自定义插件

**A**: Higress 提供了非常灵活的插件扩展机制
1.  **Wasm 插件**这是推荐的方式用户可以使用 GoAssemblyScript 等语言编写业务逻辑编译成 Wasm 格式Higress 支持在控制台上传 Wasm 插件或在运行时动态加载插件无需重启网关进程即可生效
2.  **原生插件**对于 Higress 的开发者也可以直接在源码中添加内置插件
3.  **Lua 支持**虽然主推 Wasm但为了兼容旧版 Nginx 生态Higress 也支持 Lua 脚本通过特定配置),不过 Wasm 在安全性和隔离性上更优

---



### 6: Higress 是否支持服务治理功能,如全链路灰度发布或流量标签路由?

6: Higress 是否支持服务治理功能如全链路灰度发布或流量标签路由

**A**: 是的这是 Higress 作为微服务网关的一大特色Higress 深度集成了服务发现 Nacos, Consul, Zookeeper ),能够感知服务的元数据标签它支持基于 HTTP 请求头Cookie 或查询参数进行流量打标并结合后端服务的标签实现全链路的灰度发布这意味着你可以轻松地将带有特定标记的流量路由到特定版本的服务实例实现精细化的流量控制

---
## 思考题


### ## 挑战与思考题

### ### 挑战 1: [简单] 基础环境搭建与路由配置

### 问题**: 在本地 Docker 环境中快速部署 Higress,并配置一个简单的路由规则。要求实现当用户访问 `http://localhost/hello` 时,请求能被转发到后端的一个模拟服务(如 httpbin.org 或 mock 服务),并返回 200 状态码。

### 提示**:

### 查看 Higress 官方文档的 "快速开始" 部分,找到 Docker 容器启动命令。

---
## 实践建议

### 1. 利用 AI 提示词模板管理配置
避免在客户端代码中硬编码 Prompt应将其维护在网关配置层
*   **具体操作**在路由配置中使用 `prompt` 模板功能将系统提示词和少样本示例存储在网关侧前端仅传递必要的变量参数
*   **价值**通过网关集中管理 Prompt 版本修改配置无需重新发布业务服务便于迭代和进行 A/B 测试

### 2. 配置语义缓存优化性能
针对重复的用户问题直接请求 LLM 会产生不必要的延迟与费用
*   **具体操作** `GET` 请求或对一致性要求较高的场景中启用缓存插件设置以 `Query` 参数或请求体 Hash 作为缓存 Key并设置合理的 TTL建议 5 分钟)。
*   **注意事项**避免对包含长对话历史的 POST 请求进行全量缓存这会导致命中率极低建议仅针对意图识别或单轮问答场景开启

### 3. 实施请求体完整性校验
为了防止格式错误的请求消耗网关资源或影响后端稳定性需在网关层进行拦截
*   **具体操作**在路由层级启用请求体校验插件限制 `messages` 数组的最大长度及请求体的 JSON 大小
*   **价值**通过严格的 JSON Schema 校验提前拦截非法请求保障后端 LLM 服务的稳定性

### 4. 统一多模型供应商接口协议
业务代码通常依赖 OpenAI SDK 格式切换供应商如通义千问Azure OpenAI时修改代码成本较高
*   **具体操作**利用 `provider` 功能配置不同的模型提供商将后端服务统一映射为标准的 OpenAI 协议格式
*   **价值**业务代码仅需调用网关的统一端点通过修改配置即可切换模型供应商实现业务逻辑与底层模型的解耦

### 5. 配置合理的超时与重试策略
LLM 推理耗时较长且容易因模型侧负载过高导致请求失败
*   **具体操作**将网关与后端服务的超时时间设置为 60 秒以上流式请求建议更长)。针对 429限流 500错误状态码配置自动重试策略
*   **注意事项**请勿对流式响应SSE开启 HTTP 级别的简单重试这可能导致客户端接收到重复或断开的数据流

### 6. 确保流式响应链路通畅
对于需要实时反馈的业务需验证网关对 SSEServer-Sent Events的支持情况
*   **具体操作**在路由配置中开启全链路流式传输支持若网关层配置了鉴权或日志插件需确保其支持流式拦截不会阻塞数据包返回
*   **注意事项**应关注网关在高并发流式连接下的资源占用防止因维持大量长连接而导致内存溢出OOM)。

---
## 引用

- **GitHub 仓库**: [https://github.com/alibaba/higress](https://github.com/alibaba/higress)
- **DeepWiki**: [https://deepwiki.com/alibaba/higress](https://deepwiki.com/alibaba/higress)

> 文中事实性信息以以上引用为准观点与推断为 AI Stack 的分析

---


---
## 站内链接

- 分类 [系统与基础设施](/categories/%E7%B3%BB%E7%BB%9F%E4%B8%8E%E5%9F%BA%E7%A1%80%E8%AE%BE%E6%96%BD/) / [开源生态](/categories/%E5%BC%80%E6%BA%90%E7%94%9F%E6%80%81/)
- 标签 [Higress](/tags/higress/) / [API 网关](/tags/api-%E7%BD%91%E5%85%B3/) / [AI 原生](/tags/ai-%E5%8E%9F%E7%94%9F/) / [Kubernetes](/tags/kubernetes/) / [Istio](/tags/istio/) / [Envoy](/tags/envoy/) / [WASM](/tags/wasm/) / [LLM](/tags/llm/)
- 场景 [AI/ML项目](/scenarios/ai-ml%E9%A1%B9%E7%9B%AE/) / [云原生/容器](/scenarios/%E4%BA%91%E5%8E%9F%E7%94%9F-%E5%AE%B9%E5%99%A8/) / [Kubernetes](/scenarios/kubernetes/)

### 相关文章

- [阿里开源 HigressAI 原生 API 网关](/posts/20260130-github_trending-alibaba-higress-9/)
- [阿里开源 HigressAI 原生 API 网关](/posts/20260204-github_trending-alibaba-higress-8/)
- [阿里开源 HigressAI 原生 API 网关](/posts/20260205-github_trending-alibaba-higress-6/)
- [阿里开源 HigressAI 原生 API 网关](/posts/20260206-github_trending-alibaba-higress-0/)
- [阿里开源 HigressAI 原生 API 网关](/posts/20260206-github_trending-alibaba-higress-6/)
*这篇文章由 AI Stack 自动生成包含多次大模型调用提供深度的结构化分析*