Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >腾讯网关TGW:用户无感知快速迁移及故障自愈能力 | USENIX ATC '25

腾讯网关TGW:用户无感知快速迁移及故障自愈能力 | USENIX ATC '25

作者头像
腾讯云开发者
发布于 2025-05-21 05:41:07
发布于 2025-05-21 05:41:07
1570
举报

腾讯网关团队与清华大学联合撰写的学术论文《TGW: Operating an Efficient and Resilient Cloud Gateway at Scale》(《腾讯网关TGW:一种面向大规模场景的高效弹性云网关架构》)成功入选2025年度USENIX年度技术会议(即USENIX ATC '25)。该论文系统阐述了已在腾讯生产环境稳定运行并持续迭代数代的TGW网关架构,重点展示了其用户无感知的无损快速迁移能力、故障自愈能力及高精度故障定位系统。此项研究成果标志着腾讯公司与清华大学、中国人民大学联合共建的云网络技术实验室在云网关领域取得的又一重大突破。以下将针对论文核心技术创新点进行深度解析。

关注腾讯云开发者,一手技术干货提前解锁👇

01

背景及目标

大规模云数据中心已成为互联网基础设施的核心支柱。作为业务的公网接入入口,TGW(Tencent Gateway)集成了弹性公网接入、智能负载均衡等关键能力,以应对业务流量的快速增长与复杂需求。

当前大型云数据中心已成为支撑数字生态的核心枢纽。腾讯TGW云网关系统(Tencent Gateway)作为全网流量调度中枢,通过弹性公网接入与智能均衡负载等核心能力,有效应对业务规模指数级增长带来的技术挑战。在云计算服务差异化竞争格局下,不同厂商的"杀手级业务"对网络提出了差异化要求,相较于搜索、电商或短视频业务,腾讯的业务(如在线游戏、实时音视频流媒体)对网络时延、传输稳定性具有更高标准。为此我们构建并成功运营了模块化、可高度解耦的TGW云网关系统,其核心能力包括:

  • 超高性能转发平面:单节点转发能力达传统方案的2.9倍;
  • 秒级弹性伸缩:集群间状态与流量可在4秒内完成无损迁移;
  • 智能高可用体系:故障检测、定位与自愈机制支撑现网100%可用性;
  • 极致稳定性:承载数十Tbps流量,最坏情况下丢包率低至10⁻⁷~10⁻⁴。

互联网业务的“永不掉线”的需求与现网运营中不可避免的设备及网络故障、变更、网络攻击是有相当的矛盾的,因此对网关系统的可用性保障能力也是很大挑战。因此团队进行设计、部署及持续迭代,已实现以下核心目标:

  • 高效数据包处理:支持数十Tbps吞吐量,同时保证微秒级延迟。
  • 可扩展的状态管理:实现运行时无感知、无损的状态迁移,避免服务中断。
  • 快速故障恢复:应对数据中心频繁的硬件和软件故障,确保高可用性。

TGW云网关系统已在腾讯云全球基础设施中稳定运行8年,服务游戏、直播、金融等海量业务场景,积累了相当丰富的大规模工业级实践经验。本次入选USENIX ATC '25的论文,系统阐述了TGW的架构设计、关键技术(如可扩展状态迁移、故障恢复机制)及运营经验,将为行业提供重要参考。

02

TGW架构及工作流程

TGW采用层次化模块设计,将网关系统分为以下3个部分:

  1. 转发平面:分为无状态的TGW-EIP(弹性公网接入)和有状态的TGW-CLB(云负载均衡)。
  2. 控制平面:包括全局管理平面(Orchestrator)、集群本地控制平面(Operator)和分布式数据平面(Load Distributor, LD)。
  3. 辅助组件:路由发布(BGP+ECMP路由)、探针(故障检测)和代理(日志聚合)。

在部署模式,针对不同的云网络功能,TGW的集群部署在云网络的不同位置中:

  • TGW-EIP部署在区域入口,TGW-CLB部署在可用区(AZ)内。

工作流程(以入向流量为例):

  1. TGW-EIP:流量通过BGP路由引流,经汇聚路由器、接入路由器通过ECMP进入TGW-EIP集群的各转发节点,由转发节点进行NAT和隧道封装。TGW-EIP集群的后端服务器,可能为弹性的虚拟机,也可以是由TGW-CLB集群承载的内网CLB实例。
  2. TGW-CLB:TGW-CLB基于服务标识符(如IP对或QUIC连接ID)分发流量到后端服务器,执行有状态的路由转发。发往后端的报文同样采用GRE隧道封装。为了确保同一连接或同一VIP的流量与转发节点的亲和性,上游路由器中配置了奇偶路由的策略。

03

关键技术解析

TGW 的核心技术围绕 高效转发、状态迁移、故障恢复 和 故障检测 四个方面展开,针对大规模云网关场景进行了深度优化。

1. 高效转发平面

TGW 针对不同产品功能(TGW-EIP 和 TGW-CLB)选用两种不同的转发模型,并进行针对性的性能优化,以最大化 DPDK 的性能潜力。

(1) TGW-EIP

提供无状态弹性公网接入能力(NAT、隧道封装),采用Run-to-Completion (RTC) 模型。

核心优化:

  • 单核批处理:同一连接的所有数据包由单个 CPU 核心处理,减少跨核同步开销。
  • 哈希查找优化:预取+滑动窗口:批量计算哈希值并预取到缓存,减少 CPU Cache-Miss(由 20% 降至 5%)。
  • 冲突处理:仅预取首个哈希桶,提高缓存命中率。
  • 性能收益:单节点吞吐量提升 53%,延迟稳定在 66–105 μs。

(2) TGW-CLB

作为有状态的负载均衡(需维护连接状态)产品,采用Pipeline+RTC混合模型。

核心优化:

  • 动态分发策略:
    • 阶段1(分发核心):基于服务标识符(如 IP 五元组、QUIC Connection ID)分配流量,突破 NIC RSS 限制。
    • 阶段2(处理核心):执行规则匹配、状态表查询和隧道封装等核心转发流程,几乎所有业务功能均在处理核心中完成。
  • 无锁设计:每个分发核心独占环形缓冲区,避免锁竞争。
  • 核心比例:经验性采用 1:2(分发:处理),适配腾讯云流量模式。
  • 性能对比:吞吐量达 Tripod 的 2.9 倍(512B 数据包)。

2. 状态迁移机制

TGW 支持 无损热迁移,确保服务连续性,尤其适合在线游戏和实时流媒体等敏感业务。

(1) 热迁移 vs. 冷迁移

类型

特点

适用场景

热迁移

迁移连接状态,无感知切换

常规扩容/缩容、AZ 故障转移

冷迁移

强制重建连接,引入延迟

灾难恢复(如集群完全崩溃)

(2) 热迁移流程

  • 状态复制:控制器先后复制无状态配置(如 VIP-DIP 映射规则)、动态连接状态。
  • 流量切换:迁移 90% 状态后,新集群通过 BGP 宣告路由接管流量。
  • 转发节点代理机制:新集群将未识别的流量代理到旧集群所有转发节点
  • 快速收敛:后端交换机学习新集群的源 IP,迁移反向流量,自动补全状态(4 秒内完成)。

(3) 状态聚合优化

  • VIP 粒度迁移:避免逐条迁移 单条连接的状态(单转发节点可达 240M 条)。
  • 独立迁移线程:解耦迁移与数据面处理,减少性能影响。

3. 故障恢复机制

TGW 采用 多级容错模型 和 分散迁移,实现秒级故障恢复。

(1) 集群内链接同步,支持设备升级或故障长连接无损

  • 集群内链接同步策略:
    • 短连接过滤:仅同步存活时长 >3 秒的流(减少 70–80% 同步量)。
    • 批量导出:攒满 MTU(1500B)或超时(2 秒)后发送,降低频率。
    • 无脏标记:依赖超时回收机制(非增量更新),简化设计。
  • 性能:单转发节点可同步 130M 连接,峰值带宽 350 Mbps。

(2) 多级容错模型

级别

模型

实现方式

AZ 内

Active-Active

转发节点共享链接表,故障时 BGP 停止路由宣告触发 ECMP 重哈希(一致性哈希保亲和性)。

AZ 间

Active-Standby

冗余 AZ 配对,通过高优的 IP 前缀路由宣告(如 VIP1/26 与 VIP1/25)实现无缝切换。

跨区域

DNS 重定向

区域级灾难时,快速切换 DNS 记录(牺牲状态一致性保生存性)。

(3) 分散迁移

  • 适用场景:异常流量(如 DDoS)触发转发节点级联崩溃。
  • 方法:
    • 将受影响 VIP 分片到 k 个缓冲集群(典型值 k=10)。
    • 并行迁移状态,故障影响降至 1/k。
    • 可递归分散,指数级缩小故障崩溃半径。

4. 故障检测与定位

TGW 通过染色标记拨测系统,实现 1 分钟内故障定位。

  • 探针设计:
    • TCP 半握手探测:SYN 包携带标记,后端返回 SYN/ACK 后主动 RST(避免占用资源)。
    • 探测频率:每 5 秒探测一次(不同源端口)。
  • 标记点(TP/DP):
    • Trace Point (TP):记录数据包路径(如转发节点ID)。
    • Drop Point (DP):记录丢包原因(FLOW_LIMIT、TUNNEL_ENCAP_FAIL)。
  • 案例:
    • 单转发节点崩溃:TP 数量突降。
  • 单转发节点抖动:DP 数量激增。

04

运营经验

TGW已在腾讯云全球基础设施中稳定运行8年,服务游戏、直播、金融等海量业务场景,积累了丰富的运维最佳实践。这里从 故障域隔离、冗余策略、集群管理、协议优化 和 安全防御 五个维度展开分享了关键运营经验。

1. 故障域隔离(Blast Radius Isolation)

核心思想:通过分层设计和流量分区,限制单点故障的影响范围。

(1) 分层架构设计

  • 区域(Region)级隔离:
    • 每个区域部署独立的 TGW 实例,避免跨区域的故障传播。
    • 全局控制器(Orchestrator)按地理分区部署,减少跨区依赖。
  • 可用区(AZ)级隔离:
    • AZ 间采用 Active-Standby 模式,故障时通过 BGP 前缀切换● 集群级隔离:
    • 单集群故障仅影响其承载的 VIP 段,通过去分散迁移快速恢复。

(2) 流量分区

  • 服务优先级划分:
    • 游戏/直播流量分配至高优先级集群,电商/API等流量分配至弹性集群。
  • 租户隔离:
    • 通过 VPC ID 和隧道封装实现租户间流量隔离。

2. 冗余策略(Redundancy)

目标:以合理成本实现高可用,避免过度冗余。

(1) 50% 冗余原则

层级

冗余设计

容错能力

AZ 级

两个 AZ 组成冗余对,任一 AZ 故障时,另一 AZ 可承载全部流量。

容忍单 AZ 完全失效。

机架级

单集群节点分布在至少 2 个机架,半数机架故障不影响服务。

容忍单机架断电/网络中断。

机器级

集群容量按 50% 负载设计,半数节点故障时仍可运行。

容忍批量硬件故障。

链路级

每台服务器双网卡绑定,核心交换机双上联。

容忍单网卡/光纤故障。

(2) 热备与冷备结合

  • 热备集群:常驻 50% 冗余节点,随时接管流量(秒级切换)。
  • 冷备集群:空闲资源池,故障时需 5–10 分钟扩容(用于非核心业务)。

3. 集群管理(Cluster Management)

核心挑战:平衡性能、稳定性与运维效率。

(1) 上线流程

  1. 静态检查:
    1. 在无流量环境下验证硬件配置(CPU 微码版本、NIC 固件)、软件参数(DPDK 大页内存配置)。
  2. 渐进式引流:
    1. 先对少量 VIP(如测试 IP)发送探测流量,监控丢包率和延迟。
    2. 确认稳定后,逐步开放更多 VIP 段至生产环境。

(2) 动态扩缩容

  • 扩容触发:
    • CPU 利用率 >70% 或新建连接数超过阈值时,自动触发迁移。
  • 缩容优化:
    • 避免 C-State 切换:CPU 低功耗模式会引入 μs 级延迟抖动,优先隔离空闲节点而非降频。
    • 优雅下线:先停止 BGP 宣告,待流量排空后再释放资源。

(3) 配置管理

  • 版本灰度发布:
    • 新版本先在 5% 节点上线,24 小时无异常后全量推送。
  • 回滚机制:
    • 保留旧版本二进制文件,故障时 1 分钟内回退。

4. 协议优化(Protocol Optimization)

(1) 从组播到单播的演进

  • 早期方案:使用组播同步状态(适合单区域小集群)。
  • 问题:
    • 跨区域组播配置复杂,可靠性差(丢包率 >1%)。
  • 改进方案:
    • 改用 UDP 单播,每个转发节点维护对等节点列表。
    • 代价:带宽开销增加 15%,但可靠性提升至 99.999%。

(2) 奇偶路由(Odd-Even Routing)

  • 问题:IP 分片或长连接需保证同一流始终由同一转发节点处理。
  • 方案:
    • 核心路由器根据源 IP 奇偶性将流量分发至不同接入路由器。
    • 接入路由器通过2元组哈希确保流亲和性。

5. 安全防御(Security)

(1) DDoS 防护架构

  • 分层清洗:
    • 边缘清洗:由安全网关过滤 SYN Flood 等 L3/L4 攻击。
    • TGW 限速:基于 VIP 粒度设置带宽、连接数、新建连接速率限制。
  • 动态隔离:
    • 受攻击 VIP 自动迁移至专用清洗集群。

(2) 异常流量处理

  • 黑名单学习:
    • 自动封禁连续触发 DP(如 FLOW_LIMIT)的源 IP。
  • 协议合规性检查:
    • 丢弃非法 GRE 封装包或畸形 QUIC 帧。

05

总结与展望

论文详细展示了腾讯TGW云网关系统的核心技术及运营经验,相信可以为网关系统的开发和运营提供普适性的参考和借鉴意义。未来,TGW将持续融合硬件卸载、可编程转发等前沿技术,推动云网关向更高性能、更强可靠性演进,助力业界构建下一代智能网络基础设施。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-05-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯云开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
APISIX 在荣耀海量业务下的网关实践
荣耀成立于 2013 年,是全球领先的智能终端提供商。荣耀的产品已销往全球 100 多个国家和地区,并与 200 多个运营商建立了合作关系。荣耀在全球的体验店与专区专柜超 52000,在网设备数超 2.5 亿。
深度学习与Python
2025/04/27
1400
APISIX 在荣耀海量业务下的网关实践
腾讯网关 TGW 基础原理入门
作者:厉辉,腾讯后台研发高级工程师,当前在腾讯游戏后台团队工作,熟悉四七层负载均衡以及 API 网关等技术领域,同时也是 CNCF Ambassador 以及 Apache APISIX PMC。 本文是在组内技术分享的发言稿,主要介绍 TGW 基本原理和架构,同时为了加深理解,会辅助对比 TGW 与 LVS(ipvs)的异同。本次分享是偏基础性的 TGW 介绍,不会特别深入技术细节,目的是帮助需要用到 TGW 的同事快速的了解 TGW。 零、引言 TGW,全称 Tencent Gateway,是一套实现多
腾讯技术工程官方号
2022/04/14
3.8K0
腾讯网关 TGW 基础原理入门
腾讯网关TGW架构演进之路
TGW全称Tencent Gateway,是一套实现多网统一接入,支持自动负载均衡的系统, 是公司有10+年历史的网关,因此TGW也被称为公司公网的桥头堡。它对外连接了各大运营商并支撑公有云上EIP、CLB等产品功能,对内提供了公网网络的接入功能,如为游戏、微信等业务提供公网接入服务。
腾讯技术工程官方号
2023/12/28
1.6K0
腾讯网关TGW架构演进之路
腾讯山海网关:P4可编程交换机的实践与总结
随着5G应用的发展,高带宽低延迟的诉求会越来越强烈,网关设备作为流量汇聚点,更能深刻感受到这种压力。发展了近十年的CPU+DPDK模式,在性能和成本双重压力下,也面临越来越大的挑战。在这样的背景下,各种智能硬件随之登场,提供各种各样的硬件offload方案。
用户6874558
2023/02/15
3.4K1
腾讯山海网关:P4可编程交换机的实践与总结
云原生基础设施TCS技术总结与回顾
01 TCS 是云原生时代的基础设施 TCS(Tencent Cloud-native Suite)即腾讯专有云敏捷版 PaaS 平台,提供云原生平台与腾讯自研 PaaS 产品(如 Credis、TDSQL、TSF )等。同时,TCS 也是腾讯公有云、腾讯专有云TCE以及腾讯 SaaS 产品的通用底座,为腾讯各个云产品在各个场景的输出和交付提供统一的底座。 TCS 云原生基础设施是 TCS/TCE 解决方案中的基础设施与容器平台层,为腾讯的各种云产品私有化输出提供向上屏蔽底层 IaaS 差异的云原生计算、
腾讯专有云
2023/02/17
7.7K0
云原生基础设施TCS技术总结与回顾
腾讯云虚拟网络架构揭秘
腾讯云开发者社区
2017/12/12
9.6K0
腾讯高性能分布式路由技术,亮相亚太网络研讨会APNet
亚太网络研讨会(APNet)汇聚亚太地区计算机网络和系统领域最优秀的研究人员,分享各自最新的研究成果,讨论当前最前沿的热点研究问题。2020年8月3-4号,为期两天的第四届亚太网络研讨会(APNet’20)在线上举行,包括腾讯、阿里、微软、英伟达、思科、字节跳动等分别分享了各自在网络领域的最新成果,其中腾讯TEG网络平台部架构师吕建超做了主题为Scalable and Flexible Routing Service for Tencent Cloud Access Network的演讲。 htt
鹅厂网事
2020/08/19
1.5K0
腾讯自研交换机系统优化之路
一、Tencent NOS概述 SONiC is an open source network operating system based on Linux that runs on switches from multiple vendors and ASICs. SONiC offers a full-suite of network functionality, like BGP and RDMA, that has been production-hardened in the data cen
鹅厂网事
2020/09/18
2.9K0
从纯软件转发到软硬一体化可编程,腾讯云网关技术演进之路
作者 | 郑胜利 近十年来,国内的云计算业务取得了长足的进步,越来越多的企业认识到云的价值,将业务部署在云上,云也为客户提供了存储、计算、数据库、安全、大数据等丰富的服务。云服务规模的爆发式增长,对网络提出了巨大的挑战,传统网络方式已无法满足大规模云应用阶段网络的诉求,主要有以下几个方面。 网络规模巨大,短视频、直播等业务应用快速发展,导致单一客户动辄要求 10T 级别带宽,10 万级别路由,数以万计的客户叠加情况下对网络系统规格挑战巨大; 网络弹性要求高,客户业务发展变化快,并且存在秒杀、大促、公共突发
深度学习与Python
2023/03/29
9700
从纯软件转发到软硬一体化可编程,腾讯云网关技术演进之路
eBay基于Istio的应用网关的探索和实践
7月17日,在Cloud Native Days China云原生多云多集群专场,eBay软件工程师陈佑雄发表了《eBay基于Istio的应用网关的探索和实践》主题演讲,分享了eBay在多集群,多环境,大规模的场景下,Istio落地实践的探索和实践。
heidsoft
2021/08/26
1.4K0
eBay基于Istio的应用网关的探索和实践
混合云演习常见案例
当检测到物理线路1发生故障,系统自动将流量切换至物理线路2,保证业务正常运行。故障修复后,流量自动切回。
怡然自得
2022/06/21
1.5K0
腾讯数据中心网络故障快速自愈实践
前言 腾讯云市场规模近几年飞速增长,承载的业务类型覆盖电商、直播、金融、互联网等越来越多的内外部用户核心业务;基础网络作为腾讯云极为重要的基础设施,采用高冗余设计很好的支撑了业务的高速发展,部分架构甚至达到128台设备冗余,像设备宕机,链路中断,协议收敛等常规故障,业务基本无感知。由于部分业务对网络故障非常灵敏,网络设备转发轻微丢包可能会有影响,针对此类场景,我们需要具备全面而准确的快速自愈能力,能又快又准地定位并隔离异常网络设备,以尽可能快的速度恢复业务。 传统商业网络设备本身具备一定的故障自愈能力
鹅厂网事
2021/11/10
3.9K0
腾讯ECN——泛在互联,便捷入云
前言       在移动互联网时代,腾讯网络团队支撑了腾讯即时通信、内容、广告、游戏等各种产品,让C端客户可以便利享受到腾讯提供的优质服务。在产业互联网时代,腾讯网络进一步升级,通过ECN(External Connection Network)网络,接入不同区域、不同行业的B端客户,让这些客户可以把数据中心、办公网、分支机构和腾讯云便捷互联,完成业务的数字化升级。 便捷接入        作为B端客户接入的网络产品,ECN面临各种各样的场景和需求,有些客户对接入的时延有要求,有些客户对接入的带宽有要求,
鹅厂网事
2022/04/19
5.8K0
腾讯ECN——泛在互联,便捷入云
腾讯云高可用网络的修炼之道
当他睡眼惺忪、手拿红牛、嘴刁香烟迈着沉重的步伐从某网络核心机房走出来的时候,除了看门大爷简短问候之外,也只有刚刚过去的这个黑夜才真正懂得刚刚发生了什么,在外人眼里,这个夜晚再正常不过,和往常一样,刷刷微博、看看抖音,逛逛购物网站,即便是前一晚上有某些人觉得打开购物网站的页面有点卡慢,他们也可能不会放在心上,然而正是因为这样一个不一样的网络体验,网络工程师们已经是废寝忘食,鏖战了整整一夜,来修复引发这个网络卡慢的bug,在外人眼里一觉醒来,看似波澜不惊,但有时实则是暗流涌动;
abelbai
2020/10/31
12.4K2
腾讯云高可用网络的修炼之道
腾讯汤桢乾:腾讯自研交换机成长之路
“2020 SONiC产业生态研讨会”于9月19日圆满落幕,腾讯网络平台部汤桢乾带来了主题演讲《腾讯自研交换机成长之路》。
SDNLAB
2020/09/27
1.4K0
腾讯汤桢乾:腾讯自研交换机成长之路
腾讯混合云网络设计白皮书
从1999年,公认的云计算先驱-Saleforce.com公司成立,到2006年,Amazon发布了名声大噪的EC2(Elastic Compute Cloud),首次面向公众提供基础架构的云服务产品-IaaS,中间经历了七年的时间。
abelbai
2023/04/26
4.3K1
腾讯混合云网络设计白皮书
海纳百川,有容乃大 ——云网络SDN控制系统演进之路
VPC提供给客户在云端创建自定义的网络服务,用户可以自定义在云端VPC的子网、IP规划等网络参数,将VPC抽象成用户在云端的数据中心。VPC对等连接方案解决了跨域云端数据中心之间的网络互通,VPC专线方案使用运营商专线将云端VPC和用户自有IDC连接起来,部分用户出于成本或者容灾考虑,采用IPsec/SSL VPN通过internet实现IDC与VPC的互通。 腾讯云提供在全球范围的云网络接入服务,且在计算和网络领域已经迈入“双百时代”(全网服务器总数量突破100万台,带宽峰值突破100T),如何高效
鹅厂网事
2020/06/30
1.7K0
腾讯专有云高可用设计内幕揭秘
导语 近几年,大型公有云故障引发的生产业务事故案例时有发生。由于很多开发者默认大型公有云的服务是一直可用的,在开发时没有针对公有云服务进行容错设计,在公有云故障时,就出现了业务的异常。可见,由于大型公有云实际上已经成为了全社会共同拥有的IT基础设施,其业务的高可用也已经成为了企业社会责任的一部分。腾讯云是如何通过完备的高可用设计,来保证云服务的业务连续性和数据持久性,从而承担大厂应有的社会责任的呢? 这篇来自腾讯专有云的架构师方天戟的万字长文为您揭开腾讯专有云高可用设计的内幕。 一. IT 业务高可用的
腾讯专有云
2023/01/01
7.4K0
腾讯专有云高可用设计内幕揭秘
小鹅通基于 TSE 云原生 API 网关的落地实践
2023腾讯全球数字生态大会已于9月7-8日完美落幕,40+专场活动展示了腾讯最新的前沿技术、核心产品、解决方案。
腾讯云中间件团队
2023/09/20
4340
小鹅通基于 TSE 云原生 API 网关的落地实践
腾讯云公网负载均衡技术实现详解
朱彬峰
2017/04/23
23.5K4
腾讯云公网负载均衡技术实现详解
相关推荐
APISIX 在荣耀海量业务下的网关实践
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档