Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >腾讯云运维干货沙龙-海量运维实践大曝光 (三)

腾讯云运维干货沙龙-海量运维实践大曝光 (三)

原创
作者头像
织云平台团队
修改于 2017-12-17 10:12:10
修改于 2017-12-17 10:12:10
5.3K0
举报

作者丨周小军,腾讯SNG资深运维工程师,负责社交产品分布式存储的运维及团队管理工作。对互联网网站架构、数据中心云计算及自动化运维等领域有深入研究和理解。

12月16日,首期沙龙“海量运维实践大曝光”在腾讯大厦圆满举行。沙龙出品人腾讯运维技术总监、复旦大学客座讲师、DevOps专家梁定安,讲师腾讯手机QQ运维负责人郭智文,腾讯高级工程师魏旸,腾讯SNG资深运维专家周小军出席沙龙,并带来精彩的技术分享。为了便于大家学习,特将本次沙龙讲师的演讲内容进行了整理。您也可以在腾讯织云公众号下载本次演讲PPT。

一、活动背景

运维有三座大山:大活动、大变更、大故障。这几个运维场景是最消耗运维人力的。特别是大活动,非常考验弹性能力,对运维自动化挑战很大。

我今天所分享的主题就是深入百亿次红包大活动的背后,解析腾讯运维的方法体系,了解织云平台如何帮助运维实现大活动高效运维,如何减少运维人海战术。

过年大家都刷过微信红包和 QQ 红包,QQ 红包的业务主要有几种产品形态:刷一刷红包、拼手气红包、AR红包和空间红包等。2016年跨年除夕这天有2.6亿的在线用户刷了729亿次的红包。这么大的体量给整个架构体系带来的冲击是非常大的。

今天将从”刷一刷红包”的业务架构、活动背景、计划扩容、压测和演习、运维策略及活动现场这几个方面来分享我们的活动型背后的运维支撑工作,希望给大家在产品大活动时提供参考和帮助。

挑战

大活动前的二个月,产品会给研发和运维提供详细的产品运营指标,春节前”刷一刷”红包所规划的产品指标预估为峰值每秒800万,同时活动及节假日也带来相关QQ消息量和空间说说量2-5倍的上涨。

根据运营指标,运维按历史性能数据、容量模型和业务架构,评估出春节活动需要2万台虚拟机和3千台数据库服务器扩容支撑。

节前恰好遇到厂商内存供货问题,服务器供应非常紧张,采购比原计划延期了一个多月。甚至有个别型号的服务器到春节封网前一天才到货。紧张的设备供给运维增加了扩容压力。

二、活动计划

2.1 日历表

运维有2个月时间来准备和实施红包活动,上图是活动日程表。在确定产品策略和活动方案后,12月进入资源采购流程,元旦前后进入扩容部署。

业务扩容有两周时间,到1月的中旬,也就是离春节还有2周的时间开始进行业务和模块压测,以及活动演习及预案,大年三十我们开始进入活动现场。

在活动现场,产品、开发和运维全部在第一线保障红包,一直坚守到大年初一的凌晨一两点钟。

2.2活动梳理

由于活动涉及业务多,模块核心链条关系错踪复杂,运维在前期的活动梳理中,要做好基础能力、外部服务压力和支撑等复杂的评估准备工作。

支撑工作梳理包括内网专线穿越流量梳理,因为业务均为多地部署(深圳、天津和上海),同城也有几个大的核心IDC,业务不仅有同城跨IDC 部署,也有跨城异地部署,评估同城、跨城的专线容量是容量评估重点之一,如果超出阈值有什么应急方案,跨城调度与容灾怎么做,柔性与过载保护策略等,这些都是运维要考虑的核心保障工作。

三、扩容

3.1 刷一刷红包架构

在分享扩容之前,我先从刷一刷红包的系统架构开始,先让大家对业务进一步的了解。

业务架构由抽奖系统、消息系统和支付系统三个核心架构组成。

  • 接入层SSO统一接入:手Q自身系统与客户端唯一连接。
  • 抽奖主逻辑:含抽奖相关逻辑、数据上报等、排行榜、订单管理等。路由采用L5(自研内部路由系统简称)的HASH一致性功能,保证同一个用户的不同请求会落到同一台机器。
  • 存储:中奖记录和奖品等信息统一存储。统一使用公共组件Grocery(自研NoSQL分布式存储系统)进行存储。
  • 礼包发货:现金外的其他奖品发货,包括公司内外业务的礼券。
  • 公众号消息:负责用户中奖以及发货通知。
  • 支付系统:现金和奖品发货,还包括后端的银行接口等。
  • CDN 资源:用于奖品图片信息等资源下载。

根据这三个层,架构分成无状态层和有状态层,无状态层为接入层和逻辑层;有状态层即数据存储层,数据持久化存储。

扩容包括无状态层和有状态层的设备扩容。

上图是系统的架构图

3.2 无状态服务自动扩容

3.2.1 传统扩容流程

下面讲一下怎么做无状态的扩容,这是传统的扩容流程,传统运维的扩容流程一般是通过脚本来部署。我们把流程拆解下,可以看到它主要由以下核心步骤组成,包括部署操作系统、服务部署、配置下发、业务模块关联、业务代码包发布、业务权限管理、启动服务、模块测试、服务上线和加入监控告警。

蓝色圆圈是流程执行的时间消耗,这里一台设备约消耗半小时。如果扩容一千台机器需要两个人/月。如果用脚本或开源运维工具批量的扩容,一个模块按一人一天,这样的工作量还是非常繁琐的,非常依赖人海。

3.2.2 一键扩容

在我们强大的织云自动化运维平台支撑下,我们的业务模块都是一键式扩容模式,也称一键上云。一个模块下的上百台设备,整个扩容流程跑完只消耗5分钟时间。

我们来看一下我们这边是怎么做的,这是我们基于CMDB的全自动扩容,CMBD 是我们非常核心的扩容系统,包括资产、模块、业务对象、软件包、配置等等的数据信息都在这里面。

新部署服务器从 CMBD 获取属性以后,会进入到服务包的部署,之后到告警屏蔽,下面有发布自检,会检测装的包是否正常的。然后到业务测试,灰度上线,体检报告。整个流程效率比较高,一般来讲部署一台设备或一个模块也就5分钟,因为它是并发来做扩容的。织云已经把运维操作抽象成几百个流程。

整个春节期间走了700多次扩容流程,每天都有上百个业务模块并行,春节我们扩容了200多个模块,平均一个模块是100多台设备。

上图是织云的一键上云页面,左边是管理列表,右边是服务器属性。包括它属于哪个模块,IP是多少,什么机型,运营状态,操作系统,监控等等。

变更具备交付后不管的能力。

报告根据变更和监控记录,取得变更设备和变更对象列表,然后分析这些变更对象的监控数据,得出体检结果。

体检报告的检测结果为正常,需关注,异常。正常表示本次变更正常;需关注表示此次变更中有一些监控指标波动比较大,需要相关人员关注下,对业务本身没有造成重要影响;异常表示本次变更造成了现网故障,需要立即回滚。正常的体检报告不发送任何通知,需关注的体检报告发送邮件通知,异常的体检报告既发送邮件也发送短信通知。

检查项大体可分为两类:基础特性检查项,业务检查项。

  • 基础特性检查项是指与机器相关的监控项,如cpu,流量,包量等。
  • 业务检查项则是与业务相关的服务间调用(简称模调),自动化测试等。

体检周期为5、10、20、30分钟。

7个检查特性包括CPU、网外卡流量、内外网卡包量、CPU超过80%的设备数、自动化测试告警、模调告警等,并分别进行评分。评分为0则正常,小于一定值则需要关注,总分大于一定值为异常。

上图里面,变更5分钟,告警数,容量告警、DLP 告警都是零,第10分钟也是这个告警,到了第20分钟出现四条模调告警,就触发一条告警信息给运维,运维通过邮件把这个发给业务负责人。保证这个变更是闭环,从设备的申请到发布自检到报告都是一个闭环的流程,这个运维是非常高效的。

刚才说过的传统的扩容跟织云扩容的对比,传统扩容基于用 Excel 或 Word 来管理业务信息和资源信息,稍进步一点的用数据库来管理。运维要登录跳板机或总控台,在总控台用命令行或页面跑各种安装脚本,脚本之间需要人工确认。

比如说装一个 MySQL,安装完成以后要手工把IP、端口等信息粘贴到下一个脚本或流程来由运维继续执行,脚本间没有全流程概念,需要人工去更新信息。一个业务工程师同时只能做一个模块的变更或扩容,如果并发同时做多个变更,极易出错出现故障。

织云高效的实践是,它是以运维标准化为基石,以 CMDB 为核心的自动化运维平台。通过 Web 界面的一键式上云,基于业务原子任务和流程引擎,形成一个完整的运维流程,最后并行执行。一个模块一个人5到10分钟就可以做完所有操作。

高效扩容的背后是基于一套标准化的理念。包括分层标准化、可运维规范、软件标准化,并且标准化以 CMDB 落地。

在DevOps的实践中,织云在后面这二环。开发交付包、配置和模块名称,通过织云完成部署。

我们以 CMDB 为核心,把资产配置、硬件配置、软件配置、运营配置,比如说这个IP是在哪个地方部署的,因为我们有容灾,还有权限的管理,我们模组之间有管理,把这些配置都打包到 CMDB 里面,通过引擎实现自动化发布机制。到线上服务以后,后面还会有监控告警、一致性、变更体检等等闭环的服务。从 CMDB 到线上服务,整个流程都是闭环的。

这是运维标准化的实践。把架构、配置、监控、软件包、工具等等先实现标准化,然后落实到 CMDB 配置中心,通过工具或流程快速交付。标准化是要落地,如果没有这些跟 CMDB 的实践,标准化就是一个纸面的东西,是没有办法实现的,这四步缺一不可。

3.3 有状态层的自动扩容

刚才讲到无状态的扩容,现在是讲有状态的数据层扩容。通常来讲,数据层扩容是 DBA 工作中工作量最大、最易出故障的变更。但在我们这边,数据层扩容已经实现了与无状态层一样的灵活性。

我们的数据层分两层架构,上层是无状态接入机,负责数据路由配置,下层是存储机,负责数据存储。

接入机扩容跟无状态层的扩容方法类似。

存储层通过数据搬迁,同时并行修改接入机路由表来实现扩容。

存储层扩容的原理是,我们首先把记录 KEY HASH 1万到桶,桶再分配到存储机的存储单元,通常是 1GB 一个内存存储单元,一台 64GB 内存的存储机有56个存储单元。

桶是搬迁最小单元,通过桶搬迁方式来实现记录的扩缩容,整个桶搬迁是全自动化,运维只要指定一台或一批目标存储机,桶和记录就会自动搬迁分布到目标存储机之上,搬迁过程中代理机的路由表是实时更新的,因此搬迁过程中业务的访问不受任何影响,只是搬迁过程中的KEY不能删除,但这个过程只有数秒时间,业务基本无感知。

四、压测和演习

运维摆脱了设备扩容的人海战术后,就像特种部队一样,把精力聚焦到有价值的工作中,譬如业务架构评审、资源评估和规划,压测及演习、应急预案、监控等等和业务相关的事情,这是业务运维应该更关注的地方。

4.1 红包容量评估

如何评估活动容量?我们会根据四个维度来评估容量。首先是IDC 的容量,像电力、机柜、专线的容量等等。以服务器为维度,会关注四个核心指标,CPU、网络的磁盘IO、网卡流量、网卡包量,判断这个设备的整体容量水平。这是基础的维度。

业务这边,我们会有业务维度的评估,譬如红包业务的每秒红包容量。根据设备的能力来推导出业务容量的水平,譬如模块单机能抗3千个 QPS,假设模块下有一百台设备,那么该模块的 QPS 就能支撑30万 QPS,并且这个容量负载必须是线性的增长。

4.2 红包压测

容量完成扩容前后,我们会多次对模块和业务进行压测,来评估容量基准值,扩容之后的水位能否支持到业务高峰。

我们通过演习的方式来模拟实际的用户请求。

我们的业务是多地部署的,譬如 QQ 是分布到深圳、上海和天津三地。那么,我们把全国流量调度到其中一地,譬如深圳,观察容量、延迟等指标,因为我们业务关键链路会有几十个模块,在这个过程中,有些模块如果有问题会出现异常或告警,比如说有些模块 CPU 会过热,会上到 80%-90% 的高水位,或者失败率开始增加。业务会根据这些模块的容量,根据高负荷的模块做一些性能的优化或扩容。保证这些模块负载都是合理范围。

第二部分是线上灰度,我们会逐渐放开抢红包的活动,譬如对华南区域的用户放开”刷一刷红包”的入口,用户有提示先去刷,刷的时候发现这个产品的测试是否符合预期,关键模块的容量是不是达到我们的标准。我们会有灰度逐步放量,最后全部放量。还有一个小年夜的多时段,比如说在晚上定点来分别放开”刷一刷”这个活动的流量。

这是有一个压测出问题的例子,我们在压测的时候发现有一些存储机的网卡流量被压爆了,这是一台网卡流量的巅峰,平时是 200-300Mb 的水平,到了压测的时候压满 1Gb 的带宽。我们分析发现,这个是存储器上有热 KEY,然后我们根据压测出的情况继续推动各种优化。

4.3 红包演习

演习不仅能验证单个业务,还能验证多个业务的实际支撑能力。譬如QQ、空间、相册和广点通等业务关联性非常强,几大业务通过联合演习来评估大活动峰值的支撑水平。

因为核心支付系统在深圳,为了减少深圳IDC压力,我们还主动把非春节业务,如音乐等调度到上海,降低深圳IDC和网络的水位。

五、运维策略

5.1 业务错峰部署

业务策略多变,之前评估供给的设备不一定能满足实际产品指标,因此我们还做了业务错峰部署,在一批服务器上同时部署了红包和空间的服务,一台机器会部署两套服务。在红包活动时这些设备用于红包活动,红包活动结束后,通过调度快速把机器调度到空间服务进程上,这样错峰来重用服务器计算资源。

大家可能会觉得这种切换风险比较高,后来经过我们的验证,我们的调度能力还是确保这些多设备的复用达到我们的预期。我们通过技术的方式来做,即可以做到业务错峰,也可以进行扩容。

5.2 柔性保护

在活动过程中还有很多服务故障,我们还需要对服务的柔性做一些测验。我把我们”刷一刷红包”分层,针对每个层出现的问题做一切特殊的过载保护。比如说QQ用户,如果8点准点开放给用户,同时会有2亿的用户涌入这个架构,系统的峰值会非常高。

在用户层我们做了错峰的开放,譬如在20:00到05分把用户随机放进来,把请求随机分布在300秒区间。

如果接入层这边出现容量和负载过高,我们会在这里随机丢弃一些请求,根据用户UIN的HASH进行随机丢包。

如果是银行这边的接口出现瓶颈,我们会降低现金的的派发速度等等。消息系统出现瓶颈,我们会设置一定比例的用户不发送消息。每一个层都会跟研发一起考虑这个容量出现问题的时候怎么做柔性保护。

这是我们运维这边一键下发属性的界面(见PPT),我们可以选择不同的模块,然后选择柔性的配置表,通过一键下发的方式将柔性策略实时下发,并实时生效。

六、活动现场

6.1 看监控

前面的扩容、压测和应急预案等已经做完了,到了春节活动现场,运维主要有三类工作,一是看现场视图,二是扩容过热模块,三是处理热KEY。

有些业务模块,通过压测手段是没有办法模拟现网的,在现网情况下会出现容量超过阈值的情况。运维会通过视图或告警快速发现,经过简单评估后从备用资源池中紧急提取设备,对模块进行扩容,把容量负载降到正常水位。

这是大年30运维部门的现场(见PPT),大家都在看视图和快速扩容模块,这是我们运维主要做的事情。

上图是织云的运维核心视图(见PPT),可以看到集成了各业务核心视图,包括红包大盘、红包相关模块告警,QQ 核心模块容量,红包视图等等,运维主要是看这些视图,看告警来保证活动是正常的。

6.2 现场挑战-热KEY

数据存储在活动高峰面临的挑战之一是热 KEY。即某一些热点记录的访问量过大,高峰期甚至上涨百倍。

我们有几种常用方法来处理热KEY。首先是拆记录,比如说这个记录的访问量非常大,每秒有十几万,我们会把 KEY 的 Value 分拆成多份,分布到不同的表实例。

其二是限制记录的长度,有些 KEY 的 Value 很长,在热点访问时会给存储机内存拷贝、网卡造成压力。我们会查找出过长的 KEY-Value,让业务通过字段压缩、删除冗余字段等方式来减少记录长度。

第三是把千兆的存储机换成万兆的存储机,让网卡流量突破1Gb限制,在现网万兆存储机能跑到 5-6Gb 的水平。

第四是记录打散,快速通过搬迁方式,把集中的热点 KEY 分布到十几台存储机来支撑。

最后,业务在前端可能会有几十台逻辑设备,业务可在逻辑设备上用内存做前端缓存,减少对后端存储机的访问。

七、回顾

回顾整个红包的活动策略,万台级设备扩容仅用了2天时间,极大解救了运维。运维从扩缩容的工作量中解脱出来后,可以把更多的时间和精力更深入理解业务,为业务在质量、成本和速度几个方面给用户提供更多的价值,为业务保驾护航。

相关文章

腾讯云运维干货沙龙-海量运维实践大曝光 (一)

腾讯云运维干货沙龙-海量运维实践大曝光 (二)

沙龙PPT下载地址:

https://share.weiyun.com/5c406a57164ed4cf7e248160aebf74c3

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
腾讯云运维干货沙龙-海量运维实践大曝光 (二)
织云平台团队
2017/12/17
8.7K1
腾讯云运维干货沙龙-海量运维实践大曝光 (二)
从鹿晗关晓彤恋情事件看运维的节假日准备工作
织云平台团队
2017/10/10
3K0
从鹿晗关晓彤恋情事件看运维的节假日准备工作
海量服务实践──手Q游戏春节红包项目设计与总结
1. 需求背景 1.1.红包类别 2017年的手Q春节游戏红包共有刷一刷/AR地图/扫福三种,如下图所示: 1.2.体验流程 虽然红包分三种,但在游戏业务侧这边的体验都是一样:用户得到一个红包卡券,打开后展示一个(刷一刷红包)或者多个(AR地图红包)游戏的礼包列表,用户选择一个礼包后弹出区服组件,用户确认对应的区服角色信息后会礼包会在48个小时内发放到账。体验如下: 1.3.后台需求 游戏红包的设计容量为入口卡券页流量80k/s,以上体验流程一共涉及三个后台接口: 礼包列表:用户界面的礼包内容需
小时光
2018/01/29
1.5K0
海量服务实践──手Q游戏春节红包项目设计与总结
腾讯海量数据仓库运维系统 : 鹦鹉螺
willsiom
2017/09/11
2.2K0
腾讯海量数据仓库运维系统 : 鹦鹉螺
腾讯云运维干货沙龙-海量运维实践大曝光 (一)
织云平台团队
2017/12/17
5.3K0
腾讯云运维干货沙龙-海量运维实践大曝光 (一)
8 亿人晒军装,背后的运维技术大揭密!
织云平台团队
2017/08/04
3.8K0
8 亿人晒军装,背后的运维技术大揭密!
看腾讯运维应对“18岁照片全民怀旧”事件的方案,你一定不后悔!
本文主要讲述了腾讯SNG在社交网络事业群中,在运维领域的探索和实践。通过不断演进的运维技术,提高了运维效率和成本效益,保障了业务的高可用性。同时,运维团队贯彻“养兵千日用兵一时”的理念,通过标准化、流程化、自动化的运维体系建设,确保在突发事件中能够快速响应和处置。通过不断实践和优化,最终实现了在相册、直播、点播、微信、手Q、应用宝、游戏、新闻、微云、企鹅影业、腾讯云等多个业务领域的运维支撑。
织云平台团队
2018/01/04
1.3K0
看腾讯运维应对“18岁照片全民怀旧”事件的方案,你一定不后悔!
从技术角度谈一谈,我参与设计开发的手Q春节红包项目
今年春节期间,QQ以AR技术为支撑、娱乐体验为导向在春节期间推出系列红包并成功刷屏,系列红包包括三大玩法+年初一彩蛋,分别是“LBS+AR天降红包”、刷一刷红包和“面对面”红包,加上“娱乐红包”(明星刷脸红包),共计在春节期间派发了2.5亿现金红包和价值30亿的卡券礼包。根据企鹅智酷提供的数据,手机QQ的用户渗透率在全平台排名第二,为52.9%(第一是微信)。本文将会详细介绍手Q春节红包项目的设计、容灾、运维、架构以及总结。
Java高级架构
2018/08/16
1K0
从技术角度谈一谈,我参与设计开发的手Q春节红包项目
海量服务实践:手 Q 游戏春节红包项目设计与总结(下篇)
接上篇《海量服务实践:手 Q 游戏春节红包项目设计与总结(上篇)》 5.系统保障 第四部分讲述了业务需求的开发,但是否功能开发完成后我们就这样就可放到线上安心睡大觉了呢? 如果出现一部分
吴逸翔
2017/02/09
1.8K0
海量服务实践:手 Q 游戏春节红包项目设计与总结(下篇)
这样的CMDB设计,居然阻止了海量告警对运维的轰炸
梁定安(大梁),运维技术总监,复旦大学客座 DevOps讲师。多年运维、运营开发和 DevOps 的工作经验,曾负责 Qzone、相册等 SNG 社交平台类业务的运维规划与管理,经历了 SNG 运维标准化、自动化、智能化建设的全程。腾讯织云负责人。 1 标题党一回!本文主要介绍运维 CMDB 的设计思路,恰当的 CMDB 设计,对运维效率的提升,如收敛告警和故障自愈等,有着意想不到的效果。 在运维自动化平台的设计理念中,我们一直提倡“减少运维对象”,并将运维对象进行抽象化、模型化、配置化的录入 CMDB 中
织云平台团队
2018/06/19
1.6K0
重磅!腾讯云首次披露自研业务上云历程
导语:传统行业转型的过程中,腾讯向来扮演的是数字化助手的角色,腾讯云作为帮助企业数字化转型的入口,也已经成为腾讯的“独角兽”业务。 然而伴随着云业务的增长,腾讯内部业务如何上云,对于外界来说一直是个秘密。近日,腾讯自研上云项目负责人周小军首次披露,腾讯如何把内部海量的自研业务搬上云端的故事。以下是他的分享内容。 大家好,我今天分享的核心内容有三个: 腾讯自研业务如何从私有云的模式搬迁到公有云; 如何把这些大体量的业务搬到云端; 如何拥抱云原生。 腾讯的业务量非常庞大,社交业务包括QQ和空间的体量有
腾讯技术工程官方号
2019/08/15
15.6K0
重磅!腾讯云首次披露自研业务上云历程
织云Lite V1.5|如何规范管理运维对象
小明所在公司业务发展迅速,设备数量从十多台增加到几十上百台,业务架构也从原先简单的前端、后台,发展出十几个逻辑分支。
织云平台团队
2018/10/29
2K2
腾讯云上快速爆发的腾讯会议
庚子新春,一场突其而来的疫情打乱了中国经济秩序。但经济终要复苏,此时,线上会议服务成为企业远程工作的重要协同工具。
周小军@运维专家
2020/04/22
9.1K0
腾讯云上快速爆发的腾讯会议
腾讯云+运维,助力运维领域技术发展
摘要总结:本文主要介绍了腾讯云和织云联合举办的“腾讯云运维干货”系列沙龙,旨在推进运维领域技术交流发展,让更多的企业完成向云计算的转变。沙龙每期都会邀请腾讯运维领域的专家分享云计算时代的运维思考和实践,同时还会提供腾讯云代金券,助力企业和个人体验腾讯云产品。
腾讯云开发者社区
2017/12/18
5.3K0
腾讯云+运维,助力运维领域技术发展
TEG Cheers | 腾讯技术工程运维技术沙龙精彩回顾(内置现场视频)
7月28日,腾讯技术工程运维技术沙龙-深圳站在腾讯大厦2楼多功能厅举行。现场集结了数十家知名企业的技术开发和运维小伙伴,通过5个小时的思维碰撞,运维人员和导师们一起打造了一场运维人的知识盛宴。 这次,
腾讯技术工程官方号
2018/08/03
9290
裴泽良:海量存储与CDN的自动化运维
架构平台部提供的服务大家都使用过,微信QQ聊天的图片,朋友圈图片,QQ音乐里面的歌曲,腾讯游戏,应用宝里面的app的下载,腾讯云的COS对象存储,点播,直播,以及腾讯视频的点播,直播等产品。目前总存储量超过2EB,储备带宽超过100Tb,使用的服务器超过20W台,建设了1000多个OC机房,我们提供的服务总流量占据了腾讯90%以上的出口流量,负责托管的服务本身的运维人员只有50人。
TEG云端专业号
2018/09/25
8.8K4
春节微信访问突发,存储业务如何平稳度过?
腾讯技术工程官方号
2017/11/30
1.2K0
春节微信访问突发,存储业务如何平稳度过?
海量服务实践:手 Q 游戏春节红包项目设计与总结(上篇)
吴逸翔
2017/02/09
2.2K0
海量服务实践:手 Q 游戏春节红包项目设计与总结(上篇)
自研路由如何解决运维六大挑战?
腾讯内部一些基础服务比如统一鉴权登录、社交关系链、支付被内部很多其他业务调用,调用方往往横跨几个事业群,几十个部门,有数百个模块,上万台设备。
织云平台团队
2018/01/10
1.4K0
自研路由如何解决运维六大挑战?
QQ会员2018春节红包抵扣券项目实践与总结
整体系统是在2017年架构的基础上进行改造扩展,TGW + QZHTTP + RocketMQ + SPP逻辑服务架构 。
小时光
2018/06/08
3.3K3
推荐阅读
相关推荐
腾讯云运维干货沙龙-海量运维实践大曝光 (二)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档