Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >解密腾讯海量服务之道

解密腾讯海量服务之道

作者头像
用户1263954
发布于 2018-01-30 03:29:11
发布于 2018-01-30 03:29:11
4.3K1
举报
文章被收录于专栏:IT技术精选文摘IT技术精选文摘

一直对腾讯做产品的能力比较敬佩的,我们组做消息推送系统,而腾讯的信鸽就是我们学习的榜样。京东很多做产品的思想是跟腾讯学的,而京东很多同事也从腾讯过来的(京东合并了腾讯电商),耳濡目染学到很多东西。

前几天前腾讯的同事给我们分享了《解密腾讯海量服务之道》,讲了几个腾讯开发产品的经验原则,比较受益,遂总结下。

2个价值技术观, 7个技术手段, 4个意识 腾讯的海量服务之道是由2个价值技术观和7个技术手段,4个意识组成。技术价值观是总体思想,意识是我们的态度,技术手段是实现技术价值观的手段或者方法。

海量服务的技术价值观

有损服务

CAP理论 理论式系统基础理论CAP为分布式的应用提供了理基础: C: Consistency,一致性;包括三种类型(强一致性,弱一致性,最终一致性) A:Availability,可用性(主要指的是快速获取数据的能力,即性能) P:tolerance of network Partition,分区容错性(亦包括可分布性)

**有损服务经历了3个阶段的演变: **

  1. ACID事物保证阶段(金融,电信,石油,银行) 特点:通过硬件中间件数据库(支持事务)的层层事务保障,提供给用户非此即彼的服务结果,数据一致性优先于反应速度。 缺点:系统冗余高,架构复杂,开发维护及运营成本非常高。
  2. BASE理论阶段(电商) 特点:BASE是Basically Available、Soft state、Eventually consistent三个词组的简写。通过牺牲【强一致性】,获得基本可用性和柔性可靠性并要求达到【最终一致性】 缺点:牺牲部分一致性,只能保证最终一致性。
  3. 有损服务阶段(UGC) 特点: a.放弃绝对一致,追求速度极致; b.万有一失,让用户重试; c.伸缩调度,降级服务;

通过精心细分场景,选择牺牲一部分一致性、完整性,以达到通过较低的成本,能够支持海量服务需求,并且满足服务基本可用。

动态运营

核心思想就是敏捷迭代, 所谓小步快跑,对用户的需求快速反应。简而言之就是“快速求证对用户猜想”的过程。

许多伟人都说过类似的话:用户往往不知道真正想要什么,而且大多是时间是拿来“试错”的。动态运营就是快速求证对用户猜想的过程,这个过程是建立在以”运营”为中心的设计开发验证模式。

海量服务的7个技术手段

容灾

互联网硬件容灾方案:

事故

容灾方法

光纤断/机房停电

异地部署

服务器硬件故障死机

热备

网络环境恶劣

异地部署就近服务

黑客攻击

DNS建设

程序core

自动拉起

服务雪崩

负载均衡、流量拥塞控制、频率控制

互联网业务逻辑层容灾

  1. 独立逻辑的逻辑层,被接入层负载均衡调用。 通过监控及时扩容,保证系统整体负载能力有冗余,一台服务器死机时,配置系统将其状态置为不可用,将其上的流量(平均)分给系统中其他服务器(s)上。
  2. 分号段逻辑的逻辑层,每个逻辑层只能处理指定号段的请求。 n+n容灾:1对1容灾,比较奢侈,备份系统要么热备(平时负担50%请求)要么冷备(平时不工作,空跑),事故发生时,备机承担全部请求。 n+1容灾:备机平时冷备,拥有全局号段路由表,任何一台主机死亡后,备机都可以转成死亡主机的角色,负责相应号段的逻辑工作。

互联网业务数据层容灾

  1. 写唯一式同步 业务写请求只发给数据层主机,由主机采用快、慢同步结合的方式同步给各台备机。
  2. 同时写式同步 业务将写请求发给所有数据层服务器,得到所有/多数ack才算写完成。Yahoo的Zookeeper使用多数ack(如5台服务器有3+台ack)即成功的方式(读写都是),这种类似投票表决的方式被验证过可以严格保证数据一致性,也不用担心唯一的主机写失败,但是实现比较复杂。

过载保护

在分布式集群系统中,某台设备故障,会造成系统整体的繁忙不可用;在做营销推广时,某个服务单元负载极大的现象会很快蔓延到其它服务单元,最终导致全部服务的不可用;用户群越大,系统规模越大,负载超限的情况扩散的就越快,最终会造成系统整体崩溃。上述现象在自然界用一个最直接的名词就是”雪崩”。

过载保护的四个方法:

  1. 轻重分离 轻重分离的主旨是对服务的内容进行细分,按照高内聚低耦合的方式部署服务,使得局部的过载不扩散到整个系统。
  2. 及早拒绝 问题解决的阶段越早,成本越低,影响越小。因此我们一个系统的设计原则:【前端保护后端,后端不信任前端】,在发现系统有过载趋势时,前端系统就要开始拒绝新的用户请求接入。
  3. 量力而为 过载保护是立体工程,各个层级都要首先做好自我保护,再考虑对关联系统的保护。运营时要有容量管理(即容量监控)。一般而言,建议容量管理按照70%预警,过载保护按照90%启动。
  4. 动态调节 动态调节的核心思想是系统运营时通过持续监控业务状态数据寻找【平衡点】,形成一个正向动态反馈的循环: 业务正常状态-> 过载保护状态 -> 业务灰度恢复直到完全解除过保。

负载均衡

负载均衡和过载保护机制很像,其实两者的目地是一样的,即都有效保护后台服务,减轻后台服务的压力,但实现的手段和方法是不一样的。而且即使实现了负载均衡,也是需要提供过载保护机制。负载均衡考虑的是把请求合理分配到后台服务器上。 过载保护考虑的是防止后面的服务器的雪崩。

负载均衡的算法:

  1. 轮循均衡(Round Robin) 每一次来自网络的请求轮流分配给内部中的服务器,从1至N然后重新开始。此种均衡算法适合于服务器组中的所有服务器都有相同的软硬件配置并且平均服务请求相对均衡的情况。
  2. 权重轮循均衡(Weighted Round Robin) 根据服务器的不同处理能力,给每个服务器分配不同的权值,使其能够接受相应权值数的服务请求。例如:服务器A的权值被设计成1,B的权值是3,C的权值是6,则服务器A、B、C将分别接受到10%、30%、60%的服务请求。此种均衡算法能确保高性能的服务器得到更多的使用率,避免低性能的服务器负载过重。
  3. 随机均衡(Random) 把来自网络的请求随机分配给内部中的多个服务器。
  4. 权重随机均衡(Weighted Random) 此种均衡算法类似于权重轮循算法,不过在处理请求分担时是个随机选择的过程。
  5. 处理能力均衡 此种均衡算法将把服务请求分配给内部中处理负荷(根据服务器CPU型号、CPU数量、内存大小及当前连接数等换算而成)最轻的服务器,由于考虑到了内部服务器的处理能力及当前网络运行状况,所以此种均衡算法相对来说更加精确,尤其适合运用到第七层(应用层)负载均衡的情况下。

负载均衡算法的实现有软件和硬件两种,这里重点分析软件的实现负载均衡的反向代理方式: 反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。

反向代理负载均衡能以软件方式来实现,如nginx、apache等,也可以在高速缓存器、负载均衡器等硬件设备上实现。反向代理负载均衡可以将优化的负载均衡策略和代理服务器的高速缓存技术结合在一起,提升静态网页的访问速度,提供有益的性能;由于网络外部用户不能直接访问真实的服务器,具备额外的安全性。

柔性可用

在有损服务价值观支撑下的一种做法:重点接口重点保障,次要接口有损保障,并提供紧急时刻的降级能力,同时在前端设计时,即使降级也能保证用户体验。即不保证完美体验,对非关键路径进行有损,提升系统的可用性。 实现上会结合用户使用场景,根据资源消耗,调整产品策略,设计几个级别的、不同的用户体验。最大程度的保证关键服务的可用性。对应互联网服务来说就是要实现两点:

  • 要尽可能成功返回关键数据
  • 要尽可能正常接收请求,不能堵死

分SET部署

Set化部署主要为海量服务的运营和部署提供支持,为业务部署建立统一的衡量标准和规则。

  • 从业务层面来看到是一组服务器的处理能力,处理能力有两个量来描述,PCU(万人/在线)和存储(GB)。
  • 来自于成本层面,即这一组服务器有多少台机器和外网带宽。综合评估设定合理的单位服务支撑能力。

SET模型的一个重要特点是较强的自给自足能力,或者说,SET模型在很大程度上是自治的。从这个意义上说,SET模型与集团军也很具有可比性。

SET模型的特点:

  • 一般来说,一个SET模型部署在一个IDC之内。
  • 高内聚,或者说自治系统——这是模块化的体现。
  • 同一业务的不同SET间通信:SET间专线窄带化。这是降低业务对专线带宽占用,同时也是降低专线抖动对业务的影响,提高业务的专线抖动免役力。
  • 即使SET间专线故障,独立SET也应至少提供基础服务,而不致停服。

Set化部署的例子: Qzone日志TDB仓库设定180A1+20B5+20C1+2B2+23A3为一个Set。

灰度发布

互联网行业的变化很多很快,导致代码发布也很多,因而引入bug的可能性也大了不少,与服务系统的稳定性形成了突出的矛盾。如何解决这个矛盾?如何既能基本保障服务稳定性,又能进行灵活反应、快速发布?

灰度发布的优势: 1. 灰度发布能降低发布出问题的影响 2. 降低发布正常时的用户感知 3. 降低对测试的依赖

灰度发布的维度:

  1. 按照特性(内容维度) 每次只发布少部分特性、模块

2.按照对象 白名单 Alpha用户 公司用户 用户等级等级 用户号段 其他业务逻辑

立体监控

立体监控是对一个业务或者系统进行完整的监控,而业务从系统层次上又可以分为接入层,逻辑层,数据层。或者从基础的资源到用户实际体验来划分:

按照上述层次划分,每层需要监控的技术指标如下:

报警 有了监控,还需要有效的通知方式。目前用的最多的是设置告警了。当某个监控指标不正常时,通过向相关负责人发送告警,以便及时处理。但告警不宜设置过多,非关键的或者重复的告警需要考虑去掉,以免告警过多,接收人会对告警不敏感。

海量服务的4个意识

大系统做小

大系统小做的核心思想是将功能复杂较大的系统,化大为小,减少模块耦合,降低相关联性,用多个独立的模块来实现整体系统的功能。 总的来说,大系统小做采用的是化繁为简、分而治之,便于开发和迅速实现;同时当某个模块出了问题时,因为相互独立,能将影响降到最低,不至于扩大影响范围。我们在实际工作也经常采用这种方法。 比如电商领域,会把系统分成订单模块,商品模块,售后,物流等模块,每个模块独立实现,互不影响。 再如物流的次日达项目,就按照交易线,物流线,结算线分开,每快互相独立,定义接口,最后把整个系统分解很多小块。 这样做本身容易开发,还有一点就是为以后系统的扩展和做灰度升级提供方便。即可以只灰度发布某一个模块,而不用发布整个模块。

先抗住再优化

先扛住再优化简单来说就是先保证业务的正常使用,即先扛住,再来优化。因为在复杂的优化工作交付之前,交互中故障模式的数量早就足以磨灭人们的信心。

  1. 排队机制 游戏满负荷时,给新来的用户弹出提示语“服务器已满,您前方有XXX个玩家在排队。服务器会帮你自动登录,请您耐心等候”。游戏满负荷时,让新进的玩家定向另一款小游戏去,让玩家在娱乐中等待。
  2. 降压 QQ相册。原来的方案是用户浏览照片,没按下一张之前就会预加载下张照片,以便提升用户体验。后来发现在高峰期,带宽不够用,用户叫苦连连。现在改为在18:00-20:00时段,取消自动加载照片功能。很快消去了这个封尖。
  3. 运营扛法 当初QQ幻想想收费,玩15分钟扣1个q点。账户系统时不时会core,core了以后公司就不能收钱了。但是core的原因一时又没找到。解决的办法是添加监控脚本,监控到程序不在了就拉起。

干干净净

干干净净可以说是开发人员的一个编程态度。

  1. 干干净净对产品而言,我们经常会看到很多产品从初期简单清晰的功能规划,不断叠加产品逻辑、不断推出新的功能、给用户更多更全的特性入口。而这些不断叠加的逻辑、功能、特性,是否是用户所真正所需要的,往往会被忽视,所以我们需要干干净净的态度对待产品,善于用减法的思路对待产品。
  2. 干干净净对架构而言,很多产品设计之初的架构都比较容易做到清晰高效,而运营过程中,为了应对一些临时的活动,或针对一些初期未考虑到的特殊情况,等等,新的差异化于初期架构因素会不断被引入,架构层次及定位逐渐不再清晰,最终很大程度上造成架构效率的降低。
  3. 干干净净对开发而言,我们会看到在开发不断交接更替的情况下,程序中会不断有带有个人风格的代码库、中间件等被引入,在长期发展情况下,不及时清理干净,最终会变得臃肿而难以承接。
  4. 干干净净对运营而言,高效的运营需要清晰的运营架构和有序明了的运营环境,实际工作中如因为交替等因素,会造成运营环境中的脚本、目录,甚至进程、端口处于无序的状态,这些都会给后续的运营工作带来很大的风险和低效。

边重构边生活

随着业务的发展: 系统变得复杂,功能更加强大; 服务器/带宽/成本增加; 运营环境如千丝万缕,运维难度增加; 代码风格不一; 用户数量级不断增加…… 这些因素,当其发展到某个量级时,会变得臃肿不堪,耗费相当的人力成本和服务器资源,也难以保障服务质量。这就要求我们:要有勇气和自信重构服务,提供更先进更优秀的系统。

出处:https://baozh.github.io/2015-12/tencent-massive-service-discipline/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-06-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 IT技术精选文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
信鸽产品已下线,另一款推送产品——腾讯移动推送 可以提供更优质的服务。「腾讯云移动推送 TPNS」相比「信鸽产品」的主要区别:1、信鸽推送共享30万条/秒,TPNS推送独享高速通道30万条/秒,更快,更稳定2、信鸽仅支持华为、小米、魅族、FCM厂商通道,TPNS支持华为、小米、魅族、OPPO、vivo、FCM、ROG,覆盖更多机型,更高抵达率3、信鸽共享存储空间,TPNS支持App级数据隔离,且符合GDPR规范,可支持出海业务,更安全4、TPNS更有多样化推送能力(如定时、定速、循环推送;按设备、账号、标签推送;用户分群、A/B test等),精准推送,有效提升推送效果,进入腾讯移动推送 TPNS 产品文档查看更多操作指引 https://cloud.tencent.com/document/product/548/37240?from=13828
信鸽产品已下线,另一款推送产品——腾讯移动推送 可以提供更优质的服务。「腾讯云移动推送 TPNS」相比「信鸽产品」的主要区别:1、信鸽推送共享30万条/秒,TPNS推送独享高速通道30万条/秒,更快,更稳定2、信鸽仅支持华为、小米、魅族、FCM厂商通道,TPNS支持华为、小米、魅族、OPPO、vivo、FCM、ROG,覆盖更多机型,更高抵达率3、信鸽共享存储空间,TPNS支持App级数据隔离,且符合GDPR规范,可支持出海业务,更安全4、TPNS更有多样化推送能力(如定时、定速、循环推送;按设备、账号、标签推送;用户分群、A/B test等),精准推送,有效提升推送效果,进入腾讯移动推送 TPNS 产品文档查看更多操作指引 https://cloud.tencent.com/document/product/548/37240?from=13828
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
海量服务实践:手 Q 游戏春节红包项目设计与总结(下篇)
接上篇《海量服务实践:手 Q 游戏春节红包项目设计与总结(上篇)》 5.系统保障 第四部分讲述了业务需求的开发,但是否功能开发完成后我们就这样就可放到线上安心睡大觉了呢? 如果出现一部分
吴逸翔
2017/02/09
1.8K0
海量服务实践:手 Q 游戏春节红包项目设计与总结(下篇)
海量服务实践──手Q游戏春节红包项目设计与总结
1. 需求背景 1.1.红包类别 2017年的手Q春节游戏红包共有刷一刷/AR地图/扫福三种,如下图所示: 1.2.体验流程 虽然红包分三种,但在游戏业务侧这边的体验都是一样:用户得到一个红包卡券,打开后展示一个(刷一刷红包)或者多个(AR地图红包)游戏的礼包列表,用户选择一个礼包后弹出区服组件,用户确认对应的区服角色信息后会礼包会在48个小时内发放到账。体验如下: 1.3.后台需求 游戏红包的设计容量为入口卡券页流量80k/s,以上体验流程一共涉及三个后台接口: 礼包列表:用户界面的礼包内容需
小时光
2018/01/29
1.5K0
海量服务实践──手Q游戏春节红包项目设计与总结
工作十年,在腾讯沉淀的高可用系统架构设计经验
👉腾小云导读 在系统的开发过程中,很多开发者都为了实现系统的高可用性而发愁。本文从研发规范层面、应用服务层面、存储层面、产品层面、运维部署层面、异常应急层面这六大层面去剖析一个高可用系统的架构设计需要有哪些关键的设计和考虑。希望腾讯的经验方法,能够给广大开发者提供参考。内容较长,您可以收藏后持续阅读。 👉看目录点收藏,随时涨技术 1 高可用系统的架构设计思想     1.1 可用性和高可用概念     1.2 高可用系统设计思想 2 研发规范层面     2.1 方案设计和编码规范     2.2 容量规划
腾讯云开发者
2023/03/14
5.4K0
工作十年,在腾讯沉淀的高可用系统架构设计经验
腾讯云高可用网络的修炼之道
当他睡眼惺忪、手拿红牛、嘴刁香烟迈着沉重的步伐从某网络核心机房走出来的时候,除了看门大爷简短问候之外,也只有刚刚过去的这个黑夜才真正懂得刚刚发生了什么,在外人眼里,这个夜晚再正常不过,和往常一样,刷刷微博、看看抖音,逛逛购物网站,即便是前一晚上有某些人觉得打开购物网站的页面有点卡慢,他们也可能不会放在心上,然而正是因为这样一个不一样的网络体验,网络工程师们已经是废寝忘食,鏖战了整整一夜,来修复引发这个网络卡慢的bug,在外人眼里一觉醒来,看似波澜不惊,但有时实则是暗流涌动;
abelbai
2020/10/31
12.3K2
腾讯云高可用网络的修炼之道
谈谈微信红包海量运营--发10亿个红包难在哪里?
编者按:2015年微信红包书写了一个全新奇迹——除夕摇一摇总次数110亿次,峰值1400万次/秒,8.1亿次每分钟,微信红包收发达10.1亿次!惊人数字的背后,腾讯是怎么支撑的?笔者有幸节前采访到微信后台技术负责人,与大家分享红包背后的技术。 春晚当天,微信红包联合团队彻夜加班全程守护 400倍的挑战 今年微信红包方式与去年用户与用户之间互发红包相比,摇红包的方式对业务量来说是一个极大的爆发,光是除夕10:30送出的一波红包就达到了1.2亿个,已经是2014年除夕夜峰值的400倍之巨(2014年峰值
腾讯大讲堂
2018/02/11
1.2K0
谈谈微信红包海量运营--发10亿个红包难在哪里?
腾讯最完整的监控体系介绍,看这篇就够了!
织云平台团队
2017/10/18
16.6K0
腾讯最完整的监控体系介绍,看这篇就够了!
从技术角度谈一谈,我参与设计开发的手Q春节红包项目
今年春节期间,QQ以AR技术为支撑、娱乐体验为导向在春节期间推出系列红包并成功刷屏,系列红包包括三大玩法+年初一彩蛋,分别是“LBS+AR天降红包”、刷一刷红包和“面对面”红包,加上“娱乐红包”(明星刷脸红包),共计在春节期间派发了2.5亿现金红包和价值30亿的卡券礼包。根据企鹅智酷提供的数据,手机QQ的用户渗透率在全平台排名第二,为52.9%(第一是微信)。本文将会详细介绍手Q春节红包项目的设计、容灾、运维、架构以及总结。
Java高级架构
2018/08/16
1K0
从技术角度谈一谈,我参与设计开发的手Q春节红包项目
高可用架构和系统设计经验
可用性是一个可以量化的指标,计算的公式在维基百科中是这样描述的:根据系统损害、无法使用的时间,以及由无法运作恢复到可运作状况的时间,与系统总运作时间的比较。行业内一般用几个9表示可用性指标,对应用的可用性程度一般衡量标准有三个9到五个9;一般我们的系统至少要到 4 个 9(99.99%)的可用性才能谈得上高可用。
Allen.Wu
2022/12/19
1.5K0
腾讯云运维干货沙龙-海量运维实践大曝光 (三)
织云平台团队
2017/12/17
5.1K0
腾讯云运维干货沙龙-海量运维实践大曝光 (三)
【玩转腾讯云】如何构建云端高可用架构!
作者介绍 万守兵:腾讯云行业架构师,对云上双活架构、迁移方案有比较深的了解,现主要负责腾讯云泛互行业TOP级客户的解决方案架构工作。  高可用挑战  1.  高可用挑战:时间要求 2.   高可用挑战:各种不稳定的原因  常见事故及问题归类如下:  互联网通用架构和分层  典型互联网架构分层设计如下: 系统正交分解如下:  分类      服务治理         目标     技术      架构     监控层外层客户端SLA、攻防/扫描/审计  CDN合理/稳定
云存储
2020/07/31
2.6K0
自研路由如何解决运维六大挑战?
腾讯内部一些基础服务比如统一鉴权登录、社交关系链、支付被内部很多其他业务调用,调用方往往横跨几个事业群,几十个部门,有数百个模块,上万台设备。
织云平台团队
2018/01/10
1.4K0
自研路由如何解决运维六大挑战?
腾讯云上云架构模型推荐
我们先直接看架构图,给同学推荐是使用CDN加速、WAF应用防火墙+DDOS防护、CLB负载均衡(多可用区属性)、多可用区云主机、数据库(多可用区主备+异地灾备)。具体架构如图:
云计算_客服
2022/05/12
8.3K1
腾讯云上云架构模型推荐
TDSQL在微众银行的大规模实践之路
2014年:基于分布式的基础架构 微众银行在2014年成立之时,就非常有前瞻性的确立了微众银行的IT基础架构的方向:摒弃传统的基于商业IT产品的集中架构模式,走互联网模式的分布式架构。众所周知,传统银行IT架构体系非常依赖于传统的商业数据库,商业存储以及大中型服务器设备,每年也需要巨大的IT费用去维护和升级,同时这种集中式的架构,也不便于进行高效的实现水平扩展。从过往经验来看,当时除了oracle等少数传统的商业数据库,能满足金融级银行场景的数据库产品并不多。当时腾讯有一款金融级的分布式数据库产品TD
腾讯技术工程官方号
2019/08/20
1.5K0
TDSQL在微众银行的大规模实践之路
对数据库要求最苛刻的金融行业,这套架构凭什么异军突起?
导语 | 在金融行业IT系统国产化的大背景下,国内金融行业开始推动IT基础设施国产化,逐渐摆脱对于传统IOE架构的依赖。微众银行自成立之初,就放弃了传统IOE架构路红,结合腾讯金融级分布式数据库TDSQL,建立了基于DCN单元化架构模式的分布式基础平台。如今这套架构承载了微众银行数亿级别的用户规模,数百套银行核心系统,和每天数亿次的金融交易。本文由微众银行数据库平台室室经理、腾讯云TVP 胡盼盼在 Techo TVP开发者峰会「数据的冰与火之歌——从在线数据库技术,到海量数据分析技术」 的《分布式数据
腾讯云开发者
2021/05/14
1.2K0
腾讯视频 Node.js 服务是如何支撑国庆阅兵直播高并发的?
导语 | 上个月,我有幸参与了腾讯视频国庆阅兵直播页面开发的相关工作,最终,累计观看2.38亿人次,经受住了高并发的考验。在参于Glama框架的开发维护及平时基础建设相关讨论实践中,对高并发有一些部分实践心得,正好老友也想了解腾讯视频这边的经验,特撰写本文,对相关经验进行梳理总结,与大家探讨。(本文作者:Lucienduan,腾讯视频Web前端高级工程师)
五月君
2019/10/29
1.2K0
腾讯视频 Node.js 服务是如何支撑国庆阅兵直播高并发的?
腾讯推出高性能 RPC 开发框架
Tars是基于名字服务使用Tars协议的高性能RPC开发框架,同时配套一体化的服务治理平台,帮助个人或者企业快速的以微服务的方式构建自己稳定可靠的分布式应用。
会呼吸的Coder
2020/09/28
6310
亿级客户和PB级数据规模的金融级数据库实战历程
点击▲关注 腾讯云数据库 | 导语 微众银行在2014年成立之时,就非常有前瞻性的确立了分布式架构的基础架构。当时,腾讯有一款金融级的分布式数据库产品TDSQL,其业务场景和对数据库的可靠性要求,和银行场景非常类似。微众银行和腾讯TDSQL团队合作,共同将TDSQL打造为适合银行核心场景使用的金融级分布式数据库产品,并将TDSQL用于微众银行的核心系统数据库。本文是对整个实践历程的总结。 一、背景介绍 微众银行在2014年成立之时,就非常有前瞻性的确立了微众银行的IT基础架构的方向:摒弃传统的基于商业IT
腾讯云数据库 TencentDB
2019/08/17
2.2K0
亿级客户和PB级数据规模的金融级数据库实战历程
社交软件红包技术解密(六):微信红包系统的存储层架构演进实践
南方企业一直有过年找老板“逗利是”的习俗,每年春节后开工的第一天,腾讯大厦都会排上长长的队伍,集体上楼找老板们领红包。按照广东习俗,已经结婚的同事也要给未婚同事发红包,这一天腾讯员工就在春茗和寻找红包中度过。
JackJiang
2025/01/24
1260
社交软件红包技术解密(六):微信红包系统的存储层架构演进实践
【玩转腾讯云】如何构建云端高可用架构
一、高可用的挑战 1、高可用挑战-要求 image.png 2、高可用挑战-各种不稳定的来源 常见事故及问题归类如下: image.png 二、互联网通用架构和分层 典型互联网架构分层设计如下: image.png 系统正交分解如下: 服务治理目标 技术架构 监控层 外层 客户端SLA 攻防/扫描/审计 CDN合理/稳定 DNS合理/稳定 流量峰值 CDN DNSPOD/Ip直连 高防 客户端监控 CDN监控 DNSPOD监控 安全监控 接入层 异地多活 服务
Vicwan
2020/04/16
4K2
腾讯云发布Supermind智能网络
信息网络的应用逐渐渗透社会发展的各个领域,网络业务量的迅速膨胀给数据传输能力和大吞吐量的交叉能力提出了更高要求。11月22日,腾讯云正式发布Supermind智能网络产品。相比此前网络产品的特点,Supermind智能网络将拥有高性能、全球互联、智能化等三大特点。
腾讯云网络产品团队
2018/02/09
4.2K0
腾讯云发布Supermind智能网络
推荐阅读
相关推荐
海量服务实践:手 Q 游戏春节红包项目设计与总结(下篇)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档