上云故事
依托腾讯云支撑起春节红包大战期间最高1亿/秒的红包摇一摇请求,腾讯云仅用40天将泰康人寿2015年春晚红包活动系统部署上云,创造保险公司上云的新纪录,红包营销活动的云上新尝试。
依托腾讯云支撑起春节红包大战期间最高1亿/秒的红包摇一摇请求,腾讯云仅用40天将泰康人寿2015年春晚红包活动系统部署上云,创造保险公司上云的新纪录,红包营销活动的云上新尝试。
作为传统寿险企业,泰康人寿希望借2015年春晚开展营销攻势,通过“场景业务”模式将PC互联网时代的单向营销,推进到移动互联网的参与式营销。大年三十起,泰康在线发布“点亮中国”,这款产品贴合中国人新春送祝福的传统,基于微信平台充分应用GPS定位等科技元素的社交小应用,在微信朋友圈中获得大量传播。统计数据显示,截止到2月27日,“点亮中国”共吸引了1438万粉丝的参与。
泰康参与红包大战期间,一共产生约30倍数据库访问需求,约40倍互联网带宽需求,约33倍高峰期短信发送速度,超过两百倍CDN流量需求,而泰康服务器的最高流量为:PV100万/10分钟,UV 56万/10分钟。这些数据远超出预期,显示了移动互联化的场景业务的爆发力。若仍基于自建数据中心去支撑这样突发的高访问量,不仅带来巨大的成本浪费,在资源准备上也过于仓促,无法满足业务上线预期。
作为直接主导春节红包项目的云解决方案架构师,当我接到任务时,距离春节红包大战仅剩余1个月了,而摆在我面前最现实的问题是:
1、云上架构对于传统企业仍略显陌生,如何快速磨合并完成业务向公有云的迁移?
2、对于突发需求,如何确保资源到位?
针对第一点,我在接手项目后,立即着手针对基于微信平台的春晚红包营销活动、“点亮中国”等系统进行业务分析,重新设计出适应海量服务的数据结构和系统架构,向泰康工程师特别推荐了腾讯云海量服务必备利器:
1)主多从高性能数据库
用于存放“微互助”项目产生的落地数据,该数据库采用全新Fusion-IO SSD存储介质和新一代存储引擎,可以支撑高达每秒3.7w的QPS,而且提供了完备的数据监控及备份服务,能第一时间定位故障并恢复业务。
2)高速云缓存服务
用于存放微信粉丝数据,高速云缓存具有快速水平扩展的能力,不论是并发访问量还是存储容量,系统都可以自动根据使用量快速扩容。设计初始,我们预估数据量只会达到几百万条记录,但春晚当天实际写入达千万级,其强劲的水平扩展能力让面对如此海量压力下业务依然从容应对。
而以上服务都是基于通用mysql和memcached协议设计,泰康工程师应用起来毫无门槛,确保了项目如期上线。
在资源准备方面,基于腾讯云常规资源储备,云计算“按量付费,按需使用”的特质有效解决了互联网突发性业务带来的资源压力 ;此外,我们还提供了腾讯云的独门秘籍“跨域流量调度”功能,当面对巨大的流量压力时,为防止主网发生崩溃危机,保证流量从容支配,可以在秒级内调度腾讯全网流量分担负载压力,降低风险发生的可能性。
在春晚当天,我们提供了全程的现场支持,协助泰康对运行状态进行实时监控,并准备了完善的灾后解决方案,加速问题响应和升级处理时间。
在云上,泰康收获了场景化营销+云计算带来的粉丝经济时代的狂欢盛宴;而我们也借此机会,沉淀了大量反复适用于传统金融在互联网应用上的技术经验。