在云数据中心环境中虚机迁移是最常见的,可通过管理员手工迁移以及通过虚机自动感知服务器负载来动态迁移,无论哪种迁移方式都要尽量做到迁移前后用户无感知,也是最基本的要求。
在实现该网络模型时,为了应对不同的使用场景,TKE(Tencent Kubernetes Engine)提供了 Global Router 和 VPC-CNI 两种网络模式。本文中,我们将通过这两种模式下数据包的转发流程来分析这两种模式各自的实现原理。本文还会对比分析不同网络模式下的网络效率和资源使用情况,以便于大家在创建 TKE 集群时根据应用对网络的需求和使用成本选择合适的网络模型。
内容来源:2018 年 10 月 24 日,VMware高级讲师寇雪旭在“VMware技术专题分享”进行《NSX高级路由架构》演讲分享。IT 大咖说(微信id:itdakashuo)作为独家视频合作方,经主办方和讲者审阅授权发布。
内容来源:2018 年 7 月 17 日,VMware大中华区原厂高级技术讲师史峻在“VMware直播分享 第二期”进行《vSAN架构解析与6.7功能介绍》演讲分享。IT 大咖说经主办方和演讲者审阅授权转发。
容器技术是最近几年非常热门的技术,它似乎就是为云端的应用量身定制的,所以它也被贴上了云原生应用 (Cloud Native Application) 技术的标签。目前最为流行的容器管理调度平台是 Kubernetes (缩写为 K8s),是 Google 为支持大批量容器而开发的企业级运行平台,可以支持负载均衡、高可靠等生产级功能。
今天聊的网络虚拟化和前面几期文章中提到的Fabric上SDN中实现的网络虚拟化还不一样,此处网络虚拟化是指在服务器内部如何为虚机提供联通和通向外网时提供网络部分,和SDN实现的网络虚拟化相比没有那么丰富、节点数量也不如后者多。在服务器为主体的网络虚拟化中虚拟交换机和虚拟网卡是2个至关重要的组件。
在介绍VMQ之前,我们先来看看在传统的物理服务器上,网卡是如何接收网络数据的。在多核CPU出现的时候,因为网卡不支持将网络流量中断到多个逻辑核而是中断到其中一个逻辑核进行处理,这样就造成CPU使用不平均以及降低了CPU处理网络流量的效率,如图1所示。
据咨询机构Enterprise Management Associates调研显示,在企业上云之前,大多数企业已经采用了4-10个工具来监控网络并进行排障。
笔者认为云网络中最核心的两点是:高性能与大规模。关于高性能网络的研究目前已经很多,在大规模网络方面早期 Google 云网络 Andromeda 提出了 Hoverboard 的解决方案。
使用复杂度高的命令:如SORT/SUION/ZUNIONSTORE/KEYS等,或一次性检索全量数据:如LRANGE key 0 N,但N很大等
概述:虚拟化是一个广义术语,通常是指计算元件在虚拟的基础上而不是真实的基础上运行,是一个为了简化管理,优化资源的解决方案.服务器虚拟化则是一项用以整合基于x86服务器,来提高资源利用效率和性能的技术.本文从企业业务系统和管理角度出发,着重分析研究了X86技术架构下,虚拟网卡与SR-IOV、NUMA、虚拟磁盘格式相应的特点,并探索了不同应用场景下的资源划分和性能优化方案,希望能够通过多应用系统下的实践和最优配置,来提高X86服务器的性能和资源利用效率.
虚拟化技术大规模使用带来虚拟机之间的网络通信流量不可视、虚机迁移带来的边界动态变化,Overlay隧道封装等问题使得云数据中安全防护变得异常复杂。 天融信与VMware深度合作,推出虚拟化分布式防火墙NSX版。基于零信任,微分段机制为用户每个虚机提供贴身防护,从根本上为用户解决当前云环境下存在的东西向流量安全问题。
负载均衡,英文名称为Load Balance,其含义就是指将负载(工作任务)进行平衡、分摊到多个操作单元上进行运行,例如FTP服务器、Web服务器、企业核心应用服务器和其它主要任务服务器等,从而协同完成工作任务。负载均衡构建在原有网络结构之上,它提供了一种透明且廉价有效的方法扩展服务器和网络设备的带宽、加强网络数据处理能力、增加吞吐量、提高网络的可用性和灵活性。
我们知道dvr模式下,l3-agent在每个计算节点生成了一个vrouter,服务于此计算节点上的虚机,计算和网络结合的地方在于port,虚机在哪个计算节点是通过port的binding:hostid知道的。虚机绑定floating ip,外出流量到qrouter namespace做SNAT,再根据ip rule查路由到fip namespace,在fip namespace配置一条路由,开启proxy_arp,把回来的流量先引到fip namespace,再转给qrouter namespace做DNAT。
在私有云的业务场景中,常见的通信中包含了同VPC内虚机互访、不同VPC之间的虚机互访、VPC访问Underlay资源、VPC访问Internet资源、VPC提供服务,被Internet访问、VPC与专线网络之间互访等;实际应用中,大多数云业务通信场景都需要依赖安全、NAT、负载等边界设备组合使用来实现,云承载网络中与边界设备对接的Leaf节点我们通常定义为Border角色。
共享存储是使用传统方式建立的,即创建共享的虚拟磁盘,然后写multi-writer。经查询如下参考文档:
近两年,以Docker为代表的容器(Container)技术得到应用广泛。容器的优点很明显,就是轻量、快速和灵活,适合DevOps的要求。目前,大部分的互联网公司都采用了Docker等容器技术,不少企业也在调研和试用中。但容器也有一些不足之处,最大的缺陷就是隔离性问题,引出了对容器技术安全性的担忧。不少用户比较困惑:容器和虚拟机是不是可以互相替代的技术,两者应该怎样取舍才恰当呢?
前段时间研读了公安部发布的等保2.0安全标准,有了一些自己的理解来今天来和大家分享一下,等保2.0的中心思想是“一个中心,三重防护”,一个中心指的是打造一个安全管理中心,三重防护指的是边界安全防护、通信安全防护、计算安全防护。2.0和1.0相比,在现有1.0通用安全要求之上增加了云计算安全、移动互联安全、物联网安全、工控系统安全、大数据安全等5个方面的内容。
以Docker为代表的容器(Container)技术火遍天下,在许多领域得到广泛应用的同时,也引出了对容器技术安全性的担忧。Docker依赖的底层技术之一是Linux的 namespace,目前的6种 namespaces无法彻底把容器中的应用互相隔离开来。容器间的隔离关系有点象下面的电话亭,彼此间仿佛是隔开的,但仔细聆听,又可分辨到隔壁亭子的声音。
负载均衡(Load Balance,简称LB)是一种服务器或网络设备的集群技术。负载均衡将特定的业务(网络服务、网络流量等)分担给多个服务器或网络设备,从而提高了业务处理能力,保证了业务的高可用性。负载均衡基本概念有:实服务、实服务组、虚服务、调度算法、持续性等,其常用应用场景主要是服务器负载均衡,链路负载均衡。
刚接触网络的一段时间里,作者经常把数据中心和云等同在一起来看待,以为数据中心就是成群的虚拟机和各种神秘的转发设备,支撑着“按需服务”的商业模型。后来才慢慢意识到,这是两个交织在一起但完全不同的概念。数据中心是把服务器放在一起统一进行管理的技术,属于社会分工的产物。大型的公司通常自建私有的数据中心,而没有足够财力的小公司就只能租用公共数据中心的IT资源。云是数据中心一种高度进化的形态,开启了“按需租用”的商业模式,可以说是IT集约化运营的趋势催生了云计算。云计算数据中心成为了近十年来IT界的弄潮儿,对原有的计
编者按:毋庸置疑,Docker在开源技术圈里是一个现象级的存在。随着Docker的兴起,整个行业都在经历一场从“虚拟化”到“容器化”的变革,而这个变革实际上是一场从“面向机器”到“面向应用”的转变。 机器 vs 应用 传统的虚拟化技术是为了模拟硬件设备而设计的。我们今天所熟知的虚拟机(VM)则是这个思路的一个副产品。一个虚拟机运行了一个完整的操作系统,简称”机器“。虚拟机运行的方式和物理机完全一致,保证了应用程序,操作系统和硬件三者之间的协议不变。因此,在一个虚机的世界里,工作跟过去都差不多,应用也无需调整
部署一个单体式应用意味运行大型应用的多个副本,典型的提供若干个(N)服务器(物理或者虚拟),运行若干个(M)个应用实例。部署单体式应用不会很直接,但是肯定比部署微服务应用简单些。 一个微服务应用由上百个服务构成,服务可以采用不同语言和框架分别写就。每个服务都是一个单一应用,可以有自己的部署、资源、扩展和监控需求。例如,可以根据服务需求运行若干个服务实例,除此之外,每个实例必须有自己的CPU,内存和I/O资源。尽管很复杂,但是更挑战的是服务部署必须快速、可靠和性价比高。 有一些微服务部署的模式,先讨论一下每个主机多服务实例的模式。
在设计云数据中心网络时为了保证业务正常运行的同时,通常也需要按需定义出租户所需要的服务链。从而使得业务流量(东西向流量或者南北向流量)按照租户实际需求灵活的调用L4-L7层服务链。通常利用SDN控制器把VAS硬件设备上创建的一些虚拟的VAS实例,让业务流经过SDN软件定义出来的VAS实例,把经过多个VAS实例的访问路径成为服务链(SFC)。
前言 2022年9月2日,第二届SmartNIC & DPU技术创新峰会在北京成功举办。 去年在第一届峰会上,腾讯以《从SmartNIC到DPU,腾讯自研智能网卡的“小才大用”》为分享主题,介绍了腾讯云为解决单服务器“核爆炸”,CVM和Bare metal统一算力底座,降低总体成本为目的,自研了水杉和银杉两代DPU。 今年在水杉和银杉已经历长时间上线和运营挑战的背景下,腾讯在第二届峰会上做了《行稳致远:腾讯自研DPU商用情况与技术演进》为主题的分享,以“行稳”和“致远”两个部分,介绍了腾讯自研DPU如何应对
在当今云计算、人工智能、大数据平台等一系列颠覆性的技术创新背后,软件的价值被前所未有的推向高峰,“软件吞噬一切”在整个IT行业中盛行,几十年沉淀下来的网络也未能幸免。各大标准组织和学术派争先恐后的制定网络行业标准,试图打破传统网络的技术限制和商业壁垒,用标准软件来定义功能,用通用硬件来承载软件,最终为用户带来物美价廉、互通性高、可持续性升级换代的新一代网络解决方案。 SDN应运而生,提出了将网络控制平面和转发平面解耦,采用相对集中式的控制器替代原有分布式控制,通过开放的可编程接口实现“软件定义”。这种
前言 2022年9月2日,第二届SmartNIC & DPU技术创新峰会在北京成功举办。 去年在第一届峰会上,腾讯以《从SmartNIC到DPU,腾讯自研智能网卡的“小才大用”》为分享主题,介绍了腾讯云为解决单服务器“核爆炸”,CVM和Bare metal统一算力底座,降低总体成本为目的,自研了水杉和银杉两代DPU。 今年在水杉和银杉已经历长时间上线和运营挑战的背景下,腾讯在第二届峰会上做了《行稳致远:腾讯自研DPU商用情况与技术演进》为主题的分享,以“行稳”和“致远”两个部分,介绍
https://tungstenfabric.org.cn/assets/uploads/files/tf-live4-sdn.pdf
2019年6月爱奇艺会员规模突破1亿,爱奇艺的会员服务业务随之迅速增长,同时也带来了机器集群规模的增加,原有的监控体系也暴露出一些问题。数据监控体系是业务维持稳定服务的基石,会员日志监控体系形成闭环,从网络、应用、异常、页面加载多维度监控,极大提高了系统的成功率、稳定性,对会员视频播放、营销、下单等核心功能增强异常感知。
答案是肯定的。mysql、apache在docker中运行,正好可以发挥容器其弹性的特点,根据不同的业务流量启动相应能力的容器数量。
大家晚上好,今天我来分享一些云杉在网络运维中的所做所想,现在开始密集轰炸了。相信不少人看到了云杉年初发布的NSP解决方案,以及上周的新闻稿。我今天主要讲的也是2Cloud NSP,中的一环2Cloud Aladdin:谈谈云中网络运维。 一般人们关注SDN都是在控制能力上,都希望了解能用SDN实现哪些新功能。但SDN真的要跑严肃业务,运维是非常重要的。举个例子 这是云。管理员收到了报障,有个虚机不通了。这时候他应该怎么办?这套云网络不是以往托管机房的网络,他不知道故障到底在哪。可能在公网,可
近日,在第三届未来网络发展大会SDN/NFV技术与应用创新分论坛上,新华三解决方案部架构师孟丹女士发表了主题为《NFV资源池实现中的技术探讨》的主题演讲。
在国家十三五规划和云计算的推动下,国内金融企业IT基础设施加速虚拟化、业务上云稳步推进,金融IT逐渐演变为混合云架构。与此同时企业对业务安全的诉求、行业主管部门对监管的要求有增无减。本文基于上述背景,详细介绍金融企业如何在混合云中建设统一的全网流量采集平台。
2、其实CloudStack更像是一个商业化过后的产品,有着非常好的用户界面,各个模块默认集成的很好,且安装与部署过程也相对容易一些。
Kube-OVN开源以来,积累了各行业的用户实践,在KubeCON China 2021,来自字节跳动系统工程和技术团队(STE)的高级工程师费翔,带来了他和团队基于Kube-OVN做的场景落地和技术实现的分享。分享中梳理了字节团队技术选型过程,也同时也详细指出了基于社区版本之上,字节团队在实际应用场景下的技术拓展思路、成果,以及对社区未来功能的展望。
导读:和Docker不同,Hyper通过直接把虚机跟Docker Image对接起来,解决了容器技术的安全性问题,再利用技术手段解决了Hyper的轻量化问题。在Docker技术安全性等广受诟病的背景下,Hyper的出现给开发者们提供了一种新的思路。 作为一家专注于虚拟化容器技术的创业公司,可以说在国内的容器创业圈里算是比较独特的。截至目前,除了自主打造了一套兼容OCI的容器Runtime,在Github上维护了若干个开源项目之外,我们还做了一套公有云服务(https://hyper.sh)。 关于Hyper
增加节点的时候,应该给节点配分角色。给命名微controller的主机分配controller角色,给觉得命名微compute的主机分配compute的⻆⾊。分辨controller主机和compute主机主要是根据主 机的第⼀块⽹卡的MAC地址。
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请注意。
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请读者注意。
在讲SDN云网络之前,我们先来回顾一下,传统的云网络。先来一张图(自己画的) 传统的云网络我相信大家一定非常熟悉。我简单介绍一下传统云网络的一些特点。 特点: 绝大部分网络功能都是沿用Linux原生自
在上一期中,我们实现了Docker通过swarm组建的Overlay网络,经过VXLAN封装,解决了docker跨宿主机互联互通的问题。
题目描述 2000年的1月1日,是那一年的第1天。 那么,2000年的5月4日,是那一年的第几天?
5 SDN Overlay组网方案设计 Overlay控制平面架构可以有多种实现方案,例如网络设备之间通过协议分布式交互的方式。而基于VCF控制器的集中式控制的SDN Overlay实现方案,以其易于与计算功能整合的优势,能够更好地使网络与业务目标保持一致,实现Overlay业务全流程的动态部署,在业界逐步成为主流的Overlay部署方案。 5.1 SDN Overlay组网模型 📷 图14 SDNOverlay组网模型 如上图所示,H3C的SDN Overlay组网同时支持网络
作者简介 黄玉栋,北京邮电大学网络与交换国家重点实验室博二在读,研究方向为网络体系架构,确定性网络,邮箱地址: hyduni@163.com. 今年4月谷歌在NSDI顶级会议上发表了Aquila架构方案[1],随后8月,阿里在SIGCOMM顶级会议上发表uFAB架构方案[2],均提出了要将数据中心网络从从“低时延大带宽”演进到“确定性可预期”的目标,开启了确定性数据中心网络研究的新纪元。那么,数据中心网络为什么需要确定性可预期?他们的实现方法又各自有什么异同和优缺点?有趣的是,两者恰好采用了不同的底层QoS
尽管HAProxy非常稳定,但仍然无法规避操作系统故障、主机硬件故障、网络故障甚至断电带来的风险。所以必须对HAProxy实施高可用方案。
最近有个集团级的云项目处于实施过程中,客户对数据备份、应用双活视为同一个事物,要求我方将原秒级数据备份升级为秒级应用双活。实际问题,备份与双活是不同的两个概念。以下我们用图文方式简述双活与数据备份的区别。
领取专属 10元无门槛券
手把手带您无忧上云