OpenStack最基本和常用的操作就是启动虚机。虚机启动的过程中涉及很多内容,其中非常重要的一个环节就是创建并绑定虚机的虚拟网卡。虚机的创建和管理是Nova的任务,虚机网络的创建和管理是Neutron的任务,而虚机网卡,作为连接虚机和虚机网络的桥梁,其创建和管理则同时涉及了Nova和Neutron。这次介绍一下,OpenStack中虚机的网卡的创建过程。虽然本文的介绍将基于OpenVSwitch,但是你可以发现,很少有特殊于OpenVSwitch的地方,所以其他的二层机制(例如:Linux Bridge)
前言 本文先介绍一下VLAN Trunk的基本概念,以及OpenStack Neutron和OpenFlow based SDN是如何为Trunk port提供网络支持。OpenStack对VLAN Trunk的支持具体是什么?虽然OpenStack与容器,物理主机也做了集成,但是OpenStack最主要的应用还是虚机管理,而现代的操作系统,不论是Linux还是Windows,都支持将网卡配置成Trunk port。OpenStack对VLAN Trunk的支持就是指对OpenStack所管理的虚机的Tru
内容来源:2018 年 10 月 24 日,VMware高级讲师寇雪旭在“VMware技术专题分享”进行《NSX高级路由架构》演讲分享。IT 大咖说(微信id:itdakashuo)作为独家视频合作方,经主办方和讲者审阅授权发布。
VirtualBox 是一个跨平台的虚拟化工具,支持多个操作系统,根据自己的情况选择对应的版本下载即可。
1 实验目的 了解交换机的MAC地址学习过程; 了解交换机对已知单播、未知单播和广播帧的转发方式。 2 实验原理 MAC(media access control,介质访问控制)地址是识别LAN节点的标识。MAC对设备(通常是网卡)接口是全球唯一的,MAC地址为48位,用12个16进制数表示。前6个16进制数字由IEEE管理,用来识别生产商或者厂商,构成OUI(Organization Unique Identifier,组织唯一识别符)。后6个包括网卡序列号,或者特定硬件厂商的设定值。对于一个网卡来说,M
目前公司想做服务的注册与发现,但是在推进过程中,存在一个问题,目前我们的服务是混合部署的,即一部分部署在虚机,一部分部署在容器,所以就会面临这样一个问题,当容器里的服务和虚机里的服务都去注册中心进行注册时,虚机是无法访问容器的地址的,不过令人欣慰的是,虚机和容器是同属一局域网,所以要实现服务的注册与发现,首先需要解决这一问题。
其中的centos-7是CentOS7的box名字,也就是通过vagrant box add加载的box的名称。
CloudStack是一个功能强大、UI友好的开源云(IaaS)计算解决方案。自Ctrix将CloudStack捐献给 apache 后,一直持续高速发展,其社区活跃度已经渐渐赶上风头一时无两的另一开源云OpenStack平台。 CloudStack拥有所有开源云平台中最为友善的管理界面,而且其天生的多语种支持会使中文用户感觉很爽。 今天我们来详细介绍一下CloudStack最新版本 4.1.0 在 CentOS 6.4 下的安装部署的步骤。鉴于网上文章一大抄,很多内容都是装来装去一大堆东西,看官们一会就晕了,根本不了解为什么装这些程序,装来是干什么的。这回呢,我会把每一步说明尽可能详细一些,外加我的经验和理解(不少心得是重装了10次以上后得出的),希望能让后来者可以少走些弯路。 CloudStack可分为管理节点安装和受控节点安装。 管理节点安装无特殊要求,完全可以安装到虚拟机环境下。 受控节点因要创建虚拟机,故需要硬件虚拟化支持,推荐使用独立主机安装。CloudStack支持多种虚拟化方案,包括:KVM、Xen、XenServer、VMware。因XenServer、VMware已包含有强大的虚拟机管理功能,CloudStack可以直接与其通信调用其管理接口,因此这两种受控机环境下,无需安装任何软件。但KVM、Xen的受控机必须安装 CloudStack-Agent 之后,才能被CloudStack管理。 本篇我们主要来讲解管理节点搭建步骤: 一、前期准备 1、配置网卡,确保主机能上网 因我们要使用网络安装方式,所以要首先保证你的服务器可以正常联网。 1 pingwww.baidu.com 2、设置主机名称 CloudStack运行时需要获取本机名称,如无法正确获取可能导致服务无法正常启动并报一大堆的错。 运行以下命令检查: 1 hostname--fqdn 如无正常返回,请编辑 /etc/hosts 文件,添加主机ip对应的名称。 1 如: 2 192.168.19.135 manage.cloudstack.com vi /etc/sysconfig/network 将 HOSTNAME= 改为同你刚设置的一样。 编辑完后立即生效。如果还不成的话,重启下服务器应该就会好了。 3、配置时间同步 管理节点会通过各种协议与受控节点通讯,为了确保安全,受控节点接到命令后会进行一系列的校验,如果两机的时间不同步的话,会导致命令拒绝执行。 最简单的办法就是,所有服务器都安装 ntp实现时间的自动同步。 1 yuminstallntp 4、修改Linux安全设置 服务器上的SELinux会拦截CloudStack的一些命令,导致CloudStack操作失败,因此启动CloudStack前需要对SELinux进行设置。 vi /etc/selinux/config 1 SELINUX=permissive 以上修改需重启服务器才能生效,为使设置立即生效可使用下边的命令 1 setenforce permissive 二、更新 yum 仓库 默认情况下,CentOS的软件源中没有收录最新版本CloudStack,为了能顺利安装,我们需要手工指定软件源。 新建 /etc/yum.repos.d/cloudstack.repo 文件,内容为: 1 [cloudstack] 2 name=cloudstack 3 baseurl=http://cloudstack.apt-get.eu/rhel/4.1/ 4 enabled=1 5 gpgcheck=0 三、安装管理节点 设置好源以后,我们就可以直接使用 yum安装了,非常简单方便。 安装管理节点的命令为: 1 yuminstallcloud-client 如果你的CentOS 是最小化安装的话,将需要安装 160 兆以上的东东,请耐心等待哈... 四、配置数据库 CloudStack使用mysql管理数据,但安装cloud-client时没有包含mysql,这时需要我们手工安装,并导入数据。这是可以理解的,因为数据库可以被安装到其它机器上。 1 yuminstallmysql-server 默认的,mysql有连接数限制,无法满足CloudStack管理节点的要求,需要手工设定。 vi /etc/my.cnf 增加以下内容: 1 innodb_rollback_on_timeout=1 2 innodb_lock_wait_timeout=600 3 max_connections=350 4 log-bin=mysql-bin 5 binlog-format='ROW' 注:如果没改的话会发生什么现象我没有尝试,不
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请注意。
虚拟机的迁移是指在源物理主机上运行的虚拟机操作系统及应用程序移动到目标物理主机上或虚拟机上,并且在目标主机上能够正常运行。在openstack中,openstack自带虚拟机的迁移功能,允许一个正在running的虚拟机实例从一个compute node迁移到另一个compute node。下面给大家推荐一篇相关的实战案例,作者是用友公有云技术总监,中国计算机学会高级会员,大数据专委会委员,前中科院副研究员。
CentOS 7的KVM虚拟机推荐使用qcow2磁盘格式,本实验在KVM中安装CentOS 6.8 64虚拟机。
答案是肯定的。mysql、apache在docker中运行,正好可以发挥容器其弹性的特点,根据不同的业务流量启动相应能力的容器数量。
控制平面多虚一,指的是将两台或者多台设备的资源(包括操作系统、转发实例、转发表、端口等)进行整合,对外表现为一台逻辑设备,以Cisco VSS,Huawei CSS和H3C的IRF为代表,后来Cisco又推出了vPC技术作为对VSS的升级(虽然vPC已经很难说是控制平面多虚一技术了)。其实在这些技术中,除了转发实例、转发表这些转发逻辑层面的资源以外,端口这些数据平面的资源都被连带着整合了,因此又称“虚拟机框”技术。为了方便起见,以下就称为“虚拟机框”技术了。 这类技术和堆叠技术,感觉应该本质上是一回事,不过
在私有云的业务场景中,常见的通信中包含了同VPC内虚机互访、不同VPC之间的虚机互访、VPC访问Underlay资源、VPC访问Internet资源、VPC提供服务,被Internet访问、VPC与专线网络之间互访等;实际应用中,大多数云业务通信场景都需要依赖安全、NAT、负载等边界设备组合使用来实现,云承载网络中与边界设备对接的Leaf节点我们通常定义为Border角色。
下面的实验将通过使用一个虚拟Android系统作为实验主体来进行展示。在这个实验中,通过使用虚拟Android系统,模拟移动终端的操作,来帮助我们逐步实现使用一个名为QPython的APP来对本地网络中的服务器telnet服务进行枚举暴破。 所需环境 (1)WindowsServer2012R2 VM:这里请自行下载。(请提前部署虚拟机) (2)Santoku VM:请点击下载。(请提前部署虚拟机) (3)Android_x86.iso:原文下载地址为Drop_Android_x86.iso,百度网
BGP全称是Border Gateway Protocol, 对应中文是边界网关协议。这个名字比较抽象,而维基中文的解释我觉得比较好(维基英文甚至都没有类似的解释)。BGP是互联网上一个核心的去中心化自治路由协议。从这个解释来看,首先这是一个用于互联网(Internet)上的路由协议。它的地位是核心的(目前是最重要的,互联网上唯一使用的路由协议),它的目的是去中心化,以达到各个网络自治。不过还是有点抽象?
1、实验目的 在实验平台上熟悉SDN原理操作,通过wireshark抓包工具可以直接看到控制器与OVS交换机的通信过程、分析OpenFlow(以下简写为OF)协议,。具体的OF官方协议及白皮书可在SDNLAB资料库栏目中下载学习。 2 实验原理 控制器与交换机之间的OpenFlow协议是应用于TCP传输层上,所以解析应用层。他们首先发送hello消息,建立初始化连接,协商使用的OpenFlow协议版本。交换机通过消息回应配置信息,回复连接控制器的交换机的一些基本设置信息,包括交换机的能力以及它的一些端口的信
1 实验目的 在实验平台上熟悉SDN原理操作,通过wireshark抓包工具可以直接看到控制器与OVS交换机的通信过程、分析OpenFlow(以下简写为OF)协议。具体的OF官方协议及白皮书可在SDNLAB资料库栏目中下载学习。 2 实验原理 控制器与交换机之间的OpenFlow协议是应用于TCP传输层上,所以解析应用层。他们首先发送hello消息,建立初始化连接,协商使用的OpenFlow协议版本。交换机通过消息回应配置信息,回复连接控制器的交换机的一些基本设置信息,包括交换机的能力以及它的一些端口的信息
1 实验目的 掌握Open vSwitch下发流表操作; 掌握添加、删除流表命令以及设备通信的原理。 2 实验原理 在SDN环境下,当交换机收到一个数据包并且交换机中没有与该数据包匹配的流表项时,交换机将此数据包发送给控制器,由控制器决策数据包如何处理。控制器下发决策后,交换机根据控制器下发的信息来进行数据包的处理,即转发或者丢弃该数据包。我们可以通过对流表操作来控制交换机的转发行为。 3 实验任务 本实验基于一台OpenDaylight Helium版本虚拟机和一台Mininet模拟实验。我们已安装相关环
工欲善其事,必先利其器。要想搞云原生,想弄明白它是怎么转的,是什么原理,就钻进去研究。看官网,学理论;搭环境,做实践。什么事情,光纸上谈兵,没有实际操作,是没有话语权的。这个教程不能涵盖所有的内容,也不是说就只有这一种方案,只是结合自己的实际情况,按照这个步骤搭建成功了,也系统能给同样在搭建这个环境的同学提供一点帮助。因为,我在搭建的过程中,也踩了很多坑,也是从其他同学那里获得帮助,搭建成功的,因此,要分享出来,分享给需要它的人。
新建一个Vagrant操作目录,我这里叫centos,下载需要的box(即系统),Vagrant社区提供了很多已经打包好的系统。下载地址 找到需要的系统,会有介绍和安装方式
前面几篇文章介绍了 tap/tun、veth-pair,今天这篇来看看 Bridge。
前段时间,业务的虚机上安装了symantec Endpoint Protection(正版), 发现虚机运行一段时间就会失去响应死机,并且有些安装symantec的虚机3389端口无法使用,怎么折腾都不行。 最后决定卸载它。 一、是否可以用停止服务和终止进程再卸载的方式卸载呢? 答案不行
微服务与容器可以说是互相依赖,在互联网公司(如京东电商),容器基本成为11.11的抵抗洪峰的利器。
说完了控制平面多虚一,再来说说控制平面一虚多。我们知道,通过计算资源的一虚多技术,一台物理服务器上可以生成多个虚拟机,它们完全独立的进行工作。如果能够参照计算的一虚多,将一台网络设备的操作系统分为多个
Cloud Custodian 是一种工具,它将大多数组织用于管理其公共云帐户的数十种工具和脚本统一到一个开源工具中。它使用无状态规则引擎进行策略定义和执行,并为云基础设施提供指标、结构化输出和详细报告。它与无服务器运行时紧密集成,以低运营开销提供实时修复/响应。
一 VNC管理 1.1 修改配置 1 [root@kvm-host ~]# vi /etc/libvirt/qemu.conf 2 …… 3 vnc_listen = "0.0.0.0" 说明: vnclisten:默认绑定127.0.0.1 在配置文件里指定VNC绑定0.0.0.0IP,就不用在安装kvm虚拟机时指定vnclisten参数了。 在虚拟主机上有很多个虚拟机的时候,需要指定每个虚拟机为不同端口。 1.2 修改虚拟机配置文件 1 [root@kvm-host ~]# virsh
Cirtrix XenDesktop 7.5 安装图解 一、安装 XenDesktop 7.5 :
随着业务复杂度在不断的提高, 我们的的应用被拆分成了若干个小部分, 各尽其职, 其中有些单元通过接口暴露被其他单元调用, 有些单元会出现一些问题让我们无法在正式环境上去操作, 而测试环境又不动, 因此搞一个虚拟的化的开发环境就被提上了日程.
尽管HAProxy非常稳定,但仍然无法规避操作系统故障、主机硬件故障、网络故障甚至断电带来的风险。所以必须对HAProxy实施高可用方案。
容器技术是最近几年非常热门的技术,它似乎就是为云端的应用量身定制的,所以它也被贴上了云原生应用 (Cloud Native Application) 技术的标签。目前最为流行的容器管理调度平台是 Kubernetes (缩写为 K8s),是 Google 为支持大批量容器而开发的企业级运行平台,可以支持负载均衡、高可靠等生产级功能。
前阶段体验 Mysql 的新版本 5.7.13,由于机器里已经有 Mysql了,再安装另一个版本会有一些麻烦,为了简单,便使用 Docker 容器来安装 可能有人会认为没必要,在一台机器安装多个 Mysql 也没那么复杂,的确,单纯实现这个需求的话没问题,但其实这是一个普遍性的需求 例如 JDK 出新版本了、Redis 出新版本了、听说一个新的东西不错…… 都需要体验一下,机器数量有限,如果都安装到一台机器中的话,有很大概率会出现莫名其妙的问题,非常难维护 使用虚拟机可以解决这类问题,但是虚拟机很重,安装费
Apache http服务状态查询 命令语句 systemctl status httpd.service
当你使用以太通道进行网卡绑定时,ESXi 主机中的虚机网络连接有时会出现时断时续现象。之所以出现此问题,是因为网卡绑定属性没有传播到 ESXi 中的管理网络端口组。
VMware,一个优秀的虚拟化平台。其拥有优秀的 Api 和稳定的性能,其也拥有完善的 SDK,但是官方的 SDK 并不好用,今天我们就用简单的例子来认识一款简单好用的 VMware 的 Python 库,它就是 pyVmomi。
和普通的 VPS 相比,裸金属服务器属于物理服务器,我的数据和其他用户数据做到了物理隔离,同时服务器本身是支持二次虚拟化的。
部署一个单体式应用意味运行大型应用的多个副本,典型的提供若干个(N)服务器(物理或者虚拟),运行若干个(M)个应用实例。部署单体式应用不会很直接,但是肯定比部署微服务应用简单些。 一个微服务应用由上百个服务构成,服务可以采用不同语言和框架分别写就。每个服务都是一个单一应用,可以有自己的部署、资源、扩展和监控需求。例如,可以根据服务需求运行若干个服务实例,除此之外,每个实例必须有自己的CPU,内存和I/O资源。尽管很复杂,但是更挑战的是服务部署必须快速、可靠和性价比高。 有一些微服务部署的模式,先讨论一下每个主机多服务实例的模式。
购买了云服务商的云计算资源,就像拿到了结婚证一样高兴,到手的云资源如何使用呢?将原有业务的数据迁移上云,成为麻烦事,就像”结婚后的第一天",生活总得回归平淡。而好的云服务商不仅售前“婚前”表现好,售中数据迁移服务“婚后”也做得不错。今天我们讲五种简单的数据迁移方法,也帮助您选择好的云服务商。
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请读者注意。
1 实验目的 该实验通过Open vSwitch构建Overlay的VxLAN网络,更直观的展现VxLAN的优势。在实验过程中,可以了解如何建立VxLAN隧道并进行配置,并实现相同网段和不同网段之间的通信。 2 实验原理 VxLAN 是 Virtual eXtensible LANs 的缩写,它是对 VLAN 的一个扩展,是非常新的一个 tunnel 技术,在Open vSwitch中应用也非常多。Linux 内核的 upstream 中也刚刚加入 VXLAN 的实现。相比 GRE tunnel 它有着很好
5 SDN Overlay组网方案设计 Overlay控制平面架构可以有多种实现方案,例如网络设备之间通过协议分布式交互的方式。而基于VCF控制器的集中式控制的SDN Overlay实现方案,以其易于与计算功能整合的优势,能够更好地使网络与业务目标保持一致,实现Overlay业务全流程的动态部署,在业界逐步成为主流的Overlay部署方案。 5.1 SDN Overlay组网模型 图14 SDNOverlay组网模型 如上图所示,H3C的SDN Overlay组网同时支持网络
作者简介:肖宏辉,毕业于中科院研究生院,思科认证网络互连专家(CCIE),8年的工作经验,其中6年云计算开发经验,关注网络,OpenStack,SDN,NFV等技术,OpenStack和ONAP开源社区活跃开发者。本文所有观点仅代表作者个人观点,与作者现在或者之前所在的公司无关。 去年看到过一篇文章,说是通过OpenVSwitch的测试,GENEVE的性能要略优于VXLAN。我相信大多数人的反应可能跟我的第一反应一样,这不又是一种Overlay协议吗?为什么性能会更好?难道有什么黑科技?我们这次来分析
今天给大家带来OSPF的基础实验及DR/BDR选举,邻居和邻接建立的文章我还在优化,下期给大家发布
esxi 6.5有个漏洞,编号CVE-2020-3992,漏洞说明:VMwareESXiOpenSLP的远程代码执行漏洞(CVE-2020-3992)。当***者在管理网络(managementnetwork)中时,可以通过427端口触发一个OpenSLP服务的user-after-free漏洞,从而远程执行任意代码。
当公司网络规模较小、划分的VLAN比较少时,可能单臂路由就可以满足各VLAN间的通信,但是当VLAN较多、网络规模比较大时。那么使用单臂路由技术就显得有点力不从心了,这是我们就要引入三层交换机了。
领取专属 10元无门槛券
手把手带您无忧上云