以Docker为代表的容器(Container)技术火遍天下,在许多领域得到广泛应用的同时,也引出了对容器技术安全性的担忧。Docker依赖的底层技术之一是Linux的 namespace,目前的6种 namespaces无法彻底把容器中的应用互相隔离开来。容器间的隔离关系有点象下面的电话亭,彼此间仿佛是隔开的,但仔细聆听,又可分辨到隔壁亭子的声音。
近两年,以Docker为代表的容器(Container)技术得到应用广泛。容器的优点很明显,就是轻量、快速和灵活,适合DevOps的要求。目前,大部分的互联网公司都采用了Docker等容器技术,不少企业也在调研和试用中。但容器也有一些不足之处,最大的缺陷就是隔离性问题,引出了对容器技术安全性的担忧。不少用户比较困惑:容器和虚拟机是不是可以互相替代的技术,两者应该怎样取舍才恰当呢?
我是一个 .java 文件,名叫 FlashObject.java,叫我小渣就行。
OpenStack 是一个伟大的开源云平软件,对于 OpenStack 的管理和编排我们有很多种方式,比如官方的 SDK、原生的 API、官方的 Client、Terraform、pulumi 等。今天我们来介绍一款相对冷门的但是挺好用的库,它就是 Apache 的 LibCloud。
其中,KVM 全称是 基于内核的虚拟机(Kernel-based Virtual Machine),它是一个 Linux 的一个内核模块,该内核模块使得 Linux 变成了一个 Hypervisor:
在介绍VMQ之前,我们先来看看在传统的物理服务器上,网卡是如何接收网络数据的。在多核CPU出现的时候,因为网卡不支持将网络流量中断到多个逻辑核而是中断到其中一个逻辑核进行处理,这样就造成CPU使用不平均以及降低了CPU处理网络流量的效率,如图1所示。
纯粹是处于个人爱好,各种技术只要跟 Docker 搭边就倾爱它的 Docker 镜像版本。本文除了filebeat agent是二进制版本直接安装在应用机上,与docker无关,其他都是基于docker 镜像版本的集群安装。
OpenStack最基本和常用的操作就是启动虚机。虚机启动的过程中涉及很多内容,其中非常重要的一个环节就是创建并绑定虚机的虚拟网卡。虚机的创建和管理是Nova的任务,虚机网络的创建和管理是Neutron的任务,而虚机网卡,作为连接虚机和虚机网络的桥梁,其创建和管理则同时涉及了Nova和Neutron。这次介绍一下,OpenStack中虚机的网卡的创建过程。虽然本文的介绍将基于OpenVSwitch,但是你可以发现,很少有特殊于OpenVSwitch的地方,所以其他的二层机制(例如:Linux Bridge)
在 azure 上创建的虚机默认会分配两个磁盘,分别是系统盘和一个临时磁盘。如果我们要在系统中安装使用 mysql 等软件,需要再创建并挂载单独的数据盘用来保存数据库文件。这是因为临时磁盘被定义为:用于临时数据处理的操作。特点是性能好(SSD),但是空间有限且存放在上面的数据没有保障(在一些情况下数据会被清空)。因此临时磁盘绝对不能用来存放重要数据。同时应用程序的数据最好也不要放在系统盘中,以便于迁移、备份和扩容。本文将介绍如何为 Azure 中的 Ubuntu 虚机添加数据磁盘,并完成相应的配置。
容器(container),并不是一种虚拟化(virtualization)技术,而是一种进程隔离(isolation)技术,从内核空间、资源和安全等方面对进程做隔离。
本文比较适合自建集群,阿里云,腾讯云,华为云等云厂商的普通云服务器不支持二次虚拟化,无法实现vm on vm。如果只是业务需要虚机,可以直接在云厂商购买虚机使用。
前面几期主要介绍了数据中心中fabric网络架构以及部署网络自动化的关键技术,从本期开始我们将注意力下移到服务器。
当时那边生成密码串时候因为看到别人博客上写的是hello,说这个是key,没想到用户名,也跟着别人写了,下面是那边项目当初生成密码串参考的文档截图
前言 本文先介绍一下VLAN Trunk的基本概念,以及OpenStack Neutron和OpenFlow based SDN是如何为Trunk port提供网络支持。OpenStack对VLAN Trunk的支持具体是什么?虽然OpenStack与容器,物理主机也做了集成,但是OpenStack最主要的应用还是虚机管理,而现代的操作系统,不论是Linux还是Windows,都支持将网卡配置成Trunk port。OpenStack对VLAN Trunk的支持就是指对OpenStack所管理的虚机的Tru
一、首先我们来看看传统数据中心的架构。一般外围是路由器、Firewall,核心是三层交换机(旁挂安全设备),底层是二层交换机、服务器、存储设备。服务器一般是专机专用,不具备弹性。同时整个系统架构一般只为一个单位、公司服务,
在去年VMworld大会时VMware宣布了全面支持容器,并前瞻性的指出容器和虚机是”Better together”的。转眼间一年过去了,在今年刚结束的VMworld大会上,VMware发布了一系列和容器相关的技术和产品,我们逐渐清晰地看到VMware在云原生应用(Cloud Native Apps)领域的布局和蓝图,仿佛一幅宏大的画卷缓缓地展现在我们面前。
今天聊的网络虚拟化和前面几期文章中提到的Fabric上SDN中实现的网络虚拟化还不一样,此处网络虚拟化是指在服务器内部如何为虚机提供联通和通向外网时提供网络部分,和SDN实现的网络虚拟化相比没有那么丰富、节点数量也不如后者多。在服务器为主体的网络虚拟化中虚拟交换机和虚拟网卡是2个至关重要的组件。
调用 kvm 的 go-libvirt 工具库方法 DomainDefineXMLFlags 实现对虚机的创建
VMware,一个优秀的虚拟化平台。其拥有优秀的 Api 和稳定的性能,其也拥有完善的 SDK,但是官方的 SDK 并不好用,今天我们就用简单的例子来认识一款简单好用的 VMware 的 Python 库,它就是 pyVmomi。
测试环境3台Windows机器:跟黑石同子网的cvm、黑石、黑石里vmware workstation创建的虚机
为方便阅读和分享,应读者要求,把《云原生应用战略》上、下两篇合并发表。作为福利,新增加了vSphere Integrated Container的演示视频。
根据 CPU 访问内存中地址所需时间和距离我们可以将CPU和内存结构分为SMP(SMP,Symmetric Multi-Processor,也称之为一致内存访问UMA)、NUMA和MPP(Massive Parallel Processing)三种结构。而我们在虚拟化环境中常用的结构包括SMP和NUMA这两种。相对SMP(UMA)来说,NUMA具有更加好的扩展性。NUMA将CPU和相近的内存配对组成节点,在每个NUMA节点里,CPU都有本地内存,访问距离短,性能好。NUMA比SMP具有更好的扩展性,SMP使用共享内存控制器,所有的CPU使用共享内存总线访问内存,如图1所示。在CPU不多的时候,SMP可以很好地工作,但是一旦CPU的数量很大的时候,这些 CPU 既可能造成内存总线的压力,也可能发生CPU之间相互“争夺”对共享内存总线的访问。NUMA采用分组的形式,限制一个NUMA节点里面的CPU数量和内存大小,并使用缓存一致性内部连接总线将各个NUMA节点连接起来,如图2所示。在服务器CPU日益增多和虚拟化普及的时代,NUMA更能适应高密度虚拟化环境的要求。
部署一个单体式应用意味运行大型应用的多个副本,典型的提供若干个(N)服务器(物理或者虚拟),运行若干个(M)个应用实例。部署单体式应用不会很直接,但是肯定比部署微服务应用简单些。 一个微服务应用由上百个服务构成,服务可以采用不同语言和框架分别写就。每个服务都是一个单一应用,可以有自己的部署、资源、扩展和监控需求。例如,可以根据服务需求运行若干个服务实例,除此之外,每个实例必须有自己的CPU,内存和I/O资源。尽管很复杂,但是更挑战的是服务部署必须快速、可靠和性价比高。 有一些微服务部署的模式,先讨论一下每个主机多服务实例的模式。
容器技术是最近几年非常热门的技术,它似乎就是为云端的应用量身定制的,所以它也被贴上了云原生应用 (Cloud Native Application) 技术的标签。目前最为流行的容器管理调度平台是 Kubernetes (缩写为 K8s),是 Google 为支持大批量容器而开发的企业级运行平台,可以支持负载均衡、高可靠等生产级功能。
KVM(Kernel-based Virtual Machine) ,基于内核的虚拟机,配合QEMU(处理器虚拟软件),需要CPU支持虚拟化技术(并且在BIOS里打开虚拟化选项),效率可达到物理机的80%以上。此外,它对SMP的支持很好。
这个问题是很多新手喜欢问的,譬如大学生想做个自己的博客或者搞个班级图片站什么的,一来可以装个X,二来也算是有个自己定义的域名搞搞小业务什么的。
CloudStack是一个功能强大、UI友好的开源云(IaaS)计算解决方案。自Ctrix将CloudStack捐献给 apache 后,一直持续高速发展,其社区活跃度已经渐渐赶上风头一时无两的另一开源云OpenStack平台。 CloudStack拥有所有开源云平台中最为友善的管理界面,而且其天生的多语种支持会使中文用户感觉很爽。 今天我们来详细介绍一下CloudStack最新版本 4.1.0 在 CentOS 6.4 下的安装部署的步骤。鉴于网上文章一大抄,很多内容都是装来装去一大堆东西,看官们一会就晕了,根本不了解为什么装这些程序,装来是干什么的。这回呢,我会把每一步说明尽可能详细一些,外加我的经验和理解(不少心得是重装了10次以上后得出的),希望能让后来者可以少走些弯路。 CloudStack可分为管理节点安装和受控节点安装。 管理节点安装无特殊要求,完全可以安装到虚拟机环境下。 受控节点因要创建虚拟机,故需要硬件虚拟化支持,推荐使用独立主机安装。CloudStack支持多种虚拟化方案,包括:KVM、Xen、XenServer、VMware。因XenServer、VMware已包含有强大的虚拟机管理功能,CloudStack可以直接与其通信调用其管理接口,因此这两种受控机环境下,无需安装任何软件。但KVM、Xen的受控机必须安装 CloudStack-Agent 之后,才能被CloudStack管理。 本篇我们主要来讲解管理节点搭建步骤: 一、前期准备 1、配置网卡,确保主机能上网 因我们要使用网络安装方式,所以要首先保证你的服务器可以正常联网。 1 pingwww.baidu.com 2、设置主机名称 CloudStack运行时需要获取本机名称,如无法正确获取可能导致服务无法正常启动并报一大堆的错。 运行以下命令检查: 1 hostname--fqdn 如无正常返回,请编辑 /etc/hosts 文件,添加主机ip对应的名称。 1 如: 2 192.168.19.135 manage.cloudstack.com vi /etc/sysconfig/network 将 HOSTNAME= 改为同你刚设置的一样。 编辑完后立即生效。如果还不成的话,重启下服务器应该就会好了。 3、配置时间同步 管理节点会通过各种协议与受控节点通讯,为了确保安全,受控节点接到命令后会进行一系列的校验,如果两机的时间不同步的话,会导致命令拒绝执行。 最简单的办法就是,所有服务器都安装 ntp实现时间的自动同步。 1 yuminstallntp 4、修改Linux安全设置 服务器上的SELinux会拦截CloudStack的一些命令,导致CloudStack操作失败,因此启动CloudStack前需要对SELinux进行设置。 vi /etc/selinux/config 1 SELINUX=permissive 以上修改需重启服务器才能生效,为使设置立即生效可使用下边的命令 1 setenforce permissive 二、更新 yum 仓库 默认情况下,CentOS的软件源中没有收录最新版本CloudStack,为了能顺利安装,我们需要手工指定软件源。 新建 /etc/yum.repos.d/cloudstack.repo 文件,内容为: 1 [cloudstack] 2 name=cloudstack 3 baseurl=http://cloudstack.apt-get.eu/rhel/4.1/ 4 enabled=1 5 gpgcheck=0 三、安装管理节点 设置好源以后,我们就可以直接使用 yum安装了,非常简单方便。 安装管理节点的命令为: 1 yuminstallcloud-client 如果你的CentOS 是最小化安装的话,将需要安装 160 兆以上的东东,请耐心等待哈... 四、配置数据库 CloudStack使用mysql管理数据,但安装cloud-client时没有包含mysql,这时需要我们手工安装,并导入数据。这是可以理解的,因为数据库可以被安装到其它机器上。 1 yuminstallmysql-server 默认的,mysql有连接数限制,无法满足CloudStack管理节点的要求,需要手工设定。 vi /etc/my.cnf 增加以下内容: 1 innodb_rollback_on_timeout=1 2 innodb_lock_wait_timeout=600 3 max_connections=350 4 log-bin=mysql-bin 5 binlog-format='ROW' 注:如果没改的话会发生什么现象我没有尝试,不
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请注意。
近日,顶象发布《车企App安全研究白皮书》。该白皮书总结了目前汽车公司App所面临的主要技术威胁和合规风险,详细分析了这些风险产生的原因,并提供了相应的安全解决方案。
内容来源:2018 年 10 月 24 日,VMware高级讲师寇雪旭在“VMware技术专题分享”进行《NSX高级路由架构》演讲分享。IT 大咖说(微信id:itdakashuo)作为独家视频合作方,经主办方和讲者审阅授权发布。
在vsphere环境中搭建虚机RAC需要遵循一定的步骤,虚拟机配置RAC,如果不是挂裸盘RDM的话,按以下步骤进行,不影响VMotion 的功能,但是影响Storage VMotion 的功能。在数据库系统云化实施中,对oracleRAC要求部署在虚拟机中的场景,可以采用以下步骤来进行实施。
从docker官网了解docker的历史,为了保证文章的质量,多增加了截图,想让各位老铁看的比较爽…… 官网 docker官网介绍 分类 社区版(Docker Community Edition (C
《vagrant学习笔记 - 入门》中的hello vagrant配置文件,只是最基本的配置,它使用缺省的box配置初始化了一个虚拟机。有时候,我希望对vm做更详尽的配置,比如配置一次创建一组vm,搭建一个mfs的测试环境,他需要一台服务器做mfsmaster,两台服务器做mfs chunk server,一台服务器做metalogger,还有一台服务器做mfs client进行测试。
在二、中,设置好了ESX 3.5在VMware 6.5中得以顺利安装的环境,接下来就要进行ESX 3.5 U3的安装了。
今天我们的集团客户数据迁移遇到了大问题,因SLB不支持源IP的透传必须进行平台的大升级。接下来,客户提出了解我方的云主机对故障迁移进行了解,以便保障客户的ERP系统的安全可靠性。
控制平面多虚一,指的是将两台或者多台设备的资源(包括操作系统、转发实例、转发表、端口等)进行整合,对外表现为一台逻辑设备,以Cisco VSS,Huawei CSS和H3C的IRF为代表,后来Cisco又推出了vPC技术作为对VSS的升级(虽然vPC已经很难说是控制平面多虚一技术了)。其实在这些技术中,除了转发实例、转发表这些转发逻辑层面的资源以外,端口这些数据平面的资源都被连带着整合了,因此又称“虚拟机框”技术。为了方便起见,以下就称为“虚拟机框”技术了。 这类技术和堆叠技术,感觉应该本质上是一回事,不过
上一篇文章已经介绍了 如何获取 EVE-NG 模拟器安装包,同时我们知道 EVS-NG 提供两种类型的安装包,一种是 OVF 包 (导入虚拟化平台使用,个人学习用),另一种是 ISO 镜像文件 (直接安装在物理机上使用,性能高),我们可以根据不同需要选择不同类型的安装包,这里我们已经把最新的两种类型的安装包都准备好了,如下,EVE-COMM-VM-112为 OVF包,EVE-20171007为 ISO镜像文件:
KVM的发展路线就是逐步从软件模拟到硬件辅助,内存虚拟化的本质就是实现客户机虚拟地址 (Guest Virtual Address, GVA) 到宿主机物理地址之间的转换, 其主要发展历程就是从最初的影子页表到硬件辅助实现的EPT/NPT页表,对于影子页表KVM需要为每个客户机的每个进程的页表都要维护一套相应的影子页表, 这会带来较大内存上的额外开销,此外,客户机页表和和影子页表的同步也比较复杂。 因此,Intel 的 EPT(Extent Page Table) 技术和 AMD 的 NPT(Nest Page Table) 技术都对内存虚拟化提供了硬件支持。
前言 2022年9月2日,第二届SmartNIC & DPU技术创新峰会在北京成功举办。 去年在第一届峰会上,腾讯以《从SmartNIC到DPU,腾讯自研智能网卡的“小才大用”》为分享主题,介绍了腾讯云为解决单服务器“核爆炸”,CVM和Bare metal统一算力底座,降低总体成本为目的,自研了水杉和银杉两代DPU。 今年在水杉和银杉已经历长时间上线和运营挑战的背景下,腾讯在第二届峰会上做了《行稳致远:腾讯自研DPU商用情况与技术演进》为主题的分享,以“行稳”和“致远”两个部分,介绍了腾讯自研DPU如何应对
注意:若没有virt-v2v命令,可使用yum -y install virt-v2v安装。
前言 2022年9月2日,第二届SmartNIC & DPU技术创新峰会在北京成功举办。 去年在第一届峰会上,腾讯以《从SmartNIC到DPU,腾讯自研智能网卡的“小才大用”》为分享主题,介绍了腾讯云为解决单服务器“核爆炸”,CVM和Bare metal统一算力底座,降低总体成本为目的,自研了水杉和银杉两代DPU。 今年在水杉和银杉已经历长时间上线和运营挑战的背景下,腾讯在第二届峰会上做了《行稳致远:腾讯自研DPU商用情况与技术演进》为主题的分享,以“行稳”和“致远”两个部分,介绍
VSAN的虚拟机存储策略 VSAN的虚拟机存储策略有5种功能,或者说5种规则(Rule)。从各家磁盘阵列厂商对Virtual Volumes的支持,我们可以看到VMware SPBM所涵盖的规则要比VSAN的5个规则丰富得多,随着VSAN在数据服务(Data Services,也即存储功能)的不断发展,未来会支持更多的规则。在新的VSAN版本里,去重、纠删码、QoS(IOPS Limit),也放到了存储策略里。
之前已经测试了Windows Server 2012系统群集,接下来将测试Windows Server 2012 Hyper-V群集功能,实现虚机高可用
在计算虚拟化大致可分为CPU虚拟化、内存虚拟化、I/O虚拟化,本期我们来聊聊内存虚拟化技术。在物理服务器中可以根据不同的计算需求配置不同容量的内存,如最常见的是配置256G以及512G。在虚拟化环境中这些内存会分配给不同的虚机使用。
教你如何在ESXI上开虚机玩KVM,首先在物理机上开启VT-d虚拟化支持,其次开启ssh功能,远程连接上之后修改/etc/vmware/config/配置文件。在ESXI 5.0上面只需添加vhv.allow = "TRUE"即可,而在ESXi 5.1上面得将“vhv.allow”改成“vhv.enable”才行,对于桌面版的系统,估计还要跑一下modprobe kvm_intel加载一下kvm模块才能支持,做完这些操作之后,在vsphere界面、编辑虚机配置CPU打开VT-d虚拟化支持就可以玩KVM了。
作为中国汽车三大集团之一,东风汽车旗下的东风日产乘用车公司(以下简称为东风日产)成立于2013年,主要从事NISSAN品牌乘用车的研发、制造、销售和售后业务,是中国汽车行业的全价值链企业之一。
现在,高可用已经是各行各业必须具备的能力里,那么我们怎么去实现高可用呢?keepalived 就是一个很好的选择,它采用 vrrp 虚拟路由冗余协议实现节点和服务的高可用,使用简单,非常适合追求简单轻量的系统。今天我们就一起从一个简单的试验走进 keepalived 的世界。
本期我们继续就计算虚拟化的议题来聊聊虚机特性,虚机与物理机区别在于虚机与物理硬件设备解耦,可根据资源利用情况灵活的迁移、同时只要硬件资源够用可以创建多个虚机承载相应业务,所以其扩展性也比物理服务器强很多。除此之外虚机还有很多重要特性如“HA、DRM、DPS等”,本期我们来剖析这些虚机特性。
领取专属 10元无门槛券
手把手带您无忧上云