KVM计算虚拟化原理,偏基础

发布时间:2018-10-27  栏目:w88优德官网电脑版  评论:0 Comments

Technorati 标签:
云计算,虚拟化

本文基于网上的材料整理而变成。

第一章 服务器虚拟化概述

1.1 为什么要服务器虚拟化

假如物理机上独布置一栽工作,资源利用率太没有,不便宜节本钱。如果说生区域需要使用物理机来保证平稳,对于开发测试区使用虚拟机不但可省有限的物理机资源,还好速直达丝。

1.2 虚拟化发展历史

  • 提出概念:1959年6月提出,在列国信息处理大会上发表之《大型高速计算机被的时空共享》论文中提出
  • 开发技术:20世纪60年间开始,IBM操作系统虚拟化技术利用在了大型机和小型机上
  • 蓬勃发展:20世纪90年份,VMware公司第一实现了X86绑架构上的虚拟化,于1999年生产了x86平台上的率先慢虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:更多的厂商参加了虚拟化技术之武装

第二章 服务器虚拟化

服务器虚拟化主要出有限栽办法:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出的下令经过处理后传至大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是当情理服务器和操作系统中运行的软件层,可以对法硬件系统,将先后对是硬件系统CPU发送的命令经过处理后,加以虚拟传到物理CPU上。同时其可协调访问服务器上的情理设备与虚拟机,也叫虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出下运行时的环境,是比轻量的虚拟化,层次较浅。

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行于硬件系统上。典型例证是KVM。KVM其实就算是Linux内核提供的虚拟化架构,可拿基本直接充当Hypervisor,KVM一般需处理器本身支持虚拟化扩展技术,如Intel
    VT等。KVM使用内核模块kvm.ko来贯彻中心虚拟化功能,但是单纯提供了CPU和内存的虚拟化,必须做QEMU才能够结完整的虚拟化技术。

图片 1

  • 宿主架构:典型的就是是QEMU,它可以透过二进制转换来套CPU,使Guest
    OS认为好又跟硬件打交道。
    图片 2

2.2 CPU虚拟化

经过的实践有少种植状态

  • 外核态:主要用以硬件访问,修改要参数,
  • 据此户态:用户运行应用程序。

些微种植状态的权柄不同,对硬件的造访必须在内核态,可以保证系统的可靠性,只吃使用人员开放用户态,不会见针对OS的运作带来好的熏陶。避免系统受人为攻击。

OS内核数据与代码区应该与用户区完全隔离,也就是说程序可以视底地点都是因此户态地址,当程序执行系统调用的早晚,进程会切入内核态进行基本访问,这时候页表也需要切换至外核态的页表,带来的题目是性质于差。因为页表在内存中,切换会带来性能的下跌。

故而时主流的OS的做法是拿根本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默认占用2~4G区,64bit系统也位于高位。这样拉动的裨益是,进程空间的内核区也吃射到大体内存区,进程的切换不会见招TLB中之前缓存的对内核区页表失效,保证了性能。

实际进程是无法访问内核区,因为强行访问的语句,页表条目有权限位(进程时权限保存在寄存器的CPL字段,为Ring3,而本页表的权柄为Ring0,所以CPU会禁止访问。)

总一下不怕是x86 架构提供四个特权级别为操作系统及应用程序来走访硬件。
Ring 是乘 CPU 的周转级别,Ring 0凡是最高级别,Ring1不成的,Ring2再度不行的……

  • 基本需要一直看硬件和内存,因此它们的代码需要周转在最高运行级别
    Ring0上,这样她可采取特权指令以控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低于运行级别达Ring3上,如何如顾磁盘,那即便需要实行系统调用,此时CPU的运转级别会生出打ring3届ring0的切换,并超过反至系统调用对应的水源代码位置执行,这样基本就也公完成了设备看,完成之后又由ring0返回ring3。此历程也如打算户态和内核态的切换。

图片 3

对非虚拟化操作系统而言,应用程序和体系发出的寻常指令都运行于用户级别指令中,只有特权指令运行在基本级别中,这样操作系统及祭解耦合。

这就是说,虚拟化在此虽赶上了一个难题,因为物理机OS是做事于 Ring0
的,虚拟机的操作系统就是无可知为当 Ring0
了,所以部分特权指令是从未实施权的

CPU虚拟化的法子就是是

  • 特权解除:让Guest
    OS运行于用户级别,让hypervisor运行于着力级别,这样尽管排了Guest
    OS的特权级别。
  • 沦为模拟:运作在Guest
    OS的常备指令像过去同一运行,当运行到特权指令时,会时有发生非常并叫hypervisor捕获。
    图片 4

这就是说困难在于:

  • 怎模拟x86保护模式
  • 怎阻止并履行虚拟机的Ring0指令。
    釜底抽薪方式如下
2.2.1 CPU虚拟化技术解决方法
  • 全虚拟化:客户操作系统运行于 Ring
    1,它于履行特权指令时,会接触异常,然后
    hypervisor捕获这个大,在好里面做翻译,最后回来到客户操作系统内,客户操作系统认为好的特权指令工作正常化,继续运行。所以呢为二进制翻译技术(Binary
    Translate)。
    然而是特性损耗大的很,简单的同一长长的指令现在也只要透过复杂的好处理过程
    图片 5

    • 亮点:不用修改GuestOS内核可以一直利用
    • 短:在VMM捕获特权指令与翻译过程会促成性的下跌。
      图片 6
      于上图可以视,当虚拟机中之动要运行在内核态的时刻,会经Hypervisor层的依样画葫芦,通过二进制翻译技术,将下令替换为其他的一声令下。
  • 半虚拟化:修改操作系统内核,替换掉不能够虚拟化的指令,通过超级调用(hypercall)直接跟底部的虚拟化层hypervisor来报道,
    对立于意虚拟化性能再强,因为省去了翻译的历程。但是得对Guest
    OS进行修改,应用场景不多。
    图片 7
  • 硬件辅助虚拟化: 2005年后,CPU厂商Intel 和 AMD 开始支持虚拟化了。
    Intel 引入了 Intel-VT (Virtualization Technology)技术
    重点的贯彻方式是长了一个VMX
    non-root操作模式,运行VM时,客户机OS运行在non-root模式,依然时有发生Ring0~ring3等级别
    当运行特权指令时抑或发搁浅的时光,通过VM_EXIT就足以切换至root模式,拦截VM对虚拟硬件的看。执行完毕,通过VM_ENTRY回到non-root即可。
    图片 8
    这种技能主要代表也intel VT-X,AMD的AMD-V
    图片 9

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
扶持的全虚拟化方案,它要CPU虚拟化特性的支持。
总结:
图片 10

2.3 内存虚拟化原理

内存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是计算机体系内存管理之等同种植技术,目的是被应用程序认为它们具有连续的可用的内存(一个连完整的地点空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了外存调用之底细,对应用程序而言,不欲关爱内存访问的底细,可以拿内存当作线性的内存池。

x86 CPU 都席卷了一个誉为内存管理之模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的属性。

OS将内存以4KB为单位展开分页,形成虚拟地址和情理地址的映射表。假若OS在物理机上运行,只要OS提供这页表,MMU会以访问存时自动开虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的转速。

只是一旦虚拟机上运行OS,Guest
OS经过地方转化到的“物理地址”实际上是QEMU的逻辑地址,因此还索要以软件将该转会为真正物理内存地址

对于OS运行在情理机上的景况

图片 11

要经过看内存的早晚,发现映射表中尚无物理内存进行相应。如下图

图片 12

这时候MMU向CPU发出缺页中断,操作系统会依据页表中之外存地址,在外存中找到所缺少的一样页,将那调入内存。同时创新页表的映射关系。产一致坏访问的时节可以直接命中物理内存。

图片 13

对OS在虚拟机中之情,过程将复杂很多。

对此虚拟机内之过程的变,需要开展两次改换。也就是说首先以运之逻辑地址转换为虚拟机的物理地址,而当时实在是QEMU进程的逻辑地址,所以要投到实际内存的物理地址还亟需做一样不善变。

图片 14

  • VA:应用的虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的情理地址

可见,KVM
为了以平等雅机械上运行多独虚拟机,需要充实一个初的外存虚拟化层,也就是说,必须虚拟
MMU 来支持客户OS,实现 VA -> PA -> MA 的翻译。

客户操作系统继续控制虚拟地址到客户内存物理地址的映射 (VA ->
PA),但是客户操作系统不能够一直看实际机器内存,因此VMM
需要承担映射客户物理内存到实际机器内存 (PA -> MA)。

图片 15

VMM 内存虚拟化的贯彻方式:

  • 软件方式:通过软件实现内存地址的翻,比如 Shadow page table
    (影子页表)技术
  • 硬件实现:基于 CPU 的佑助虚拟化功能,比如 AMD 的 NPT 和 Intel 的 EPT
    技术
2.3.1 软件方式

阴影页表(SPT,shadow page
table):Hypervisor为虚拟机护了一个虚拟机的虚拟地址暨宿主机物理地址照的底页表。也就是说,在本来的鲜重叠地址层次基础及加了平叠地下物理地址层次,通过这张表可以用客户机虚拟地址宿主机物理地址里面开展映射。

客户OS创建之后,Hypervisor创建其针对性诺影子页表。刚开影子页表是空的,此时别客户OS的访存操作都见面生缺页中断,然后Hypervisor捕获缺页异常

图片 16

通过简单次等地址映射转换获得虚拟机虚拟地址物理机物理地址的映照关系,写副黑影页表,逐步完成所有虚拟地址到宿主机机器地址的照。
图片 17

代价是内需保障虚拟机的页表和宿主机的影页表的一块儿。

2.3.2 通过INTEL EPT技术来落实

KVM 中,虚机的大体内存即便为 qemu-kvm 进程所占有的内存空间。KVM 使用
CPU 辅助的内存虚拟化方式。在 Intel 和 AMD
平台,其内存虚拟化的落实方式分别吗:

  • AMD 平台及的 NPT (Nested Page Tables) 技术
  • Intel 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT采用类似的规律,都是用作 CPU
    中初的一模一样叠,通过硬件就此来拿客户机的情理地址翻译啊主机的物理地址。也就是说Guest
    OS完成虚拟机虚拟地址–>虚拟机物理地址第一重合转化,硬件同时形成虚拟机物理地址及物理机物理地址这第二重叠转化。第二重叠转换对Guest
    OS来说是透明的,Guest
    OS访问内存时和于物理机运行时是一模一样的。这种艺术以称作内存辅助虚拟化。

于是内存辅助虚拟化就是一直用硬件来兑现虚拟机的情理地址及宿主机的情理地址的一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再用一块两个页表,虚拟机内部的切换为不需qemu进程切换,所要之凡只是有限浅页表查找,而且是经过硬件来成功的,性能损耗低。

流程如下:

  • VM中之采取发现页没分片,MMU发起中断,从虚拟机的大体地址(QEMU的逻辑地址)中分红一页,然后更新页表。
    图片 18
  • 这儿虚拟机页的大体地址还未曾针对承诺物理内存的地点,所以触发了qemu进程在宿主机的page
    fault。宿主机内核分配内存页,并创新页表。
    图片 19
  • 下次访就得借助EPT来开展,只待查阅两软表明即可。

图片 20

总结:
图片 21

2.4 KVM其他内存管理技术

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是基本中的守护进程(称为
ksmd),它会定期开展页面扫描,将副本页面进行统一,然后放多余的页面。KVM使用KSM来减少多个一般之虚拟机的内存占用,提高内存的使效率,在虚拟机使用相同镜像和操作系统时,效果更是不言而喻。但是会大增水源开发,所以为了提升效率,可以以这个特性关闭。

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

Intel 的 x86 CPU 通常以4Kb内存页,当是由此安排,也能使巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将祭更少之内存,并且用增长CPU的频率。最高情况下,可以增强20%底效率!

2.5 IO虚拟化

  • 拟(完全虚拟):使用 QEMU 纯软件的法来学 I/O
    设备。使用一个Service VM来模拟实硬件,性能非常不同。
    客户机的装备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后放IO共享页,同时用户空间的QEMU进程,QEMU模拟出本次IO操作,同样置于共享页中并同时KVM进行结果的取回。

小心:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将非会见将结果放上一道享页中,而是通过外存映射的计拿结果直接写到客户机的内存中,然后通知KVM模块告诉客户机DMA操作就成功。

图片 22

  • 半虚拟化: KVM/QEMU就利用这种模式,它以 Guest OS 内核中安前端驱动
    (Front-end driver)和在 QEMU
    中落实后端驱动(Back-end)的法门。前后端驱动通过 vring
    (实现虚拟队列的环形缓冲区)直接通信,这即绕了了经 KVM
    内核模块的长河,提高了IO性能,相对于完全虚拟的模式,
    省错过矣纯模仿模式下的不胜捕获环节,Guest OS 可以同 QEMU 的 I/O
    模块直接通信。

图片 23

  • IO-through:直接把机物理设备分配给虚拟机,不过要硬件具备IO透传技术;,Intel
    定义之 I/O 虚拟化技术成 VT-d,AMD 的名叫 AMD-V。
    KVM 支持客户机以占方式访这个宿主机的 PCI/PCI-E
    设备。通过硬件支持的 VT-d
    技术以装备分给客户机后,在客户机看来,设备是情理上连在PCI或者PCI-E总线上之
    几乎有的 PCI 和 PCI-E
    设备还支持直接分配,除了显卡以外(显卡的特殊性在这里)。PCI
    Pass-through 需要硬件平台 Intel VT-d 或者 AMD IOMMU
    的支撑。这些特点必须于 BIOS 中吃启用
    图片 24

    • 利:减少了 VM-Exit 陷入到 Hypervisor
      的过程,极大地提高了性,可以上几乎和原生系统一样的习性。而且VT-d
      克服了 virtio 兼容性不好与 CPU 使用频率比较高之题材。
    • 不足:独占设备的话,无法落实设备的共享,成本提高。
    • 相差的化解方案:(1)在同样雅物理宿主机及,仅少数 I/O
      如网性要求比高的客户机使用
      VT-d直接分配设备,其他的利用纯模仿或 virtio
      已达标多个客户机共享同一个装置的目的
      (2)对于网I/O的解决办法,可以选 SR-IOV
      是一个网卡产生多只独立的虚构网卡,将每个虚拟网卡分配个一个客户机使用。

总结
图片 25

2.6 网卡虚拟化

VM发出的流量一般发生少数种植

  • 顶物理机外部的装备,
  • 交地头物理服务器上之虚拟机。

据此我们要确保不同虚拟机流量的交互隔离,同时还要如考虑情理设备外虚拟机的互联互通。

解决方式:
对对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
重要出如下几栽模式:

  • Bridge桥对接模式:把物理主机上之网卡当交换机,然后虚拟发一个Bridge来接收发朝物理机的保证。
    图片 26
  • isolation mode:仅guest OS之间通信;不与外部网络以及宿主机通信。
    图片 27
  • routed mode:与外表主机通信,通过静态路由使得各Guest OS
    的流量用经物理网卡
    图片 28
  • nat:地址转换;在虚拟网卡和大体网卡之间确立一个nat转发服务器;对数据包进行源地址转换。
    图片 29

对里面流量:

  • 在hypervisor上成立virtual
    switch,不过会消耗CPU资源,而且有于充分安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理部分vswitch的劳作,同时用vFW来保障平安)
  • 可以预先叫流量产生服务器通过安全设备区域拓展数据清洗以后更回去。主流方式以硬件SR-IOV对VM流量进行甄别与拍卖

总结

图片 30

2.7 Hypervisor层之虚拟化实现

操作系统是用户和物理机的接口,也是行使与物理硬件的接口。核心职能在于任务调度和硬件抽象。

今非昔比操作系统的极致可怜不同在于内核。

单内核、混合本、微内核、外内核的界别
图片 31

  • 单内核:内核所有的职能代码全部且运行在同一个基本空间内,优点是性质性能好高,缺点是统筹复杂,稳定性不敷好;
  • 微内核:类似C/S服务模式,只有极其基础的代码会运作于本空间,其他的都运行为用户空间,优点是泰强,缺点性能比逊色;
  • 错落本:性能与平稳之降产物,完全是因为设计者进行用户从定义;
  • 外内核:比微内核更加极端,连硬件抽象工作且提交用户空间,内核只需要保证应用程序访问硬件资源时,硬件是闲之

图片 32

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

留下评论