2017-04-20


上篇文章对qemu部分的内存虚拟化做了介绍,上篇文章对于要添加的FR,调用了 MEMORY_LISTENER_UPDATE_REGION(frnew, as, Forward, region_add)

  1. #define MEMORY_LISTENER_UPDATE_REGION(fr, as, dir, callback) \
  2. MEMORY_LISTENER_CALL(callback, dir, (&(MemoryRegionSection) { \
  3. .mr = (fr)->mr, \
  4. .address_space = (as), \
  5. .offset_within_region = (fr)->offset_in_region, \
  6. .size = (fr)->addr.size, \
  7. .offset_within_address_space = int128_get64((fr)->addr.start), \
  8. .readonly = (fr)->readonly, \
  9. }))

该宏实际上是另一个宏MEMORY_LISTENER_CALL的封装,在MEMORY_LISTENER_CALL中临时生成一个MemoryRegionSection结构,具体逻辑如下

  1. #define MEMORY_LISTENER_CALL(_callback, _direction, _section, _args...) \
  2. do { \
  3. MemoryListener *_listener; \
  4. \
  5. switch (_direction) { \
  6. case Forward: \
  7. QTAILQ_FOREACH(_listener, &memory_listeners, link) { \
  8. if (_listener->_callback \
  9. && memory_listener_match(_listener, _section)) { \
  10. _listener->_callback(_listener, _section, ##_args); \
  11. } \
  12. } \
  13. break; \
  14. case Reverse: \
  15. QTAILQ_FOREACH_REVERSE(_listener, &memory_listeners, \
  16. memory_listeners, link) { \
  17. if (_listener->_callback \
  18. && memory_listener_match(_listener, _section)) { \
  19. _listener->_callback(_listener, _section, ##_args); \
  20. } \
  21. } \
  22. break; \
  23. default: \
  24. abort(); \
  25. } \
  26. } while ()

这里有个_direction,其实就是遍历方向,因为listener按照优先级从低到高排列,所以这里其实就是确定让谁先处理。Forward就是从前向后,而reverse就是从后向前。还有一个值得注意的是memory_listener_match函数,listener有这对应的AddressSpace,会在其 address_space_filter域指定,注意如果没有指定AddressSpace,那么该listener对所有AddressSpace均适用,否则只适用于其指定的AddressSpace。知道这些,看这些代码就不成问题了。

这样kvm_region_add()函数得到执行,那咱们就从kvm_region_add函数开始,对KVM部分的内存管理做介绍。kvm_region_add()函数是核心listener的添加region的函数,在qemu申请好内存后,针对每个FR,调用了listener的region_add函数。最终需要利用此函数把region信息告知KVM,KVM以此对内存信息做记录。咱们直奔主题,函数核心在static void kvm_set_phys_mem(MemoryRegionSection *section, bool add)函数中,

该函数比较长,咱们还是分段介绍

  1. KVMState *s = kvm_state;
  2. KVMSlot *mem, old;
  3. int err;
  4. MemoryRegion *mr = section->mr;
  5. bool log_dirty = memory_region_is_logging(mr);
  6. /*是否可写*/
  7. bool writeable = !mr->readonly && !mr->rom_device;
  8. bool readonly_flag = mr->readonly || memory_region_is_romd(mr);
  9. //section中数据的起始偏移
  10. hwaddr start_addr = section->offset_within_address_space;
  11. /*section的size*/
  12. ram_addr_t size = int128_get64(section->size);
  13. void *ram = NULL;
  14. unsigned delta;
  15.  
  16. /* kvm works in page size chunks, but the function may be called
  17. with sub-page size and unaligned start address. */
  18. /*内存对齐后的偏移*/
  19. delta = TARGET_PAGE_ALIGN(size) - size;
  20. if (delta > size) {
  21. return;
  22. }
  23.  
  24. start_addr += delta;
  25. size -= delta;//这样可以保证size是页对齐的
  26. size &= TARGET_PAGE_MASK;
  27.  
  28. if (!size || (start_addr & ~TARGET_PAGE_MASK)) {
  29. return;
  30. }
  31. /*如果不是rom,则不能进行写操作*/
  32. if (!memory_region_is_ram(mr)) {
  33. if (writeable || !kvm_readonly_mem_allowed) {
  34. return;
  35. } else if (!mr->romd_mode) {
  36. /* If the memory device is not in romd_mode, then we actually want
  37. * to remove the kvm memory slot so all accesses will trap. */
  38. add = false;
  39. }
  40. }

第一部分主要是一些基础工作,获取section对应的MR的一些属性,如writeable、readonly_flag。获取section的start_addr和size,其中start_addr就是section中的offset_within_address_space也就是FR中的offset_in_region,接下来对size进行了对齐操作 。如果对应的MR关联的内存并不是作为ram存在,就要进行额外的验证。这种情况如果writeable允许写操作或者kvm不支持只读内存,那么直接返回。

接下来是函数的重点处理部分,即把当前的section转化成一个slot进行添加,但是在此之前需要处理已存在的slot和新的slot的重叠问题,当然如果没有重叠就好办了,直接添加即可。进入while循环

  1. ram = memory_region_get_ram_ptr(mr) + section->offset_within_region + delta;
  2. /*对重叠部分的处理*/
  3. while () {
  4. /*查找重叠的部分*/
  5. mem = kvm_lookup_overlapping_slot(s, start_addr, start_addr + size);
  6. /*如果没找到重叠,就break*/
  7. if (!mem) {
  8. break;
  9. }
  10. /*如果要添加区间已经被注册*/
  11. if (add && start_addr >= mem->start_addr &&
  12. (start_addr + size <= mem->start_addr + mem->memory_size) &&
  13. (ram - start_addr == mem->ram - mem->start_addr)) {
  14. /* The new slot fits into the existing one and comes with
  15. * identical parameters - update flags and done. */
  16. kvm_slot_dirty_pages_log_change(mem, log_dirty);
  17. return;
  18. }
  19.  
  20. old = *mem;
  21.  
  22. if (mem->flags & KVM_MEM_LOG_DIRTY_PAGES) {
  23. kvm_physical_sync_dirty_bitmap(section);
  24. }
  25. /*移除重叠的部分*/
  26. /* unregister the overlapping slot */
  27. mem->memory_size = ;
  28. err = kvm_set_user_memory_region(s, mem);
  29. if (err) {
  30. fprintf(stderr, "%s: error unregistering overlapping slot: %s\n",
  31. __func__, strerror(-err));
  32. abort();
  33. }
  34.  
  35. /* Workaround for older KVM versions: we can't join slots, even not by
  36. * unregistering the previous ones and then registering the larger
  37. * slot. We have to maintain the existing fragmentation. Sigh.
  38. *
  39. * This workaround assumes that the new slot starts at the same
  40. * address as the first existing one. If not or if some overlapping
  41. * slot comes around later, we will fail (not seen in practice so far)
  42. * - and actually require a recent KVM version. */
  43. /*如果已有的size小于申请的size,则需要在原来的基础上,添加新的,不能删除原来的再次添加*/
  44. if (s->broken_set_mem_region &&
  45. old.start_addr == start_addr && old.memory_size < size && add) {
  46. mem = kvm_alloc_slot(s);
  47. mem->memory_size = old.memory_size;
  48. mem->start_addr = old.start_addr;
  49. mem->ram = old.ram;
  50. mem->flags = kvm_mem_flags(s, log_dirty, readonly_flag);
  51.  
  52. err = kvm_set_user_memory_region(s, mem);
  53. if (err) {
  54. fprintf(stderr, "%s: error updating slot: %s\n", __func__,
  55. strerror(-err));
  56. abort();
  57. }
  58.  
  59. start_addr += old.memory_size;
  60. ram += old.memory_size;
  61. size -= old.memory_size;
  62. continue;
  63. }
  64.  
  65. /* register prefix slot */
  66. /*new 的start_addr大于old.start_addr,需要补足前面多余的部分*/
  67. if (old.start_addr < start_addr) {
  68. mem = kvm_alloc_slot(s);
  69. mem->memory_size = start_addr - old.start_addr;
  70. mem->start_addr = old.start_addr;
  71. mem->ram = old.ram;
  72. mem->flags = kvm_mem_flags(s, log_dirty, readonly_flag);
  73.  
  74. err = kvm_set_user_memory_region(s, mem);
  75. if (err) {
  76. fprintf(stderr, "%s: error registering prefix slot: %s\n",
  77. __func__, strerror(-err));
  78. #ifdef TARGET_PPC
  79. fprintf(stderr, "%s: This is probably because your kernel's " \
  80. "PAGE_SIZE is too big. Please try to use 4k " \
  81. "PAGE_SIZE!\n", __func__);
  82. #endif
  83. abort();
  84. }
  85. }
  86.  
  87. /* register suffix slot */
  88. /**/
  89. if (old.start_addr + old.memory_size > start_addr + size) {
  90. ram_addr_t size_delta;
  91.  
  92. mem = kvm_alloc_slot(s);
  93. mem->start_addr = start_addr + size;
  94. size_delta = mem->start_addr - old.start_addr;
  95. mem->memory_size = old.memory_size - size_delta;
  96. mem->ram = old.ram + size_delta;
  97. mem->flags = kvm_mem_flags(s, log_dirty, readonly_flag);
  98.  
  99. err = kvm_set_user_memory_region(s, mem);
  100. if (err) {
  101. fprintf(stderr, "%s: error registering suffix slot: %s\n",
  102. __func__, strerror(-err));
  103. abort();
  104. }
  105. }
  106. }

首先调用了kvm_lookup_overlapping_slot函数找到一个冲突的slot,注意返回结果是按照slot为单位,只要两个地址范围有交叉,就意味着存在冲突,就返回冲突的slot。如果没有,那么直接break,添加新的。否则就根据以下几种情况进行分别处理。其实主要由两种大情况:

1、新的slot完全包含于引起冲突的slot中,并且参数都是一致的。

2、新的slot和引起冲突的slot仅仅是部分交叉。

针对第一种情况,如果flag有变动,则只更新slot的flags,否则,不需要变动。第二种情况,首先要把原来的region     delete掉,具体方式是设置mem->memory_size=0,然后调用kvm_set_user_memory_region()函数。由于 新的region和delete的region不是完全对应的,仅仅是部分交叉,所以就会连带 删除多余的映射,那么接下来的工作就 是分批次弥补映射。如图所示

如图所示,old region是找到的和new region重叠的slot,首次删除把整个slot都删除了,造成了region1部门很无辜的受伤,所以在映射时,要把region1在弥补上。而黑色部分就是实际删除的,这样接下来就可以直接映射new region了,如果多余的部分在后方,也是同样的道理。在把无辜被删除region映射之后,接下来就调用kvm_set_user_memory_region把new slot映射进去。基本思路就是这样。下面看下核心函数kvm_set_user_memory_region

  1. static int kvm_set_user_memory_region(KVMState *s, KVMSlot *slot)
  2. {
  3. struct kvm_userspace_memory_region mem;
  4.  
  5. mem.slot = slot->slot;
  6. mem.guest_phys_addr = slot->start_addr;
  7. mem.userspace_addr = (unsigned long)slot->ram;
  8. mem.flags = slot->flags;
  9. if (s->migration_log) {
  10. mem.flags |= KVM_MEM_LOG_DIRTY_PAGES;
  11. }
  12.  
  13. if (slot->memory_size && mem.flags & KVM_MEM_READONLY) {
  14. /* Set the slot size to 0 before setting the slot to the desired
  15. * value. This is needed based on KVM commit 75d61fbc. */
  16. mem.memory_size = ;
  17. kvm_vm_ioctl(s, KVM_SET_USER_MEMORY_REGION, &mem);
  18. }
  19. mem.memory_size = slot->memory_size;
  20. return kvm_vm_ioctl(s, KVM_SET_USER_MEMORY_REGION, &mem);
  21. }

可以看到该函数实现也并不复杂,使用了一个kvm_userspace_memory_region对应,该结构本质上作为参数传递给KVM,只是由于不能共享堆栈,在KVM中需要把该结构复制到内核空间,代码本身没什么难度,只是这里如果是只读的mem,需要调用两次kvm_vm_ioctl,第一次设置mem的size为0.

至于为何这么做,咱们到分析KVM端的时候在做讨论。

KVM接收端在kvm_vm_ioctl()函数中

  1. ……
  2. case KVM_SET_USER_MEMORY_REGION: {
  3. struct kvm_userspace_memory_region kvm_userspace_mem;
  4.  
  5. r = -EFAULT;
  6. if (copy_from_user(&kvm_userspace_mem, argp,
  7. sizeof (kvm_userspace_mem)))
  8. goto out;
  9. kvm_userspace_mem->flags |= 0x1;
  10. r = kvm_vm_ioctl_set_memory_region(kvm, &kvm_userspace_mem);
  11. break;
  12. }
  13. ……

可以看到首要任务就是把参数复制到内核,然后调用了kvm_vm_ioctl_set_memory_region()函数。

  1. int kvm_vm_ioctl_set_memory_region(struct kvm *kvm,
  2. struct kvm_userspace_memory_region *mem)
  3. {
  4. if (mem->slot >= KVM_USER_MEM_SLOTS)
  5. return -EINVAL;
  6. return kvm_set_memory_region(kvm, mem);
  7. }

函数检查下slot编号如果超额,那没办法,无法添加,否则调用kvm_set_memory_region()函数。而该函数没做别的,直接调用了__kvm_set_memory_region。该函数比较长,咱们还是分段介绍。开始就是一些常规检查。

  1. if (mem->memory_size & (PAGE_SIZE - ))
  2. goto out;
  3. if (mem->guest_phys_addr & (PAGE_SIZE - ))
  4. goto out;
  5. /* We can read the guest memory with __xxx_user() later on. */
  6. if ((mem->slot < KVM_USER_MEM_SLOTS) &&
  7. ((mem->userspace_addr & (PAGE_SIZE - )) ||
  8. !access_ok(VERIFY_WRITE,
  9. (void *)(unsigned long)mem->userspace_addr,
  10. mem->memory_size)))
  11. goto out;
  12. if (mem->slot >= KVM_MEM_SLOTS_NUM)
  13. goto out;
  14. if (mem->guest_phys_addr + mem->memory_size < mem->guest_phys_addr)
  15. goto out;

如果memory_size 不是页对齐的,则失败;如果mem的客户机物理地址不是页对齐的,也失败;如果slot的id在合法范围内但是用户空间地址不是页对齐的或者地址范围内的不能正常访问,则失败;如果slot id大于等于KVM_MEM_SLOTS_NUM,则失败;最后if我是没看明白啊,怎么可能越加越小呢,size也不可能是负值,该问题再议吧。

  1. /*定位到指定slot*/
  2. slot = id_to_memslot(kvm->memslots, mem->slot);
  3. base_gfn = mem->guest_phys_addr >> PAGE_SHIFT;
  4. npages = mem->memory_size >> PAGE_SHIFT;
  5.  
  6. r = -EINVAL;
  7. if (npages > KVM_MEM_MAX_NR_PAGES)
  8. goto out;
  9. /*如果npages为0,则设置*/
  10. if (!npages)
  11. mem->flags &= ~KVM_MEM_LOG_DIRTY_PAGES;
  12. /*new 为用户空间传递过来的mem,old为和用户空间mem id一致的mem*/
  13. new = old = *slot;
  14.  
  15. new.id = mem->slot;
  16. new.base_gfn = base_gfn;
  17. new.npages = npages;
  18. new.flags = mem->flags;
  19.  
  20. r = -EINVAL;
  21. /*如果new 的 npage不为0*/
  22. if (npages) {
  23. /*如果old 的npage为0,则创建新的mem*/
  24. if (!old.npages)
  25. change = KVM_MR_CREATE;
  26. /*否则修改已有的mem*/
  27. else { /* Modify an existing slot. */
  28. if ((mem->userspace_addr != old.userspace_addr) ||
  29. (npages != old.npages) ||
  30. ((new.flags ^ old.flags) & KVM_MEM_READONLY))
  31. goto out;
  32. /*如果两个mem映射的基址不同*/
  33. if (base_gfn != old.base_gfn)
  34. change = KVM_MR_MOVE;
  35. /*如果标志位不同则更新标志位*/
  36. else if (new.flags != old.flags)
  37. change = KVM_MR_FLAGS_ONLY;
  38. else { /* Nothing to change. */
  39. /*都一样的话就什么都不做*/
  40. r = ;
  41. goto out;
  42. }
  43. }
  44. }
  45. /*如果new的npage为0而old的npage不为0,则需要delete已有的*/
  46. else if (old.npages) {
  47. change = KVM_MR_DELETE;
  48. } else /* Modify a non-existent slot: disallowed. */
  49. goto out;

这里如果检查都通过了,首先通过传递进来的slot的id在kvm维护的slot数组中找到对应的slot结构,此结构可能为空或者为旧的slot。然后获取物理页框号、页面数目。如果页面数目大于KVM_MEM_MAX_NR_PAGES,则失败;如果npages为0,则去除KVM_MEM_LOG_DIRTY_PAGES标志。使用旧的slot对新的slot内容做初始化,然后对new slot做设置,参数基本是从用户空间接收的kvm_userspace_memory_region的参数。然后进入下面的if判断

1、如果npages不为0,表明本次要添加slot此时如果old slot的npages为0,表明之前没有对应的slot,需要添加新的,设置change为KVM_MR_CREATE;如果不为0,则需要先修改已有的slot,注意这里如果old slot和new slot的page数目和用户空间地址必须相等,还有就是两个slot的readonly属性必须一致。如果满足上述条件,进入下面的流程。如果映射的物理页框号不同,则设置change KVM_MR_MOVE,如果flags不同,设置KVM_MR_FLAGS_ONLY,否则,什么都不做。

2、如果npages为0,而old.pages不为0,表明需要删除old slot,设置change为KVM_MR_DELETE。到这里基本是做一些准备工作,确定用户空间要进行的操作,接下来就执行具体的动作了

  1. if ((change == KVM_MR_CREATE) || (change == KVM_MR_MOVE)) {
  2. /* Check for overlaps */
  3. r = -EEXIST;
  4. kvm_for_each_memslot(slot, kvm->memslots) {
  5. if ((slot->id >= KVM_USER_MEM_SLOTS) ||
  6. (slot->id == mem->slot))
  7. continue;
  8. if (!((base_gfn + npages <= slot->base_gfn) ||
  9. (base_gfn >= slot->base_gfn + slot->npages)))
  10. goto out;
  11. }
  12. }
  13.  
  14. /* Free page dirty bitmap if unneeded */
  15. if (!(new.flags & KVM_MEM_LOG_DIRTY_PAGES))
  16. new.dirty_bitmap = NULL;
  17.  
  18. r = -ENOMEM;
  19. if (change == KVM_MR_CREATE) {
  20. new.userspace_addr = mem->userspace_addr;
  21.  
  22. if (kvm_arch_create_memslot(&new, npages))
  23. goto out_free;
  24. }
  25.  
  26. /* Allocate page dirty bitmap if needed */
  27. if ((new.flags & KVM_MEM_LOG_DIRTY_PAGES) && !new.dirty_bitmap) {
  28. if (kvm_create_dirty_bitmap(&new) < )
  29. goto out_free;
  30. }
  31. /*如果用户层请求释放*/
  32. if ((change == KVM_MR_DELETE) || (change == KVM_MR_MOVE)) {
  33. r = -ENOMEM;
  34. slots = kmemdup(kvm->memslots, sizeof(struct kvm_memslots),
  35. GFP_KERNEL);
  36. if (!slots)
  37. goto out_free;
  38. /*先根据id定位具体的slot*/
  39. slot = id_to_memslot(slots, mem->slot);
  40. /*首先设置非法*/
  41. slot->flags |= KVM_MEMSLOT_INVALID;
  42.  
  43. old_memslots = install_new_memslots(kvm, slots, NULL);
  44.  
  45. /* slot was deleted or moved, clear iommu mapping */
  46. kvm_iommu_unmap_pages(kvm, &old);
  47. /* From this point no new shadow pages pointing to a deleted,
  48. * or moved, memslot will be created.
  49. *
  50. * validation of sp->gfn happens in:
  51. * - gfn_to_hva (kvm_read_guest, gfn_to_pfn)
  52. * - kvm_is_visible_gfn (mmu_check_roots)
  53. */
  54. kvm_arch_flush_shadow_memslot(kvm, slot);
  55. slots = old_memslots;
  56. }
  57.  
  58. r = kvm_arch_prepare_memory_region(kvm, &new, mem, change);
  59. if (r)
  60. goto out_slots;
  61.  
  62. r = -ENOMEM;
  63. /*
  64. * We can re-use the old_memslots from above, the only difference
  65. * from the currently installed memslots is the invalid flag. This
  66. * will get overwritten by update_memslots anyway.
  67. */
  68. if (!slots) {
  69. slots = kmemdup(kvm->memslots, sizeof(struct kvm_memslots),
  70. GFP_KERNEL);
  71. if (!slots)
  72. goto out_free;
  73. }
  74.  
  75. /*
  76. * IOMMU mapping: New slots need to be mapped. Old slots need to be
  77. * un-mapped and re-mapped if their base changes. Since base change
  78. * unmapping is handled above with slot deletion, mapping alone is
  79. * needed here. Anything else the iommu might care about for existing
  80. * slots (size changes, userspace addr changes and read-only flag
  81. * changes) is disallowed above, so any other attribute changes getting
  82. * here can be skipped.
  83. */
  84. if ((change == KVM_MR_CREATE) || (change == KVM_MR_MOVE)) {
  85. r = kvm_iommu_map_pages(kvm, &new);
  86. if (r)
  87. goto out_slots;
  88. }
  89.  
  90. /* actual memory is freed via old in kvm_free_physmem_slot below */
  91. if (change == KVM_MR_DELETE) {
  92. new.dirty_bitmap = NULL;
  93. memset(&new.arch, , sizeof(new.arch));
  94. }
  95. old_memslots = install_new_memslots(kvm, slots, &new);
  96. kvm_arch_commit_memory_region(kvm, mem, &old, change);
  97. kvm_free_physmem_slot(&old, &new);
  98. kfree(old_memslots);
  99. return ;

这里就根据change来做具体的设置了,如果 KVM_MR_CREATE,则设置new.用户空间地址为新的地址。如果new slot要求KVM_MEM_LOG_DIRTY_PAGES,但是new并没有分配dirty_bitmap,则为其分配。如果change为KVM_MR_DELETE或者KVM_MR_MOVE,这里主要由两个操作,一是设置对应slot标识为KVM_MEMSLOT_INVALID,更新页表。二是增加slots->generation,撤销iommu mapping。接下来对于私有映射的话(memslot->id >= KVM_USER_MEM_SLOTS),如果是要创建,则需要手动建立映射。

接下来确保slots不为空,如果是KVM_MR_CREATE或者KVM_MR_MOVE,就需要重新建立映射,使用kvm_iommu_map_pages函数 ,而如果是KVM_MR_DELETE,就没必要为new设置dirty_bitmap,并对其arch字段的结构清零。最终都要执行操作install_new_memslots,不过当为delete操作时,new的memory size为0,那么看下该函数做了什么。

  1. static struct kvm_memslots *install_new_memslots(struct kvm *kvm,
  2. struct kvm_memslots *slots, struct kvm_memory_slot *new)
  3. {
  4. struct kvm_memslots *old_memslots = kvm->memslots;
  5.  
  6. update_memslots(slots, new, kvm->memslots->generation);
  7. rcu_assign_pointer(kvm->memslots, slots);
  8. kvm_synchronize_srcu_expedited(&kvm->srcu);
  9. kvm_arch_memslots_updated(kvm);
  10. return old_memslots;
  11. }

这里核心操作在update_memslots里,如果是添加新的(create or move),那么new 的memory size肯定不为0,则根据new的id,在kvm维护的slot 数组中找到对应的slot,然后一次性吧new的内容赋值给old slot.如果页面数目不一样,则需要进行排序。如果是删除操作,new的memorysize 为0,这里就相当于把清空了一个slot。update之后就更改kvm->memslots,该指针是受RCU机制保护的,所以不能直接修改,需要先分配好,调用API修改。最后再刷新MMIO页表项。

  1. void update_memslots(struct kvm_memslots *slots, struct kvm_memory_slot *new,
  2. u64 last_generation)
  3. {
  4. if (new) {
  5. int id = new->id;
  6. struct kvm_memory_slot *old = id_to_memslot(slots, id);
  7. unsigned long npages = old->npages;
  8.  
  9. *old = *new;
  10. /*如果是删除操作,那么new.npages就是0*/
  11. if (new->npages != npages)
  12. sort_memslots(slots);
  13. }
  14.  
  15. slots->generation = last_generation + ;
  16. }

参考:

linux 3.10.1源码

qemu-kvm内存虚拟化2的更多相关文章

  1. KVM 内存虚拟化

    内存虚拟化的概念     除了 CPU 虚拟化,另一个关键是内存虚拟化,通过内存虚拟化共享物理系统内存,动态分配给虚拟机.虚拟机的内存虚拟化很象现在的操作系统支持的虚拟内存方式,应用程序看到邻近的内存 ...

  2. 2017.4.28 KVM 内存虚拟化及其实现

    概述 KVM(Kernel Virtual Machine) , 作为开源的内核虚拟机,越来越受到 IBM,Redhat,HP,Intel 等各大公司的大力支持,基于 KVM 的开源虚拟化生态系统也日 ...

  3. KVM 介绍(2):CPU 和内存虚拟化

    学习 KVM 的系列文章: (1)介绍和安装 (2)CPU 和 内存虚拟化 (3)I/O QEMU 全虚拟化和准虚拟化(Para-virtulizaiton) (4)I/O PCI/PCIe设备直接分 ...

  4. KVM(二)CPU 和内存虚拟化

    1. 为什么需要 CPU 虚拟化 X86 操作系统是设计在直接运行在裸硬件设备上的,因此它们自动认为它们完全占有计算机硬件.x86 架构提供四个特权级别给操作系统和应用程序来访问硬件. Ring 是指 ...

  5. [原] KVM 虚拟化原理探究(4)— 内存虚拟化

    KVM 虚拟化原理探究(4)- 内存虚拟化 标签(空格分隔): KVM 内存虚拟化简介 前一章介绍了CPU虚拟化的内容,这一章介绍一下KVM的内存虚拟化原理.可以说内存是除了CPU外最重要的组件,Gu ...

  6. Qemu/kvm虚拟化源码解析学习视频资料

    地址链接:tao宝搜索:Linux云计算KVM Qemu虚拟化视频源码讲解+实践​https://item.taobao.com/item.htm?ft=t&id=646300730262 L ...

  7. KVM 介绍(8):使用 libvirt 迁移 QEMU/KVM 虚机和 Nova 虚机 [Nova Libvirt QEMU/KVM Live Migration]

    学习 KVM 的系列文章: (1)介绍和安装 (2)CPU 和 内存虚拟化 (3)I/O QEMU 全虚拟化和准虚拟化(Para-virtulizaiton) (4)I/O PCI/PCIe设备直接分 ...

  8. KVM 介绍(7):使用 libvirt 做 QEMU/KVM 快照和 Nova 实例的快照 (Nova Instances Snapshot Libvirt)

    学习 KVM 的系列文章: (1)介绍和安装 (2)CPU 和 内存虚拟化 (3)I/O QEMU 全虚拟化和准虚拟化(Para-virtulizaiton) (4)I/O PCI/PCIe设备直接分 ...

  9. KVM 介绍(6):Nova 通过 libvirt 管理 QEMU/KVM 虚机 [Nova Libvirt QEMU/KVM Domain]

    学习 KVM 的系列文章: (1)介绍和安装 (2)CPU 和 内存虚拟化 (3)I/O QEMU 全虚拟化和准虚拟化(Para-virtulizaiton) (4)I/O PCI/PCIe设备直接分 ...

  10. 基于KVM的虚拟化研究及应用

    引言 虚拟化技术是IBM在20世纪70年代首先应用在IBM/370大型机上,这项技术极大地提高了大型机资源利用率.随着软硬件技术的迅速发展,这项属于大型机及专利的技术开始在普通X86计算机上应用并成为 ...

随机推荐

  1. 复制id_rsa命令

    pbcopy < ~/.ssh/id_rsa.pub https://aliasan-conf.taijiankong.cn/duotai/2T7b253i8.pac

  2. GCH实践经验

    服务器: 终端整机: 办公套件: 杀毒软件: 打印机:

  3. osg shader 相机观察矩阵逆矩阵 求顶点世界坐标

    uniform mat4 osg_ViewMatrixInverse;//osg内置uniform void main() { vec4 posWorld = osg_ViewMatrixInvers ...

  4. 阿里云负载均衡SLB 七层https协议 nginx 获取真实IP

    https://www.cnblogs.com/baylorqu/p/8565667.html https://help.aliyun.com/document_detail/54007.html

  5. 一个简易的netty udp服务端

    netty号称java高性能网络库,为人帮忙中,研究了下,写了一个demo.反复调试,更改,局域网两个客户端同时for循环发10000个20字节的数据包,入库mysql,居然没丢. 思路,netty的 ...

  6. 【CF613D】Kingdom and its Cities 虚树+树形DP

    [CF613D]Kingdom and its Cities 题意:给你一棵树,每次询问给出k个关键点,问做多干掉多少个非关键点才能使得所有关键点两两不连通. $n,\sum k\le 10^5$ 题 ...

  7. vue前后分离---数据模拟

    最近为在做CRM的前期工作,忙里偷闲写了个关于数据模拟方面的东西 主要是现在博客中满天都再说前后分离,但是还没有几个实际操作的---让许多新手{-_-} 方法一: 启动一个express静态服务器-- ...

  8. SpringBoot介绍

    SpringBoot作用:对框架整合做了简化,和分布式集成.pom.xml中的spring-parent中有很多已经集成好的东西,拿来直接用 SpringBoot核心功能: 1.独立运行的Spring ...

  9. ASP.NET MVC Routing Debugger路由调试工具

    官网地址:http://blog.csdn.net/sgear/article/details/6789882 To  use this, simply download the following ...

  10. Codeforces 706C - Hard problem - [DP]

    题目链接:https://codeforces.com/problemset/problem/706/C 题意: 给出 $n$ 个字符串,对于第 $i$ 个字符串,你可以选择花费 $c_i$ 来将它整 ...