欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  网络运营

Linux中的冷热页机制简述

程序员文章站 2022-09-01 13:17:49
什么是冷热页?  在linux kernel的物理内存管理的buddy system中,引入了冷热页的概念。冷页表示该空闲页已经不再高速缓存中了(一般是指l...

什么是冷热页? 

在linux kernel的物理内存管理的buddy system中,引入了冷热页的概念。冷页表示该空闲页已经不再高速缓存中了(一般是指l2 cache),热页表示该空闲页仍然在高速缓存中。冷热页是针对于每cpu的,每个zone中,都会针对于所有的cpu初始化一个冷热页的per-cpu-pageset. 

为什么要有冷热页? 

作用有3点:

 buddy allocator在分配order为0的空闲页的时候,如果分配一个热页,那么由于该页已经存在于l2 cache中了。cpu写访问的时候,不需要先把内存中的内容读到cache中,然后再写。如果分配一个冷页,说明该页不在l2 cache中。一般情况下,尽可能用热页,是容易理解的。什么时候用冷页呢?while allocating a physical page frame, there is a bit specifying whether we would like a hot or a cold page (that is, a page likely to be in the cpu cache, or a page not likely to be there). if the page will be used by the cpu, a hot page will be faster. if the page will be used for device dma the cpu cache would be invalidated anyway, and a cold page does not waste precious cache contents. 

简单翻译一下:当内核分配一个物理页框时,有一些规范来约束我们是分配热页还是冷页。当页框是cpu使用的,则分配热页。当页框是dma设备使用的,则分配冷页。因为dma设备不会用到cpu高速缓存,所以没必要使用热页。
 buddy system在给某个进程分配某个zone中空闲页的时候,首先需要用自旋锁锁住该zone,然后分配页。这样,如果多个cpu上的进程同时进行分配页,便会竞争。引入了per-cpu-set后,当多个cpu上的进程同时分配页的时候,竞争便不会发生,提高了效率。另外当释放单个页面时,空闲页面首先放回到per-cpu-pageset中,以减少zone中自旋锁的使用。当页面缓存中的页面数量超过阀值时,再将页面放回到伙伴系统中。

使用每cpu冷热页还有一个好处是,能保证某个页一直黏在1个cpu上,这有助于提高cache的命中率。

冷热页的数据结构

 struct per_cpu_pages {
  int count;    // number of pages in the list
  int high;    // high watermark, emptying needed
  int batch;    // chunk size for buddy add/remove
   // lists of pages, one per migrate type stored on the pcp-lists
   每个cpu在每个zone上都有migrate_pcptypes个冷热页链表(根据迁移类型划分)
   struct list_head lists[migrate_pcptypes];
 }; 

在linux中,对于uma的架构,冷热页是在一条链表上进行管理。热页在前,冷页在后。cpu每释放一个order为0的页,如果per-cpu-pageset中的页数少于其指定的阈值,便会将释放的页插入到冷热页链表的开始处。这样,之前插入的热页便会随着其后热页源源不断的插入向后移动,其页由热变冷的几率便大大增加。 

怎样分配冷热页 

在分配order为0页的时候(冷热页机制只处理单页分配的情况),先找到合适的zone,然后根据需要的migratetype类型定位冷热页链表(每个zone,对于每个cpu,有3条冷热页链表,对应于:migrate_unmovable、migrate_reclaimable、migrate_movable)。若需要热页,则从链表头取下一页(此页最“热”);若需要冷页,则从链表尾取下一页(此页最“冷”)。 

分配函数(关键部分已添加注释):

 /*
 * really, prep_compound_page() should be called from __rmqueue_bulk(). but
 * we cheat by calling it from here, in the order > 0 path. saves a branch
 * or two.
 */
static inline
struct page *buffered_rmqueue(struct zone *preferred_zone,
   struct zone *zone, int order, gfp_t gfp_flags,
   int migratetype)
{
 unsigned long flags;
 struct page *page;
 //分配标志是__gfp_cold才分配冷页
 int cold = !!(gfp_flags & __gfp_cold);
again:
 if (likely(order == 0)) {
  struct per_cpu_pages *pcp;
  struct list_head *list;
  local_irq_save(flags);
  pcp = &this_cpu_ptr(zone->pageset)->pcp;
  list = &pcp->lists[migratetype];
  if (list_empty(list)) {
   //如果缺少页,则从buddy system中分配。
   pcp->count += rmqueue_bulk(zone, 0,
     pcp->batch, list,
     migratetype, cold);
   if (unlikely(list_empty(list)))
    goto failed;
  }
  if (cold)
  //分配冷页时,从链表尾部分配,list为链表头,list->prev表示链表尾
   page = list_entry(list->prev, struct page, lru);
  else
  //分配热页时,从链表头分配
   page = list_entry(list->next, struct page, lru);
  //分配完一个页框后从冷热页链表中删去该页
  list_del(&page->lru);
  pcp->count--;
 } else {//如果order!=0(页框数>1),则不从冷热页链表中分配
  if (unlikely(gfp_flags & __gfp_nofail)) {
   /*
    * __gfp_nofail is not to be used in new code.
    *
    * all __gfp_nofail callers should be fixed so that they
    * properly detect and handle allocation failures.
    *
    * we most definitely don't want callers attempting to
    * allocate greater than order-1 page units with
    * __gfp_nofail.
    */
   warn_on_once(order > 1);
  }
  spin_lock_irqsave(&zone->lock, flags);
  page = __rmqueue(zone, order, migratetype);
  spin_unlock(&zone->lock);
  if (!page)
   goto failed;
  __mod_zone_page_state(zone, nr_free_pages, -(1 << order));
 }
 __count_zone_vm_events(pgalloc, zone, 1 << order);
 zone_statistics(preferred_zone, zone, gfp_flags);
 local_irq_restore(flags);
 vm_bug_on(bad_range(zone, page));
 if (prep_new_page(page, order, gfp_flags))
  goto again;
 return page;
failed:
 local_irq_restore(flags);
 return null;
}

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。