DPDK内存管理(1)
1 前言
DPDK将利用hugepage预留的物理内存统一的组织管理起来,然后以库的方式对外提供使用的接口。下图展示了DPDK中内存有关的模块的相互关系。
rte_eal 是统一的组织管理者(当然rte_eal不只是做内存的工作)
rte_malloc 对外提供分配释放内存的API,分配的内存都是rte_eal中管理的内存
rte_ring 提供无锁队列,他之间使用了rte_eal管理的内存
rte_mempool 利用rte_eal中的内存和rte_ring提供内存池的功能
ret_mbuf
下面我们一个一个分析各个模块是怎样处理及使用内存的(重点诉说流程,不会详细的介绍代码),DPDK管理的内存有个很有用的特点--同一块物理内存在不同的进程地址空间中,虚拟地址是一样的。下面会详细的说明DPDK是怎样实现这个功能的。
首先hugepage这里就不描述了,要理解DPDK的内存管理必须知道hugepage,不了解的自行补齐吧,linux内核中有个文档介绍的很详细。可以点击这里查看。
2 rte_eal 对内存的组织与管理
这块是在rte_eal中实现的。有关的函数有:
rte_eal_init -> eal_hugepage_info_init
rte_eal_init -> rte_eal_memory_init
rte_eal_init -> rte_eal_memzone_init
rte_eal_init -> eal_check_mem_on_local_socket
2.1 eal_hugepage_info_init
首先DPDK管理的内存都是通过hugepage预留的,这个函数主要获取预留的内存的信息,获取方法是读取 /sys/kernel/mm/hugepages 下的文件,具体还是参考hugepage的文档吧,这里不详细描述。
预留的内存按页大小分类( i386 architecture supports 4K and 4M (2M in PAE mode) page sizes, ia64 architecture supports multiple page sizes 4K, 8K, 64K, 256K, 1M, 4M, 16M, 256M and ppc64 supports 4K and 16M. ),可能会有多类,DPDK会把这些信息全部读取,使用struct hugepage_info进行保存,每一类对应一个struct hugepage_info类型的对象,所有的这些对象保存在struct internal_config的数组中。DPDK有个internal_config的全局变量,记录这些信息。
struct hugepage_info {
size_t hugepage_sz; /**< size of a huge page */
const char *hugedir; /**< dir where hugetlbfs is mounted */
uint32_t num_pages[RTE_MAX_NUMA_NODES];
/**< number of hugepages of that size on each socket */
int lock_descriptor; /**< file descriptor for hugepage dir */
};
struct internal_config {
...
unsigned num_hugepage_sizes; /**< how many sizes on this system */
struct hugepage_info hugepage_info[MAX_HUGEPAGE_SIZES];
};
struct internal_config internal_config;
总结 eal_hugepage_info_init,就是获取了系统中预留的内存信息,有几类(相同页大小的是一类),将每一类的信息(页大小、页数、挂载点)存储在internal_config.hugepage_info数组中。hugepage_info数组也进行了排序,大页的信息放前面,小页的信息放后面。
每一类所有内存页,也分处在哪个 socket上(不明白的查看NUMA相关知识补齐)的,hugepage_info中统计内存页数会按属于处在哪个socket上进行统计,但在这一步(eal_hugepage_info_init)中,还区分不了每个页处在哪个socket上,因此这里还没有按socket统计页数,将内存页数直接记录到num_pages[0]里面了。
2.2 rte_eal_memory_init
int
rte_eal_memory_init(void)
{
RTE_LOG(INFO, EAL, "Setting up memory...\n");
const int retval = rte_eal_process_type() == RTE_PROC_PRIMARY ?
rte_eal_hugepage_init() :
rte_eal_hugepage_attach();
if (retval < )
return -; if (internal_config.no_shconf == && rte_eal_memdevice_init() < )
return -; return ;
}
DPDK多进程状态下,分为RTE_PROC_PRIMARY进程及RTE_PROC_SECONDARY进程,RTE_PROC_PRIMARY负责初始化内存,RTE_PROC_SECONDARY获取 RTE_PROC_PRIMARY 内存映射的信息,创建与RTE_PROC_PRIMARY一样的内存映射。这是DPDK多进程共享内存的方式。此处先不展开描述。随着流程的展开,自然会明白。
2.2.1 rte_eal_mem_init -> rte_eal_hugepage_init
DPDK有个全局变量
static struct rte_config rte_config
该变量的成员 struct rte_mem_config *mem_config; 保存了DPDK管理的内存的所有信息。DPDK将内存统一的管理,就是将所有内存保存到mem_config:memseg[]中。
struct rte_mem_config {
volatile uint32_t magic; /**< Magic number - Sanity check. */ /* memory topology */
uint32_t nchannel; /**< Number of channels (0 if unknown). */
uint32_t nrank; /**< Number of ranks (0 if unknown). */ /**
* current lock nest order
* - qlock->mlock (ring/hash/lpm)
* - mplock->qlock->mlock (mempool)
* Notice:
* *ALWAYS* obtain qlock first if having to obtain both qlock and mlock
*/
rte_rwlock_t mlock; /**< only used by memzone LIB for thread-safe. */
rte_rwlock_t qlock; /**< used for tailq operation for thread safe. */
rte_rwlock_t mplock; /**< only used by mempool LIB for thread-safe. */ uint32_t memzone_idx; /**< Index of memzone */ /* memory segments and zones */
struct rte_memseg memseg[RTE_MAX_MEMSEG]; /**< Physmem descriptors. */
struct rte_memzone memzone[RTE_MAX_MEMZONE]; /**< Memzone descriptors. */ /* Runtime Physmem descriptors. */
struct rte_memseg free_memseg[RTE_MAX_MEMSEG]; struct rte_tailq_head tailq_head[RTE_MAX_TAILQ]; /**< Tailqs for objects */ /* Heaps of Malloc per socket */
struct malloc_heap malloc_heaps[RTE_MAX_NUMA_NODES];
} __attribute__((__packed__));
详细流程:
函数先根据 struct hugepage_info hugepage_info[MAX_HUGEPAGE_SIZES]; (eal_hugepage_info_init中获取的信息)得到了内存页的总数。然后为struct hugepage_file *tmp_hp申请了内存,有多少个内存页,就分配了多少个hugepage_file。
struct hugepage_file {
void *orig_va; /**< virtual addr of first mmap() */
void *final_va; /**< virtual addr of 2nd mmap() */
uint64_t physaddr; /**< physical addr */
size_t size; /**< the page size */
int socket_id; /**< NUMA socket ID */
int file_id; /**< the '%d' in HUGEFILE_FMT */
int memseg_id; /**< the memory segment to which page belongs */
#ifdef RTE_EAL_SINGLE_FILE_SEGMENTS
int repeated; /**< number of times the page size is repeated */
#endif
char filepath[MAX_HUGEPAGE_PATH]; /**< path to backing file on filesystem */
};
接着针对每一类内存(相同页大小的内存算一类)进行处理,
for(每一类) {
for(这一类的每一页) {
每个页对应一个hugepage_file,file_id,size,filepath初始化。其中file_id是页的序号,这个序号是给filepath用的,是为了给每个页对应的文件起一个独立的文件名(与其他页不会重复)。
建立文件<filepath>,这个文件是因为使用hugepage的内存必须按这样的方式(先建立文件,再mmap,得到内存虚拟地址使用)使用。
执行mmap获得页的虚拟地址,赋给hugepage_file:orig_va。
} (map_all_hugepages())
所有hugepage预留的物理内存都映射完成,可以根据hugepage_file:orig_va进行访问了。
for(这一类的每一页) {
获取物理地址,赋给hugepage_file:physaddr。
获取物理地址的方式,是linux内核提供的功能,不了解的可以点击这里补齐。
}(find_physaddrs())
for(这一类的每一页) {
获取每个页所在的socket,赋给hugepage_file:socket_id。
获取的方法也是linux内核提供的功能,具体不详述。
}(find_numasocket())
对这一类的页的hugepage_file[]按页物理地址进行排序。
for(这一类的每一页) {
重新执行mmap,并将获取的虚拟地址赋给hugepage_file:final_va。
}(map_all_hugepages())
本次重新mmap,与第一次的不同是,会主动先申请一块足够映射本类所有内存页的虚拟地址空间,然后将本类的所有页连续的映射的该虚拟地址空间中。
如果找不到这么大的虚拟地址空间,还是会一页一页的映射,让内核去决定虚拟地址空间。
第二次映射用代码的注释解释 The second mapping tries to map continguous physical blocks in contiguous virtual blocks.
将第一次的映射unmap掉
}
继续
更新 internal_config.hugepage_info[].num_pages[],我们知道bugepage_info在eal_hugepage_info_init中初始化时,不知道每个页是属于哪个socket的,因此直接使用num_pages[0]记录了所有的页数,但在上一步中,已经知道了每个页属于哪个socket,因此这里更新了num_pages,准确的记录了哪个socket上有多少个页。
这块我还没具体看 unmap pages that we won't need (looks at used_hp),接下来再研究。
接下来,建立了共享内存,将hugepage_file拷贝到共享内存中,这样RTE_PROC_SECONDARY启动后可以在共享内存中读取这些信息,然后创建与RTE_PROC_PRIMARY一致的映射。
最后,使用mem_config->memseg[]将所有内存管理起来。
一个struct rte_memsg对象,保存一块相同socket的、相同页大小的、物理地址连续的、虚拟地址连续的内存。因此整个内存由多个memseg组成。
总结rte_eal_hugepage_init,它获取hugepge的方式预留的所有物理内存,统一的映射到虚拟地址空间中,保存到memseg中。至此,理论上可以通过memseg获取虚拟地址使用这些内存了。但DPDK提供了统一的方式来使用,不是谁用就可以来拿的。
2.2.2 rte_eal_mem_init -> rte_eal_hugepage_attach
/*
* This creates the memory mappings in the secondary process to match that of
* the server process. It goes through each memory segment in the DPDK runtime
* configuration and finds the hugepages which form that segment, mapping them
* in order to form a contiguous block in the virtual memory space
*/
3 rte_malloc
4 rte_ring
5 rte_mempool
原文链接http://www.cnblogs.com/jintianfree/p/4018043.html
DPDK内存管理(1)的更多相关文章
- DPDK内存管理-----(二)rte_mempool内存管理
DPDK以两种方式对外提供内存管理方法,一个是rte_mempool,主要用于网卡数据包的收发:一个是rte_malloc,主要为应用程序提供内存使用接口.本文讨论rte_mempool.rte_me ...
- DPDK内存管理(1)(转)
1 前言 DPDK将利用hugepage预留的物理内存统一的组织管理起来,然后以库的方式对外提供使用的接口.下图展示了DPDK中内存有关的模块的相互关系. rte_eal 是统一 ...
- DPDK内存管理-----(一)初始化
1 前言 DPDK通过使用hugetlbfs,减少CPU TLB表的Miss次数,提高性能. 2 初始化 DPDK的内存初始化工作,主要是将hugetlbfs的配置的大内存页,根据其映射的物理地址是否 ...
- DPDK内存管理-----(三)rte_malloc内存管理
rte_malloc()为程序运行过程中分配内存,模拟从堆中动态分配内存空间. void * rte_malloc(const char *type, size_t size, unsigned al ...
- DPDK内存管理-----rte_mbuf(转)
本文主要介绍rte_mbuf与rte_mempool数据结构之间的组织关系.以及网卡接收到的数据是如何存储在rte_mbuf中的. 一.rte_mbuf.rte_mempool及网卡收到的数据包在内存 ...
- rte_mempool内存管理
DPDK以两种方式对外提供内存管理方法,一个是rte_mempool,主要用于网卡数据包的收发:一个是rte_malloc,主要为应用程序提供内存使用接口.本文讨论rte_mempool.rte_me ...
- .NET基础拾遗(1)类型语法基础和内存管理基础
Index : (1)类型语法.内存管理和垃圾回收基础 (2)面向对象的实现和异常的处理 (3)字符串.集合与流 (4)委托.事件.反射与特性 (5)多线程开发基础 (6)ADO.NET与数据库开发基 ...
- PHP扩展-生命周期和内存管理
1. PHP源码结构 PHP的内核子系统有两个,ZE(Zend Engine)和PHP Core.ZE负责将PHP脚本解析成机器码(也成为token符)后,在进程空间执行这些机器码:ZE还负责内存管理 ...
- linux2.6 内存管理——逻辑地址转换为线性地址(逻辑地址、线性地址、物理地址、虚拟地址)
Linux系统中的物理存储空间和虚拟存储空间的地址范围分别都是从0x00000000到0xFFFFFFFF,共4GB,但物理存储空间与虚拟存储空间布局完全不同.Linux运行在虚拟存储空间,并负责把系 ...
随机推荐
- 8. apache服务实验笔记
Apache服务器 一 简介 1 www:world wide web 万维网 http 协议: 超文本传输协议 HTML语言: 超文本标识语言 2 URL:统一资源定位 协议+域名:端口+网页文 ...
- C语言-《通讯录》
黑白的通讯录 --1-- 需求分析 1.1 需求 1.2 原型展示 1.3 功能分析 --2-- 代码实现 2.1 外部声明.变量.宏 2.2 模块实现 ----------------------- ...
- Java 异常处理 练习2
建立exception包,建立Bank类,类中有变量double balance表示存款,Bank类的构造方法能增加存款,Bank类中有取款的发方法withDrawal(double dAmount ...
- [原创]WKWebview点击图片查看大图
大家都知道,WKWebview是没有查看大图的属性或者方法的,所以只能通过js与之交互来实现这一功能,原理:通过js获取页面的图片,把它存放到数组,给图片添加点击事件,通过index显示大图就行了 其 ...
- 解决项目中.a文件的冲突
.a文件是静态文件,有多个.o文件组合而成的,在ios项目开发中,当引用第三方库的时候,时不时的会碰到诸如库冲突.库包含了某些禁用的API等问题,而这些库往往都被打包成了静态库文件(即 .a文件)来使 ...
- Flags-Ural1225简单递推
Time limit: 1.0 second Memory limit: 64 MB On the Day of the Flag of Russia a shop-owner decided to ...
- 关于小黄车(ofo共享单车)使用的问题
小黄车即ofo共享单车,号称是全球创立最早.成长最快.规模最大的无桩共享单车创业公司,缔造了"共享单车"概念,致力于解决城市出行问题.它的出现给大家带来了方便,作为一个商业运行的公 ...
- Java读取Level-1行情dbf文件极致优化(2)
最近架构一个项目,实现行情的接入和分发,需要达到极致的低时延特性,这对于证券系统是非常重要的.接入的行情源是可以配置,既可以是Level-1,也可以是Level-2或其他第三方的源.虽然Level-1 ...
- GridView数据绑定
<%@ Page Language="C#" AutoEventWireup="true" CodeBehind="Index.aspx.cs& ...
- 关于APP程序员泡沫经济
这些年,移动互联网非常火,火到掀起学习iOS.安卓以及H5的热潮.有人将这些新技术作为自己的实力补充,增加竞争力:更多的人将它们作为主业,专职做移动开发.但是,即便有移动开发人员不断涌入,对整个行业来 ...