pktgen-dpdk 实战】的更多相关文章

pktgen: http://dpdk.org/browse/apps/pktgen-dpdk/refs/ git clone git://dpdk.org/apps/pktgen-dpdk pktgen doc:http://pktgen-dpdk.readthedocs.io/en/latest/ OS:Linux D128 3.10.0-693.el7.x86_64 OS2: Linux D129 3.10.0-327.el7.x86_64 dpdk: dpdk-stable-18.02.…
一: 多队列及中断信息收集 [root@T185 ~]# ethtool -g eth0 Ring parameters for eth0: Pre-set maximums: RX: RX Mini: RX Jumbo: TX: Current hardware settings: RX: RX Mini: RX Jumbo: TX: [root@T185 ~]# ls /sys/class/net/eth0/queues/ rx- rx- rx- rx- rx- rx- rx- rx- rx…
参考博客 Pktgen概述 Pktgen,(Packet Gen-erator)是一个基于DPDK的软件框架,发包速率可达线速. 提供运行时管理,端口实时测量. 可以控制 UDP, TCP, ARP, ICMP, GRE, MPLS and Queue-in-Queue等包. 可以通过TCP进行远程控制. Pktgen官网 安装使用过程 版本:Ubuntu 16.04 DPDKL 18.02 cpu配置: 安装DPDK依赖: DPDK安装依赖项合集 环境合集 安装DPDK:Quick Start…
三层包测试 发包方式:192.168.20.205 发包工具:pktgen 发包网卡:i350 收包设备:1922.168.20.185 CPU:Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz 收包方式:网卡ixgeb驱动,单队列,promisc计数 收包网卡: 82599EB 传输链路:千兆RJ45网线直连 发包方法: Pktgen:/> set 0 size 500 Pktgen:/> set 0 count 1000000 Pktgen:/> se…
使用tcpreply对DPDK进行压力测试 过往风萤 关注 2018.05.18 14:35* 字数 273 阅读 2评论 0喜欢 0 小公司没有testcenter之类的打流工具,并且内网流量比较小,即使全部镜像也没法进行压测,使用pktgen又不方便模拟数据中心复杂的流量,不够真实,这时候使用tcpreply的流量回放功能进行压测是个比较好的方案. 测试环境:x86服务器+两个万兆网卡 1. 使用tcpdump抓取部分流量,我这里在网关抓取了300M流量 tcpdump -i p1p1  -…
代码部分 /* SPDX-License-Identifier: BSD-3-Clause * Copyright(c) 2017 Intel Corporation */ #include <stdint.h> #include <inttypes.h> #include <getopt.h> #include <rte_eal.h> #include <rte_ethdev.h> #include <rte_cycles.h> #…
官方手册:http://pktgen-dpdk.readthedocs.io/en/latest/getting_started.html 过程 开机(重启) 把DPDK那一套流程走一遍(环境变量设置.设置userspace I/O态.挂载大页.绑定网卡) 按照官方手册上编译.pktgen就是基于dpdk开发的应用,所以只要能成功编译dpdk就可以编译pktgen.官方手册上一些依赖项可以跳过不看. 我用到的指令: export RTE_SDK=/home/chang/dpdk export R…
一.上节总结回顾 上一节,我们回顾了经典的 C10K 和 C1000K 问题.简单回顾一下,C10K 是指如何单机同时处理 1 万个请求(并发连接 1 万)的问题,而 C1000K 则是单机支持处理 100 万个请求(并发连接 100 万)的问题. I/O 模型的优化,是解决 C10K 问题的最佳良方.Linux 2.6 中引入的 epoll,完美解决了C10K 的问题,并一直沿用至今.今天的很多高性能网络方案,仍都基于 epoll. 自然,随着互联网技术的普及,催生出更高的性能需求.从 C10…
一.上节回顾 上一节,我带你一起学习了网络性能的评估方法.简单回顾一下,Linux 网络基于 TCP/IP协议栈构建,而在协议栈的不同层,我们所关注的网络性能也不尽相同. 在应用层,我们关注的是应用程序的并发连接数.每秒请求数.处理延迟.错误数等,可以使用 wrk.Jmeter 等工具,模拟用户的负载,得到想要的测试结果. 而在传输层,我们关注的是 TCP.UDP 等传输层协议的工作状况,比如 TCP 连接数.TCP 重传.TCP 错误数等.此时,你可以使用 iperf.netperf 等,来测…
一.上节回顾 上一节,我们了解了 NAT(网络地址转换)的原理,学会了如何排查 NAT 带来的性能问题,最后还总结了 NAT 性能优化的基本思路.我先带你简单回顾一下. NAT 基于 Linux 内核的连接跟踪机制,实现了 IP 地址及端口号重写的功能,主要被用来解决公网 IP 地址短缺的问题. 在分析 NAT 性能问题时,可以先从内核连接跟踪模块 conntrack 角度来分析,比如用systemtap.perf.netstat 等工具,以及 proc 文件系统中的内核选项,来分析网络协议栈的…