Linux探测工具BCC(网络)

承接上文,本节以ICMP和TCP为例介绍与网络相关的部分内容。

Icmp的探测

首先看下促使我学习bcc的这篇文章中的程序traceicmpsoftirq.py,使用该程序的本意是找出对ping响应的进程位于哪个CPU core上,然后使用perf扫描该core,找出造成网络延迟的原因。源码如下:

  1. #!/usr/bin/python
  2. bpf_text = """
  3. #include <linux/ptrace.h>
  4. #include <linux/sched.h> /* For TASK_COMM_LEN */
  5. #include <linux/icmp.h>
  6. #include <linux/netdevice.h>
  7. struct probe_icmp_data_t
  8. {
  9. u64 timestamp_ns;
  10. u32 tgid;
  11. u32 pid;
  12. char comm[TASK_COMM_LEN];
  13. int v0;
  14. };
  15. BPF_PERF_OUTPUT(probe_icmp_events);
  16. static inline unsigned char *my_skb_transport_header(const struct sk_buff *skb)
  17. {
  18. return skb->head + skb->transport_header;
  19. }
  20. static inline struct icmphdr *my_icmp_hdr(const struct sk_buff *skb)
  21. {
  22. return (struct icmphdr *)my_skb_transport_header(skb);
  23. }
  24. int probe_icmp(struct pt_regs *ctx, struct sk_buff *skb)
  25. {
  26. u64 __pid_tgid = bpf_get_current_pid_tgid();
  27. u32 __tgid = __pid_tgid >> 32;
  28. u32 __pid = __pid_tgid; // implicit cast to u32 for bottom half
  29. struct probe_icmp_data_t __data = {0};
  30. __data.timestamp_ns = bpf_ktime_get_ns();
  31. __data.tgid = __tgid;
  32. __data.pid = __pid;
  33. bpf_get_current_comm(&__data.comm, sizeof(__data.comm));
  34. __be16 seq;
  35. bpf_probe_read_kernel(&seq, sizeof(seq), &my_icmp_hdr(skb)->un.echo.sequence);
  36. __data.v0 = (int)seq;
  37. probe_icmp_events.perf_submit(ctx, &__data, sizeof(__data));
  38. return 0;
  39. }
  40. """
  41. from bcc import BPF
  42. import ctypes as ct
  43. class Data_icmp(ct.Structure):
  44. _fields_ = [
  45. ("timestamp_ns", ct.c_ulonglong),
  46. ("tgid", ct.c_uint),
  47. ("pid", ct.c_uint),
  48. ("comm", ct.c_char * 16), # TASK_COMM_LEN
  49. ('v0', ct.c_uint),
  50. ]
  51. b = BPF(text=bpf_text)
  52. def print_icmp_event(cpu, data, size):
  53. #event = b["probe_icmp_events"].event(data)
  54. event = ct.cast(data, ct.POINTER(Data_icmp)).contents
  55. print("%-7d %-7d %-15s %s" %
  56. (event.tgid, event.pid,
  57. event.comm.decode('utf-8', 'replace'),
  58. event.v0))
  59. b.attach_kprobe(event="icmp_echo", fn_name="probe_icmp")
  60. b["probe_icmp_events"].open_perf_buffer(print_icmp_event)
  61. while 1:
  62. try:
  63. b.kprobe_poll()
  64. except KeyboardInterrupt:
  65. exit()

上面程序对icmp_echo内核函数进行打点探测,当内核运行该函数时会执行自定义的函数probe_icmp,并获取当前的tgid,pid以及icmp报文的序列号。

内容如下:

  1. my_skb_transport_header:该函数通过偏移sk_buff指针获取传输层首部地址,用于后续获取icmp首部的序列号。此处的操作可以直接参考static bool icmp_echo(struct sk_buff *skb)的内核源码,其获取icmp首部的方式依次为:

    1. static inline struct icmphdr *icmp_hdr(const struct sk_buff *skb)
    2. {
    3. return (struct icmphdr *)skb_transport_header(skb);
    4. }
    5. static inline unsigned char *skb_transport_header(const struct sk_buff *skb)
    6. {
    7. return skb->head + skb->transport_header;
    8. }

    可以看到skb_transport_header的处理与本程序的方式是一样的,将该函数的实现直接移植过去即可。需要注意的是,不能直接调用内核函数skb_transport_header获取transport_header的地址。

  2. bpf_get_current_pid_tgid():获取当前的PID。需要注意的是该函数获取的是当前CPU上运行的进程ID,而不是某一个特定的进程ID。其内核源码如下:

    1. BPF_CALL_1(bpf_get_current_ancestor_cgroup_id, int, ancestor_level)
    2. {
    3. struct cgroup *cgrp = task_dfl_cgroup(current);
    4. struct cgroup *ancestor;
    5. ancestor = cgroup_ancestor(cgrp, ancestor_level);
    6. if (!ancestor)
    7. return 0;
    8. return cgroup_id(ancestor);
    9. }

    current定义如下,用于获得当前执行进程的task_struct指针。更多参见这篇文章

    1. #define current get_current()

    因此以本程序为例,如果对icmp_echo的打点采集中如果发生了上下文切换,可能bpf_get_current_pid_tgid获取到的可能是切换后的程序。本文也是借助这种机制,发现在切换到cadvisor导致了网络延时。

  3. bpf_probe_read_kernel:读取内核结构体的成员,原文中使用的是bpf_probe_read,更多参见issue

其余部分与检测可观测性相同。

TCP的探测

下面看一下TCP的探测,用于跟踪内核代码tcp_v4_connecttcp_v6_connect,代码源自官方库tools/tcpconnect

  1. #!/usr/bin/python
  2. from __future__ import print_function
  3. from bcc import BPF
  4. from bcc.containers import filter_by_containers
  5. from bcc.utils import printb
  6. import argparse
  7. from socket import inet_ntop, ntohs, AF_INET, AF_INET6
  8. from struct import pack
  9. from time import sleep
  10. # arguments
  11. examples = """examples:
  12. ./tcpconnect # trace all TCP connect()s
  13. ./tcpconnect -t # include timestamps
  14. ./tcpconnect -p 181 # only trace PID 181
  15. ./tcpconnect -P 80 # only trace port 80
  16. ./tcpconnect -P 80,81 # only trace port 80 and 81
  17. ./tcpconnect -U # include UID
  18. ./tcpconnect -u 1000 # only trace UID 1000
  19. ./tcpconnect -c # count connects per src ip and dest ip/port
  20. ./tcpconnect --cgroupmap mappath # only trace cgroups in this BPF map
  21. ./tcpconnect --mntnsmap mappath # only trace mount namespaces in the map
  22. """
  23. parser = argparse.ArgumentParser(
  24. description="Trace TCP connects",
  25. formatter_class=argparse.RawDescriptionHelpFormatter,
  26. epilog=examples)
  27. parser.add_argument("-t", "--timestamp", action="store_true",
  28. help="include timestamp on output")
  29. parser.add_argument("-p", "--pid",
  30. help="trace this PID only")
  31. parser.add_argument("-P", "--port",
  32. help="comma-separated list of destination ports to trace.")
  33. parser.add_argument("-U", "--print-uid", action="store_true",
  34. help="include UID on output")
  35. parser.add_argument("-u", "--uid",
  36. help="trace this UID only")
  37. parser.add_argument("-c", "--count", action="store_true",
  38. help="count connects per src ip and dest ip/port")
  39. parser.add_argument("--cgroupmap",
  40. help="trace cgroups in this BPF map only")
  41. parser.add_argument("--mntnsmap",
  42. help="trace mount namespaces in this BPF map only")
  43. parser.add_argument("--ebpf", action="store_true",
  44. help=argparse.SUPPRESS)
  45. args = parser.parse_args() #解析入参
  46. debug = 0
  47. # define BPF program
  48. bpf_text = """
  49. #include <uapi/linux/ptrace.h>
  50. #include <net/sock.h>
  51. #include <bcc/proto.h>
  52. BPF_HASH(currsock, u32, struct sock *); #创建保存socket指针的哈希
  53. // separate data structs for ipv4 and ipv6
  54. struct ipv4_data_t {
  55. u64 ts_us;
  56. u32 pid;
  57. u32 uid;
  58. u32 saddr;
  59. u32 daddr;
  60. u64 ip;
  61. u16 dport;
  62. char task[TASK_COMM_LEN];
  63. };
  64. BPF_PERF_OUTPUT(ipv4_events); //创建ipv4的输出
  65. struct ipv6_data_t {
  66. u64 ts_us;
  67. u32 pid;
  68. u32 uid;
  69. unsigned __int128 saddr;
  70. unsigned __int128 daddr;
  71. u64 ip;
  72. u16 dport;
  73. char task[TASK_COMM_LEN];
  74. };
  75. BPF_PERF_OUTPUT(ipv6_events); //创建ipv6的输出
  76. // separate flow keys per address family
  77. struct ipv4_flow_key_t { //用于根据地址统计执行tcp_v4_connect的次数,即指定了"-c"或"--count"选项
  78. u32 saddr;
  79. u32 daddr;
  80. u16 dport;
  81. };
  82. BPF_HASH(ipv4_count, struct ipv4_flow_key_t); //统计执行tcp_v4_connect的次数
  83. struct ipv6_flow_key_t { //用于根据地址统计执行tcp_v6_connect的次数,即指定了"-c"或"--count"选项
  84. unsigned __int128 saddr;
  85. unsigned __int128 daddr;
  86. u16 dport;
  87. };
  88. BPF_HASH(ipv6_count, struct ipv6_flow_key_t); //统计执行tcp_v6_connect的次数
  89. int trace_connect_entry(struct pt_regs *ctx, struct sock *sk) //在进入tcp_v4_connect时调用
  90. {
  91. if (container_should_be_filtered()) {
  92. return 0;
  93. }
  94. u64 pid_tgid = bpf_get_current_pid_tgid(); //获取64位的pid_tgid
  95. u32 pid = pid_tgid >> 32; //tgid位于高32位,右移32位获取
  96. u32 tid = pid_tgid; //tid线程唯一
  97. FILTER_PID //bpf程序对python来说就是一段字符串,此处可以看作是一个标记符,后续使用python的string.replace进行替换。此处表示过滤特定的PID
  98. u32 uid = bpf_get_current_uid_gid();
  99. FILTER_UID //过滤特定的UID
  100. // stash the sock ptr for lookup on return
  101. currsock.update(&tid, &sk); //使用tid作为key,保存sk指针指向的地址
  102. return 0;
  103. };
  104. static int trace_connect_return(struct pt_regs *ctx, short ipver) //在从tcp_v4_connect返回时调用
  105. {
  106. int ret = PT_REGS_RC(ctx); //获取tcp_v4_connect函数的返回值
  107. u64 pid_tgid = bpf_get_current_pid_tgid();
  108. u32 pid = pid_tgid >> 32;
  109. u32 tid = pid_tgid;
  110. struct sock **skpp;
  111. skpp = currsock.lookup(&tid); //判断当前线程在进入tcp_v4_connect时是否打点采集,即是否执行了上面的trace_connect_entry
  112. if (skpp == 0) {
  113. return 0; // missed entry
  114. }
  115. if (ret != 0) { //如果tcp_v4_connect的返回值非0,表示无法发送SYNC报文
  116. // failed to send SYNC packet, may not have populated
  117. // socket __sk_common.{skc_rcv_saddr, ...}
  118. currsock.delete(&tid); //本次采集失败,删除哈希
  119. return 0;
  120. }
  121. // pull in details
  122. struct sock *skp = *skpp;
  123. u16 dport = skp->__sk_common.skc_dport;
  124. FILTER_PORT //过滤特定的端口
  125. if (ipver == 4) {
  126. IPV4_CODE //根据入参替换为IPV4的处理
  127. } else /* 6 */ {
  128. IPV6_CODE //根据入参替换为位IPV6的处理
  129. }
  130. currsock.delete(&tid);
  131. return 0;
  132. }
  133. int trace_connect_v4_return(struct pt_regs *ctx)
  134. {
  135. return trace_connect_return(ctx, 4);
  136. }
  137. int trace_connect_v6_return(struct pt_regs *ctx)
  138. {
  139. return trace_connect_return(ctx, 6);
  140. }
  141. """
  142. struct_init = { 'ipv4':
  143. { 'count' : #统计执行tcp_v4_connect的次数
  144. """
  145. struct ipv4_flow_key_t flow_key = {};
  146. flow_key.saddr = skp->__sk_common.skc_rcv_saddr;
  147. flow_key.daddr = skp->__sk_common.skc_daddr;
  148. flow_key.dport = ntohs(dport);
  149. ipv4_count.increment(flow_key);""",
  150. 'trace' : #默认执行tcp_v4_connect的跟踪,记录地址,端口等信息
  151. """
  152. struct ipv4_data_t data4 = {.pid = pid, .ip = ipver};
  153. data4.uid = bpf_get_current_uid_gid();
  154. data4.ts_us = bpf_ktime_get_ns() / 1000;
  155. data4.saddr = skp->__sk_common.skc_rcv_saddr;
  156. data4.daddr = skp->__sk_common.skc_daddr;
  157. data4.dport = ntohs(dport);
  158. bpf_get_current_comm(&data4.task, sizeof(data4.task));
  159. ipv4_events.perf_submit(ctx, &data4, sizeof(data4));"""
  160. },
  161. 'ipv6':
  162. { 'count' :#统计执行tcp_v6_connect的次数
  163. """
  164. struct ipv6_flow_key_t flow_key = {};
  165. bpf_probe_read_kernel(&flow_key.saddr, sizeof(flow_key.saddr),
  166. skp->__sk_common.skc_v6_rcv_saddr.in6_u.u6_addr32);
  167. bpf_probe_read_kernel(&flow_key.daddr, sizeof(flow_key.daddr),
  168. skp->__sk_common.skc_v6_daddr.in6_u.u6_addr32);
  169. flow_key.dport = ntohs(dport);
  170. ipv6_count.increment(flow_key);""",
  171. 'trace' : #默认执行tcp_v6_connect的跟踪,记录地址,端口等信息
  172. """
  173. struct ipv6_data_t data6 = {.pid = pid, .ip = ipver};
  174. data6.uid = bpf_get_current_uid_gid();
  175. data6.ts_us = bpf_ktime_get_ns() / 1000;
  176. bpf_probe_read_kernel(&data6.saddr, sizeof(data6.saddr),
  177. skp->__sk_common.skc_v6_rcv_saddr.in6_u.u6_addr32);
  178. bpf_probe_read_kernel(&data6.daddr, sizeof(data6.daddr),
  179. skp->__sk_common.skc_v6_daddr.in6_u.u6_addr32);
  180. data6.dport = ntohs(dport);
  181. bpf_get_current_comm(&data6.task, sizeof(data6.task));
  182. ipv6_events.perf_submit(ctx, &data6, sizeof(data6));"""
  183. }
  184. }
  185. # code substitutions
  186. if args.count: #如果入参指定了"-c"或"-count",则执行count
  187. bpf_text = bpf_text.replace("IPV4_CODE", struct_init['ipv4']['count'])
  188. bpf_text = bpf_text.replace("IPV6_CODE", struct_init['ipv6']['count'])
  189. else: #如果入参没有指定"-c"或"-count",则执行trace
  190. bpf_text = bpf_text.replace("IPV4_CODE", struct_init['ipv4']['trace'])
  191. bpf_text = bpf_text.replace("IPV6_CODE", struct_init['ipv6']['trace'])
  192. if args.pid: #如果入参指定了"-p"或"--pid",则对PID进行过滤
  193. bpf_text = bpf_text.replace('FILTER_PID',
  194. 'if (pid != %s) { return 0; }' % args.pid)
  195. if args.port:#如果入参指定了"-P""--port",则对端口进行过滤
  196. dports = [int(dport) for dport in args.port.split(',')]
  197. dports_if = ' && '.join(['dport != %d' % ntohs(dport) for dport in dports])
  198. bpf_text = bpf_text.replace('FILTER_PORT',
  199. 'if (%s) { currsock.delete(&pid); return 0; }' % dports_if)
  200. if args.uid:#如果入参指定了"-u""--uid",则对UID进行过滤
  201. bpf_text = bpf_text.replace('FILTER_UID',
  202. 'if (uid != %s) { return 0; }' % args.uid)
  203. bpf_text = filter_by_containers(args) + bpf_text
  204. #下面的处理在没有指定特定的过滤时去除标记符
  205. bpf_text = bpf_text.replace('FILTER_PID', '')
  206. bpf_text = bpf_text.replace('FILTER_PORT', '')
  207. bpf_text = bpf_text.replace('FILTER_UID', '')
  208. if debug or args.ebpf:
  209. print(bpf_text)
  210. if args.ebpf:
  211. exit()
  212. # process event
  213. def print_ipv4_event(cpu, data, size): #TCP4跟踪的打印函数
  214. event = b["ipv4_events"].event(data)
  215. global start_ts
  216. if args.timestamp:
  217. if start_ts == 0:
  218. start_ts = event.ts_us
  219. printb(b"%-9.3f" % ((float(event.ts_us) - start_ts) / 1000000), nl="")
  220. if args.print_uid:
  221. printb(b"%-6d" % event.uid, nl="")
  222. printb(b"%-6d %-12.12s %-2d %-16s %-16s %-4d" % (event.pid,
  223. event.task, event.ip,
  224. inet_ntop(AF_INET, pack("I", event.saddr)).encode(), #转换为主机序地址
  225. inet_ntop(AF_INET, pack("I", event.daddr)).encode(), event.dport)) #转换为主机序地址和端口
  226. def print_ipv6_event(cpu, data, size): #TCP6跟踪的打印函数
  227. event = b["ipv6_events"].event(data)
  228. global start_ts
  229. if args.timestamp:
  230. if start_ts == 0:
  231. start_ts = event.ts_us
  232. printb(b"%-9.3f" % ((float(event.ts_us) - start_ts) / 1000000), nl="")
  233. if args.print_uid:
  234. printb(b"%-6d" % event.uid, nl="")
  235. printb(b"%-6d %-12.12s %-2d %-16s %-16s %-4d" % (event.pid,
  236. event.task, event.ip,
  237. inet_ntop(AF_INET6, event.saddr).encode(), inet_ntop(AF_INET6, event.daddr).encode(),
  238. event.dport))
  239. def depict_cnt(counts_tab, l3prot='ipv4'): #
  240. for k, v in sorted(counts_tab.items(), key=lambda counts: counts[1].value, reverse=True):
  241. depict_key = ""
  242. if l3prot == 'ipv4':
  243. depict_key = "%-25s %-25s %-20s" % ((inet_ntop(AF_INET, pack('I', k.saddr))),
  244. inet_ntop(AF_INET, pack('I', k.daddr)), k.dport)
  245. else:
  246. depict_key = "%-25s %-25s %-20s" % ((inet_ntop(AF_INET6, k.saddr)),
  247. inet_ntop(AF_INET6, k.daddr), k.dport)
  248. print ("%s %-10d" % (depict_key, v.value))
  249. # initialize BPF
  250. b = BPF(text=bpf_text)
  251. b.attach_kprobe(event="tcp_v4_connect", fn_name="trace_connect_entry")
  252. b.attach_kprobe(event="tcp_v6_connect", fn_name="trace_connect_entry")
  253. b.attach_kretprobe(event="tcp_v4_connect", fn_name="trace_connect_v4_return")
  254. b.attach_kretprobe(event="tcp_v6_connect", fn_name="trace_connect_v6_return")
  255. print("Tracing connect ... Hit Ctrl-C to end")
  256. if args.count:
  257. try:
  258. while 1:
  259. sleep(99999999)
  260. except KeyboardInterrupt:
  261. pass
  262. # header
  263. print("\n%-25s %-25s %-20s %-10s" % (
  264. "LADDR", "RADDR", "RPORT", "CONNECTS"))
  265. depict_cnt(b["ipv4_count"])
  266. depict_cnt(b["ipv6_count"], l3prot='ipv6')
  267. # read events
  268. else:
  269. # header
  270. if args.timestamp:
  271. print("%-9s" % ("TIME(s)"), end="")
  272. if args.print_uid:
  273. print("%-6s" % ("UID"), end="")
  274. print("%-6s %-12s %-2s %-16s %-16s %-4s" % ("PID", "COMM", "IP", "SADDR",
  275. "DADDR", "DPORT"))
  276. start_ts = 0
  277. # read events
  278. b["ipv4_events"].open_perf_buffer(print_ipv4_event)
  279. b["ipv6_events"].open_perf_buffer(print_ipv6_event)
  280. while 1:
  281. try:
  282. b.perf_buffer_poll()
  283. except KeyboardInterrupt:
  284. exit()

上面C程序采集了内核数据skp->sk_common.skc_dport,skp->sk_common.skc_rcv_saddr和skp->__sk_common.skc_daddr。与第一个例子类似,这类数据可以直接参考tcp_v4_connect内核源码的实现,源码中通过struct inet_sock *inet = inet_sk(sk);来获取源目的地址和端口,inet_sock的结构体定义如下,可以明显看到inet_daddr,inet_rcv_saddr和inet_dport与上述代码获取的内容相同,进而可以了解到获取这些成员的方式。

  1. struct inet_sock {
  2. /* sk and pinet6 has to be the first two members of inet_sock */
  3. struct sock sk;
  4. #if IS_ENABLED(CONFIG_IPV6)
  5. struct ipv6_pinfo *pinet6;
  6. #endif
  7. /* Socket demultiplex comparisons on incoming packets. */
  8. #define inet_daddr sk.__sk_common.skc_daddr
  9. #define inet_rcv_saddr sk.__sk_common.skc_rcv_saddr
  10. #define inet_dport sk.__sk_common.skc_dport
  11. #define inet_num sk.__sk_common.skc_num
  12. ...

此外在inet_sock结构体的注释中给出详细的说明,非常明了:

  1. * @inet_daddr - Foreign IPv4 addr
  2. * @inet_rcv_saddr - Bound local IPv4 addr
  3. * @inet_dport - Destination port
  4. * @inet_num - Local port

因此可以直接参考tcp_v4_connect的源码修改ipv4中获取地址和端口的实现,效果是一样的:

  1. struct_init = { 'ipv4':
  2. { 'count' :
  3. """
  4. struct ipv4_flow_key_t flow_key = {};
  5. struct inet_sock *inet = inet_sk(skp);
  6. flow_key.saddr = inet->inet_rcv_saddr;
  7. flow_key.daddr = inet->inet_daddr;
  8. u16 dport = inet->inet_dport;
  9. flow_key.dport = ntohs(dport);
  10. ipv4_count.increment(flow_key);""",
  11. 'trace' :
  12. """
  13. struct ipv4_data_t data4 = {.pid = pid, .ip = ipver};
  14. data4.uid = bpf_get_current_uid_gid();
  15. data4.ts_us = bpf_ktime_get_ns() / 1000;
  16. struct inet_sock *inet = inet_sk(skp);
  17. data4.saddr = inet->inet_rcv_saddr;
  18. data4.daddr = inet->inet_daddr;
  19. u16 dport = inet->inet_dport;
  20. data4.dport = ntohs(dport);
  21. bpf_get_current_comm(&data4.task, sizeof(data4.task));
  22. ipv4_events.perf_submit(ctx, &data4, sizeof(data4));"""
  23. },
  24. 'ipv6':
  25. { 'count' :
  26. """
  27. struct ipv6_flow_key_t flow_key = {};
  28. bpf_probe_read_kernel(&flow_key.saddr, sizeof(flow_key.saddr),
  29. skp->__sk_common.skc_v6_rcv_saddr.in6_u.u6_addr32);
  30. bpf_probe_read_kernel(&flow_key.daddr, sizeof(flow_key.daddr),
  31. skp->__sk_common.skc_v6_daddr.in6_u.u6_addr32);
  32. flow_key.dport = ntohs(dport);
  33. ipv6_count.increment(flow_key);""",
  34. 'trace' :
  35. """
  36. struct ipv6_data_t data6 = {.pid = pid, .ip = ipver};
  37. data6.uid = bpf_get_current_uid_gid();
  38. data6.ts_us = bpf_ktime_get_ns() / 1000;
  39. bpf_probe_read_kernel(&data6.saddr, sizeof(data6.saddr),
  40. skp->__sk_common.skc_v6_rcv_saddr.in6_u.u6_addr32);
  41. bpf_probe_read_kernel(&data6.daddr, sizeof(data6.daddr),
  42. skp->__sk_common.skc_v6_daddr.in6_u.u6_addr32);
  43. data6.dport = ntohs(dport);
  44. bpf_get_current_comm(&data6.task, sizeof(data6.task));
  45. ipv6_events.perf_submit(ctx, &data6, sizeof(data6));"""
  46. }
  47. }

此外注意到读取TCP4的数据时没有用到bpf_probe_read_kernel,但读取TCP6的数据时用到了bpf_probe_read_kernel,这是因为TCP4的地址是一个u32类型的数据,直接赋值即可;而TCP6的地址结构如下,无法通过直接赋值获取,因此需要调用bpf_probe_read_kernel拷贝内存。

  1. struct in6_addr {
  2. union {
  3. __u8 u6_addr8[16];
  4. #if __UAPI_DEF_IN6_ADDR_ALT
  5. __be16 u6_addr16[8];
  6. __be32 u6_addr32[4];
  7. #endif
  8. } in6_u;
  9. #define s6_addr in6_u.u6_addr8
  10. #if __UAPI_DEF_IN6_ADDR_ALT
  11. #define s6_addr16 in6_u.u6_addr16
  12. #define s6_addr32 in6_u.u6_addr32
  13. #endif
  14. };

整体看,上面代码使用了python处理了一些C程序的替换和拼接,大部分跟可观测性并没有什么不同,当然,最主要的还是需要了解内核处理流程,选择正确的内核函数进行打点。

上述仅给出的网络并无法修改报文内容以及对报文进行重定向等操作。ebpf提供了XDP和tc两种管理网络的方式,更多可以参见下一篇博客。

Linux探测工具BCC(网络)的更多相关文章

  1. Linux探测工具BCC(可观测性)

    BCC(可观测性) 目录 BCC(可观测性) 简介 动机 版本要求 安装 安装依赖 安装和编译LLVM 安装和编译BCC windows源码查看 BCC的基本使用 工具讲解 execsnoop ope ...

  2. 【转】一文掌握 Linux 性能分析之网络篇(续)

    [转]一文掌握 Linux 性能分析之网络篇(续) 在上篇网络篇中,我们已经介绍了几个 Linux 网络方向的性能分析工具,本文再补充几个.总结下来,余下的工具包括但不限于以下几个: sar:统计信息 ...

  3. 【转】一文掌握 Linux 性能分析之网络篇

    [转]一文掌握 Linux 性能分析之网络篇 比较宽泛地讲,网络方向的性能分析既包括主机测的网络配置查看.监控,又包括网络链路上的包转发时延.吞吐量.带宽等指标分析.包括但不限于以下分析工具: pin ...

  4. 一文掌握 Linux 性能分析之网络篇(续)

    本文首发于我的公众号 Linux云计算网络(id: cloud_dev),专注于干货分享,号内有 10T 书籍和视频资源,后台回复「1024」即可领取,欢迎大家关注,二维码文末可以扫. 这是 Linu ...

  5. Linux性能工具介绍

    l  Linux性能工具介绍 p  CPU高 p  磁盘I/O p  网络 p  内存 p  应用程序跟踪 l  操作系统与应用程序的关系比喻为“唇亡齿寒”一点不为过 l  应用程序的性能问题/功能问 ...

  6. 在Linux上配置无线网络

    导读 iwconfig是Linux Wireless Extensions(LWE)的用户层配置工具之一.LWE是Linux下对无线网络配置的工具,包括内核的支持.用户层配置工具和驱动接口的支持三部分 ...

  7. Linux下高并发网络编程

      Linux下高并发网络编程 1.修改用户进程可打开文件数限制 在Linux平台上,无论编写客户端程序还是服务端程序,在进行高并发TCP连接处理时, 最高的并发数量都要受到系统对用户单一进程同时可打 ...

  8. Linux开发工具的使用

    1.   Linux开发工具的使用 Vim编译的使用 Gdb调试工具的使用 Makefile的编写 linux跟踪调试 SSH的使用 subversion的使用 1.   Linux开发工具的使用 V ...

  9. Linux 使用nmcli配置网络

    Linux 使用nmcli配置网络 前提: 在虚拟机中添加一张桥接模式的网卡,如果是VirtualBox虚拟机中要shutdown才能添加. 1.启动NetworkManager工具,安装nmcli命 ...

随机推荐

  1. vue axios接口封装、Promise封装、简单的axios方法封装、vue接口方法封装、vue post、get、patch、put方法封装

    相信大家在做前后端数据交互的时候都会给请求做一些简单的封装就像之前封装ajax方法一样axios的封装也是一样的简单下面这个就是封装的axios的方法,require.js import axios ...

  2. CSS实现宽度自适应100%,宽高16:9的比例的矩形

    现在我们来讲讲做自适应16:9的矩形要怎么做 第一步先计算高度,假设宽100%,那么高为h=9/16=56.25% 第二步利用之前所说设置padding-bottom方法实现矩形 代码 HTML &l ...

  3. python3利用cryptography 进行加密和解密

    我们的日常工作中,一定会遇到需要加密的数据,比如:密码.私密信息... ... 我们不仅要对他们进行加密,更需要对他们进行解密,因为毕竟我们的用户应该不会看得懂加密过后的字符串吧!!! 在python ...

  4. 软件测试工程师应该怎样规划自己?成为年薪30W+测试工程师(乾坤未定,皆是黑马)

    今天在知乎上被邀了一个问题,软件测试工程师应该怎样规划自己?16年毕业,技术方面已经渣到不行,因为之前的公司没有Python自动化测试这个要求,有些迷茫.我把我的问题回答贴出来希望可以帮助到更多有类型 ...

  5. Linux下diff工具

    目录 CentOS 7为例 Meld DiffMerge KDiff3 Kompare CentOS 7为例 Meld Installation 官网 $ sudo yum install meld; ...

  6. Codeforces1379-题解

    很久以前,申蛤申请了一个cf号叫 wzxakioi 有一天,戌蛤带着申蛤用这个账号打了一场div3,然后它的rating超过了shzr 之后申蛤又用这个号打了三场div2,于是  CF1379C 题意 ...

  7. 轻松应对并发问题,简易的火车票售票系统,Newbe.Claptrap 框架用例,第一步 —— 业务分析

    Newbe.Claptrap 框架非常适合于解决具有并发问题的业务系统.火车票售票系统,就是一个非常典型的场景用例. 本系列我们将逐步从业务.代码.测试和部署多方面来介绍,如何使用 Newbe.Cla ...

  8. I 2 C、 SPI、 USB驱动架构

    根据图12.4, Linux倾向于将主机端的驱动与外设端的驱动分离, 而通过一个核心层将某种总线的协议进行抽象, 外设端的驱动调用核心层API间接过渡到对主机驱动传输函数的调用. 对于I 2 C. S ...

  9. java文件导出过程 CS、BS差别

    最近在做一个需求,类似和navicat工具差不多的,通过java代码吧数据库表的数据导出来.jdbc获取数据库连接,查询表数据,分批次用流写入文件txt.csv.json.xls.xlsx,搞定之后, ...

  10. 记一次css字体反爬

    前段时间在看css反爬的时候,发现很多网站都做了css反爬,比如,设置字体反爬的(58同城租房版块,实习僧招聘https://www.shixiseng.com/等)设置雪碧图反爬的(自如租房http ...