前言

muduo库是陈硕个人开发的tcp网络编程库,支持Reactor模型,推荐大家阅读陈硕写的《Linux多线程服务端编程:使用muduo C++网络库》。本人前段时间出于个人学习、找工作的目的用C++11重构了muduo库中核心的Reactor架构。这篇博文对muduo库中的Multi-Reactor架构代码进行逻辑梳理,同时认真剖析了作者每一处精妙的代码设计思想。目前我只重构并剖析了muduo库中的核心部分,即Multi-Reactor架构部分,具体细分有以下几个模块:

  1. 网络相关模块:如Socket、InetAddress、TcpConnection、Acceptor、TcpServer等
  2. 事件循环相关模块:如EventLoop、Channel、Poller、EPollPoller等
  3. 线程相关模块:如Thread、EventLoopThread、EventLoopThreadPool等
  4. 基础模块:如用户态缓冲区Buffer、时间戳Timestamp、日志类Logger等

我的个人Github代码地址:[muduo_cpp11],但是这部分已经足够支撑起一个基本的高并发TCP服务器的运行了。

在下文概述篇中会概述下每一个类的作用,其意图在于对每一个类建立一个直觉,概述部分不会讲的很详细。重点留在下文主线篇。主线篇会围绕连接建立、消息读取、消息发送、连接断开这几条主线来进行梳理,同时会对代码中优秀编程思想和编程细节进行讨论。最后在线程篇会讲到muduo库中涉及到的线程控制、线程通信的机制。

概述篇

1. Multi-Reactor概述

muduo库是基于Reactor模式实现的TCP网络编程库。该文章后续篇幅都是围绕Multi-reactor模型进行展开。Multi-Reactor模型如下所示:

2. Multi-Reactor架构三大核心模块介绍

muduo库有三个核心组件支撑一个Reactor实现持续的监听一组fd,并根据每个fd上发生的事件调用相应的处理函数。这三个组件分别是Channel类、Poller/EpollPoller类以及EventLoop类。

2.1. Channel

Channel类其实相当于一个文件描述符的保姆,它将文件描述符及该文件描述符对应的回调函数绑定在了一起。

在TCP网络编程中,想要IO多路复用监听某个文件描述符,就要把这个fd和该fd感兴趣的事件通过epoll_ctl注册到IO多路复用模块(我管它叫事件监听器)上。当事件监听器监听到该fd发生了某个事件。事件监听器返回发生事件的fd集合以及每个fd都发生了什么事件。

Channel类则封装了一个fd和这个fd感兴趣事件以及事件监听器监听到该fd实际发生的事件。同时Channel类还提供了设置该fd的感兴趣事件,以及将该fd及其感兴趣事件注册到事件监听器或从事件监听器上移除,以及保存了该fd的每种事件对应的处理函数。

Channel类有以下几个重要成员变量:

  • fd_这个Channel对象照看的文件描述符
  • int events_代表fd感兴趣的事件类型集合
  • int revents_代表事件监听器实际监听到该fd发生的事件类型集合,当事件监听器监听到一个fd发生了什么事件,通过Channel::set_revents()函数来设置revents值。
  • EventLoop *loop:这个fd属于哪个EventLoop对象,这个暂时不解释。
  • read_callback_write_callback_close_callback_error_callback_:这些是std::function类型,代表着这个Channel为这个文件描述符保存的各事件类型发生时的处理函数。比如这个fd发生了可读事件,需要执行可读事件处理函数,这时候Channel类都替你保管好了这些可调用函数,真是贴心啊,要用执行的时候直接管保姆要就可以了。

Channel类的重要成员方法:

向Channel对象注册各类事件的处理函数:

void setReadCallback(ReadEventCallback cb) {read_callback_ = std::move(cb);}
void setWriteCallback(Eventcallback cb) {write_callback_ = std::move(cb);}
void setCloseCallback(EventCallback cb) {close_callback_ = std::move(cb);}
void setErrorCallback(EventCallback cb) {error_callback_ = std::move(cb);}

一个文件描述符会发生可读、可写、关闭、错误事件。当发生这些事件后,就需要调用相应的处理函数来处理。外部通过调用上面这四个函数可以将事件处理函数放进Channel类中,当需要调用的时候就可以直接拿出来调用了。

将Channel中的文件描述符及其感兴趣事件注册事件监听器上或从事件监听器上移除:

void enableReading() {events_ |= kReadEvent; upadte();}
void disableReading() {events_ &= ~kReadEvent; update();}
void enableWriting() {events_ |= kWriteEvent; update();}
void disableWriting() {events_ &= ~kWriteEvent; update();}
void disableAll() {events_ |= kNonEvent; update();}

外部通过这几个函数来告知Channel你所监管的文件描述符都对哪些事件类型感兴趣,并把这个文件描述符及其感兴趣事件注册到事件监听器(IO多路复用模块)上。这些函数里面都有一个update()私有成员方法,这个update其实本质上就是调用了epoll_ctl()

  • int set_revents(int revt) {revents_ = revt;}

    当事件监听器监听到某个文件描述符发生了什么事件,通过这个函数可以将这个文件描述符实际发生的事件封装进这个Channel中。

  • void handleEvent(TimeStamp receive_time)

    当调用epoll_wait()后,可以得知事件监听器上哪些Channel(文件描述符)发生了哪些事件,事件发生后自然就要调用这些Channel对应的处理函数。 Channel::handleEvent,让每个发生了事件的Channel调用自己保管的事件处理函数。每个Channel会根据自己文件描述符实际发生的事件(通过Channel中的revents_变量得知)和感兴趣的事件(通过Channel中的events_变量得知)来选择调用read_callback_和/或write_callback_和/或close_callback_和/或error_callback_


2.2. Poller / EPollPoller

负责监听文件描述符事件是否触发以及返回发生事件的文件描述符以及具体事件的模块就是Poller。所以一个Poller对象对应一个事件监听器(这里我不确定要不要把Poller就当作事件监听器)。在Multi-Reactor模型中,有多少Reactor就有多少Poller。

muduo提供了epoll和poll两种IO多路复用方法来实现事件监听。不过默认是使用epoll来实现,也可以通过选项选择poll。但是我自己重构的muduo库只支持epoll。

这个Poller是个抽象虚类,由EpollPollerPollPoller继承实现(陈硕的muduo网络库中除此之外基本都是基于对象的编程风格,只有这里通过采用面向对象的方式,Poller实际上是一个抽象类,EpollPoller才是对Poller的具体实现,也是对epoll的具体封装),与监听文件描述符和返回监听结果的具体方法也基本上是在这两个派生类中实现。EpollPoller就是封装了用epoll方法实现的与事件监听有关的各种方法,PollPoller就是封装了poll方法实现的与事件监听有关的各种方法。以后谈到Poller希望大家都知道我说的其实是EpollPoller。

Poller/EpollPoller的重要成员变量:

  • epollfd_: 就是epoll_create方法返回的epoll句柄。
  • channels_:这个变量是std::unordered_map<int, Channel*>类型,负责记录文件描述符fd到Channel的映射,也帮忙保管所有注册在你这个Poller上的Channel。
  • ownerLoop_:所属的EventLoop对象,看到后面你懂了。

EpollPoller给外部提供的最重要的方法:

  • TimeStamp poll(int timeoutMs, ChannelList *activeChannels)

    这个函数可以说是Poller的核心了,当外部调用poll方法的时候,该方法底层其实是通过epoll_wait获取这个事件监听器上发生事件的fd及其对应发生的事件,我们知道每个fd都是由一个Channel封装的,通过哈希表channels_可以根据fd找到封装这个fd的Channel。将事件监听器监听到该fd发生的事件写进这个Channel中的revents成员变量中。然后把这个Channel装进activeChannels中(它是一个vector<Channel*>)。这样,当外界调用完poll之后就能拿到事件监听器的监听结果(activeChannels_),【后面会经常提到这个“监听结果”这四个字,希望你明白这代表什么含义】

2.3. EventLoop

刚才的Poller是封装了和事件监听有关的方法和成员,调用一次Poller::poll方法它就能给你返回事件监听器的监听结果(发生事件的fd 及其发生的事件)。作为一个网络服务器,需要有持续监听、持续获取监听结果、持续处理监听结果对应的事件的能力,也就是我们需要循环的去调用Poller::poll方法获取实际发生事件的Channel集合,然后调用这些Channel里面保管的不同类型事件的处理函数(调用Channel::handleEvent方法)。

EventLoop就是负责实现“循环”,负责驱动“循环”的重要模块!Channel和Poller其实相当于EventLoop的手下,EventLoop整合封装了二者并向上提供了更方便的接口来使用。

2.3.1. 全局概览Poller、Channel和EventLoop在整个Multi-Reactor通信架构中的角色

EventLoop起到一个驱动循环的功能,Poller负责从事件监听器上获取监听结果。而Channel类则在其中起到了将fd及其相关属性封装的作用,将fd及其感兴趣事件和发生的事件以及不同事件对应的回调函数封装在一起,这样在各个模块中传递更加方便。接着EventLoop调用。

另外上面这张图我没有画出Acceptor,因为Acceptor和EventLoop和Poller之间有点错杂,可能画出来效果不好。

2.3.2. One Loop Per Thread 含义介绍

有没有注意到上面图中,每一个EventLoop都绑定了一个线程(一对一绑定),这种运行模式是muduo库的特色!充份利用了多核CPU的能力,每一个核的线程负责循环监听一组文件描述符的集合。至于这个One Loop Per Thread是怎么实现的,后面还会交代。

2.3.3. EventLoop重要方法 EventLoop::loop()

我将EventLoop核心逻辑给出,省略了非核心代码:

void EventLoop::loop() { // EventLoop 所属线程执行
while (!quit_) {
activeChannels_.clear(); pollReturnTime_ = poller_->poll(kPollTimeMs, &activeChannels_); //此时activeChannels已经填好了事件发生的channel for(Channel *channel : activeChannels_)
channel->handleEvent(pollReturnTime_);
}
LOG_INFO("EventLoop %p stop looping. \n", t_loopInThisThread);
}

每个EventLoop对象都唯一绑定了一个线程,这个线程其实就在一直执行这个函数里面的while循环,这个while循环的大致逻辑比较简单。就是调用Poller::poll方法获取事件监听器上的监听结果。接下来在loop里面就会调用监听结果中每一个Channel的处理函数handleEvent()。每一个Channel的处理函数会根据Channel类中封装的实际发生的事件,执行Channel类中封装的各事件处理函数。(比如一个Channel发生了可读事件,可写事件,则这个Channel的handleEvent()就会调用提前注册在这个Channel的可读事件和可写事件处理函数,又比如另一个Channel只发生了可读事件,那么handleEvent()就只会调用提前注册在这个Channel中的可读事件处理函数)。上面讲Channel时也提到了Channel对应的四种事件处理函数(回调函数):读回调函数、写回调函数、关闭回调函数、错误回调函数等四种回调函数。

看完上面的代码,感受到EventLoop的主要功能了吗?其实EventLoop所做的事情就是:持续循环的获取监听结果并且根据结果调用处理函数。

3. 其他主要类介绍

3.1. Acceptor类

Acceptor用于接受新用户连接并分发连接给SubReactor(Sub EventLoop),封装了服务器监听套接字fd以及相关处理方法。Acceptor类内部其实没有贡献什么核心的处理函数,主要是对其他类的方法调用进行封装。但是Acceptor中核心的点在于将监听套接字和Channel绑定在了一起,并为其注册了读回调handRead。当有连接到来的时候,读事件发生,就会调用相应读回调handleRead,读回调会间接调用TcpServer的newConnection(),该函数负责以轮询的方式把连接分发给sub EventLoop去处理。

3.1.1. Acceptor封装的重要成员变量:

  • acceptSocket_:这个是服务器监听套接字的文件描述符,即socket套接字返回的监听套接字
  • acceptChannel_:这是个Channel类,把acceptSocket_及其感兴趣事件和事件对应的处理函数都封装进去。
  • EventLoop *loop:监听套接字的fd由哪个EventLoop负责循环监听以及处理相应事件,其实这个EventLoop就是main EventLoop。
  • newConnectionCallback_: TcpServer构造函数中将TcpServer::newConnection()函数注册给了这个成员变量。这个TcpServer::newConnection函数的功能是公平的选择一个subEventLoop,并把已经接受的连接分发给这个subEventLoop

3.1.2. Acceptor封装的重要成员方法:

  • listen():该函数底层调用了linux的函数listen(),开启对acceptSocket_的监听同时将acceptChannel及其感兴趣事件(可读事件)注册到main EventLoop的事件监听器上。换言之就是让main EventLoop事件监听器去监听acceptSocket_
  • handleRead():这是一个私有成员方法,这个方法是要注册到acceptChannel_上的, 同时handleRead()方法内部还调用了成员变量newConnectionCallback_保存的函数。当main EventLoop监听到acceptChannel_上发生了可读事件时(新用户连接事件),就是调用这个handleRead()方法。

简单说一下这个handleRead()最终实现的功能是什么,接受新连接,并且以负载均衡的选择方式选择一个sub EventLoop,并把这个新连接分发到这个subEventLoop上,这里是需要理解的重点。


3.2. Socket类

#pragma once

#include "noncopyable.h"

class InetAddress;

// 封装socket fd
class Socket : noncopyable
{
public:
explicit Socket(int sockfd)
: sockfd_(sockfd)
{
}
~Socket(); int fd() const { return sockfd_; }
void bindAddress(const InetAddress &localaddr); //调用bind绑定服务器IP和端口
void listen(); //调用listen监听套接字
int accept(InetAddress *peeraddr); //调用accept接收新客户连接请求 只不过这里封装的是accept4 void shutdownWrite(); //调用shutdown关闭服务端写通道 /* 下面四个函数都是调用setsockopt来设置一些socket选项 */
void setTcpNoDelay(bool on); //不启动naggle算法 增大对小数据包的支持
void setReuseAddr(bool on);
void setReusePort(bool on);
void setKeepAlive(bool on); //服务器监听套接字文件描述符 private:
const int sockfd_;
};

这个类也确实没啥好说的,都是TCP编程常规函数的封装,直接看代码注释就可。


3.3. Buffer类

Buffer类其实是封装了一个用户缓冲区,以及向这个缓冲区写数据读数据等一系列控制方法。

3.3.1. Buffer类主要设计思想 (读写配合,缓冲区内部调整以及动态扩容)

我个人觉得这个缓冲区类的实现值得参考和借鉴,以前自己写的只支持一次性全部读出和写入,而这个Buffer类可以读一点,写一点,内部逻辑稳定。这个Buffer类是vector(方便动态扩容),对外表现出std::queue的特性,它的内部原理大概就是下图这样子的,用两个游标(readerIndex_writerIndex_)标记可读缓冲区的起始位置和空闲空间的起始位置。

其中需要关注的一个思想就是,随着写入数据和读入数据,蓝色的空闲空间会越来越少,prependable空间会越来越大,当什么时候空用空间耗尽了,就会向步骤4一样,把所有数据拷贝前移,重新调整。另外当整个缓冲区的prependable空间和蓝色的空闲空间都无法装下新来的数据时,那就会调用vectorresize,实现扩容机制。

3.3.2. 重要的成员函数:

  • append(const char* data, size_t len):将data数据添加到缓冲区中。
  • retrieveAsString(size_t len):获取缓冲区中长度为len的数据,并以string返回。
  • retrieveAllString():获取缓冲区所有数据,并以string返回。
  • ensureWritableByts(size_t len):当你打算向缓冲区写入长度为len的数据之前,先调用这个函数,这个函数会检查你的缓冲区可写空间能不能装下长度为len的数据,如果不能,就进行动态扩容操作。

下面两个方法主要是封装了调用了上面几个方法:

  • ssize_t Buffer::readFd(int fd, int* saveErrno):客户端发来数据,readFd从该TCP接收缓冲区中将数据读出来并放到Buffer中。
  • ssize_t Buffer::writeFd(int fd, int* saveErrno):服务端要向这条TCP连接发送数据,通过该方法将Buffer中的数据拷贝到TCP发送缓冲区中。

其实readFd和writeFd函数的设计还有一些值得讨论的地方,这个放在以后讨论。


3.4. TcpConnection类

在上面讲Acceptor的时候提到了这个TcpConnection类。这个类主要封装了一个已建立的TCP连接,以及控制该TCP连接的方法(连接建立和关闭和销毁),以及该连接发生的各种事件(读/写/错误/连接)对应的处理函数,以及这个TCP连接的服务端和客户端的套接字地址信息等。

我个人觉得TcpConnection类和Acceptor类是兄弟关系,Acceptor用于main EventLoop中,对服务器监听套接字fd及其相关方法进行封装(监听、接受连接、分发连接给Sub EventLoop等),TcpConnection用于Sub EventLoop中,对连接套接字fd及其相关方法进行封装(读消息事件、发送消息事件、连接关闭事件、错误事件等)。

3.4.1. TcpConnection的重要变量:

  • socket_:用于保存已连接套接字文件描述符。
  • channel_:封装了上面的socket_及其各类事件的处理函数(读、写、错误、关闭等事件处理函数)。这个Channel中保存的各类事件的处理函数是在TcpConnection对象构造函数中注册的。
  • loop_:这是一个EventLoop*类型,该Tcp连接的Channel注册到了哪一个sub EventLoop上。这个loop_就是那一个sub EventLoop。
  • inputBuffer_:这是一个Buffer类,是该TCP连接对应的用户接收缓冲区。
  • outputBuffer_:也是一个Buffer类,不过是用于暂存那些暂时发送不出去的待发送数据。因为Tcp发送缓冲区是有大小限制的,假如达到了高水位线,就没办法把发送的数据通过send()直接拷贝到Tcp发送缓冲区,而是暂存在这个outputBuffer_中,等TCP发送缓冲区有空间了,触发可写事件了,再把outputBuffer_中的数据拷贝到Tcp发送缓冲区中。
  • state_:这个成员变量标识了当前TCP连接的状态(Connected、Connecting、Disconnecting、Disconnected)
  • connetionCallback_messageCallback_writeCompleteCallback_closeCallback_:用户会自定义 [连接建立/关闭后的处理函数] 、[收到消息后的处理函数]、[消息发送完后的处理函数]以及Muduo库中定义的[连接关闭后的处理函数]。这四个函数都会分别注册给这四个成员变量保存。

3.4.2. TcpConnection的重要成员方法:

handleRead()handleWrite()handleClose()handleError():这四个函数都是私有成员方法,在一个已经建立好的TCP连接上主要会发生四类事件:可读事件、可写事件、连接关闭事件、错误事件。当事件监听器监听到一个连接发生了以上的事件,那么就会在EventLoop中调用这些事件对应的处理函数,同时accept返回已连接套接字所绑定的Channel中注册了这四种回调函数。

  • handleRead():负责处理TCP连接的可读事件,它会将客户端发送来的数据拷贝到用户缓冲区中(inputBuffer_),然后再调用connectionCallback_保存的连接建立后的处理函数messageCallback_。这个messageCallback_由上层用户注册,之后muduo库会在TcpServer中会对其设置。
  • handleWrite():负责处理Tcp连接的可写事件。这个函数的情况有些复杂,留到下一篇讲解。
  • handleClose():负责处理Tcp连接关闭的事件。大概的处理逻辑就是将这个TcpConnection对象中的channel_从事件监听器中移除。然后调用connectionCallback_和closeCallback_保存的回调函数。这closeCallback_中保存的函数是由muduo库提供的,connectionCallback_保存的回调函数则由用户提供的(可有可无其实)。

主线篇

本来一开始写这个博客的时候,很想把每一行代码全给分析一遍,后来越整理越乱,最后直接放弃了,所以这里决定对Muduo库的几条大的主线进行脉络梳理。

TCP网络编程的本质其实是处理下面这几个事件:

  1. 连接的建立。
  2. 连接的断开:包括主动断开和被动断开。
  3. 消息到达,客户端连接文件描述符可读。
  4. 消息发送,向客户端连接文件描述符写数据。

所以我们这一篇内容也是围绕上面四个主线展开!


1. 用muduo库实现简易echo服务器

要理顺muduo库的代码逻辑,当然还是先学会一下怎么使用吧,这一小节就看代码注释就好了。一定要会最简单的使用。

#include <string>

#include <mymuduo/TcpServer.h>
#include <mymuduo/Logger.h> class EchoServer
{
public:
EchoServer(EventLoop *loop, const InetAddress &addr, const std::string &name)
: server_(loop, addr, name)
, loop_(loop)
{
// 注册回调函数 将用户定义的连接事件处理函数注册进TcpServer中,TcpServer发生连接事件时会执行onConnection函数。
server_.setConnectionCallback(
std::bind(&EchoServer::onConnection, this, std::placeholders::_1)); //将用户定义的可读事件处理函数注册进TcpServer中,TcpServer发生可读事件时会执行onMessage函数。
server_.setMessageCallback(
std::bind(&EchoServer::onMessage, this, std::placeholders::_1, std::placeholders::_2, std::placeholders::_3)); // 设置合适的subloop线程数量 你这里设置为3,就和概述篇图中的EventLoop2 EventLoop3 EventLoop4对应,有三个sub EventLoop
server_.setThreadNum(3);
}
void start()
{
server_.start();
} private:
// 连接建立或断开的回调函数
void onConnection(const TcpConnectionPtr &conn)
{
if (conn->connected())
{
LOG_INFO("Connection UP : %s", conn->peerAddress().toIpPort().c_str());
}
else
{
LOG_INFO("Connection DOWN : %s", conn->peerAddress().toIpPort().c_str());
}
} // 可读写事件回调
void onMessage(const TcpConnectionPtr &conn, Buffer *buf, Timestamp time)
{
std::string msg = buf->retrieveAllAsString();
conn->send(msg);
conn->shutdown(); // 关闭写端 底层响应EPOLLHUP => 执行closeCallback_
} EventLoop *loop_;
TcpServer server_;
}; int main() {
EventLoop loop;
InetAddress addr(8002, "192.168.194.130"); //InetAddress其实是对socket编程中的sockaddr_in进行封装,使其变为更友好简单的接口而已
EchoServer server(&loop, addr, "EchoServer");
server.start(); //启动TcpServer服务器
loop.loop(); //执行EventLoop::loop()函数,这个函数在概述篇的EventLoop小节有提及
return 0;
}

主要做了一下几件事:

  • 建立事件循环器EventLoop:EventLoop loop;
  • 创建服务器对象,即TcpServer类对象:TcpServer server_;
  • 向TcpServer注册各类事件的用户自定义的处理函数:setMessageCallback()setConnectionCallback();
  • 启动server:server.start();
  • 开启事件循环: loop.loop();

2. 建立连接

2.1. 连接建立的代码逻辑

注意下面的标号分别对应上图中的代码方框标号!!

1:TcpServer::TcpServer()

当我们创建一个TcpServer对象,即执行代码TcpServer server(&loop, listenAddr);调用了TcpServer的构造函数,TcpServer构造函数最主要的就是类的内部实例化了一个Acceptor对象,并往这个Acceptor对象注册了一个回调函数TcpServer::newConnection()。

5:Acceptor::Acceptor()

当我们在TcpServer构造函数实例化Acceptor对象时,Acceptor的构造函数中实例化了一个Channel对象,即acceptChannel_,该Channel对象封装了服务器监听套接字文件描述符(尚未注册到main EventLoop的事件监听器上)。接着Acceptor构造函数将Acceptor::handleRead()方法注册进acceptChannel_中,这也意味着,日后如果事件监听器监听到acceptChannel_发生可读事件,将会调用Acceptor::handleRead()函数。

至此,TcpServer对象创建完毕,用户调用TcpServer::start()方法,开启TcpServer。我们来直接看一下TcpServer::start()方法都干了什么,我省略了一些非核心的代码:

/******** TcpServer.cc *********/
void TcpServer::start() // 开启服务器监听
{
loop_->runInLoop(std::bind(&Acceptor::listen, acceptor_.get()));
} /******** Acceptor.cc *********/
void Acceptor::listen()
{
listenning_ = true;
acceptSocket_.listen(); // listen
acceptChannel_.enableReading(); // acceptChannel_注册至Poller !重要
}

其实就是将其实主要就是调用Acceptor::listen()函数(底层是调用了linux的函数listen())监听服务器套接字,以及将acceptChannel_注册到main EventLoop的事件监听器上监听它的可读事件(新用户连接事件)

接着用户调用loop.loop(),即调用了EventLoop::loop()函数,该函数就会循环的获取事件监听器的监听结果,并且根据监听结果调用注册在事件监听器上的Channel对象的事件处理函数。

6:Acceptor::handleRead()

当程序如果执行到了这个函数里面,说明acceptChannel_发生可读事件,程序处理新客户连接请求。该函数首先调用了Linux的函数accept()接受新客户连接。接着调用了TcpServer::newConnection()函数,这个函数是在步骤1中注册给Acceptor并由成员变量newConnectionCallback_保存。

7:TcpServer::newConnection()

该函数的主要功能就是将建立好的连接进行封装(封装成TcpConnection对象),并使用选择算法公平的选择一个sub EventLoop,并调用TcpConnection::connectEstablished()将TcpConnection::channel_注册到刚刚选择的sub EventLoop上。

2.2. 编程细节启发,什么时候用智能指针管理对象最合适!

我平时对智能指针的使用缺乏权衡感。在一些情况下使用智能指针会带来额外的性能开销,所以不能无脑梭哈。但是智能指针又能保护内存安全。这里的编程细节也给了我一些启发。来看下下面的核心逻辑代码,非核心以删除:

/******** Callbacks.h  ********/
using TcpConnectionPtr = std::shared_ptr<TcpConnection>;
/******** TcpServer.cc ********/
void TcpServer::newConnection(int sockfd, const InetAddress &peerAddr)
{
TcpConnectionPtr conn(new TcpConnection(ioLoop,
connName,
sockfd,
localAddr,
peerAddr));
connections_[connName] = conn;
ioLoop->runInLoop(
std::bind(&TcpConnection::connectEstablished, conn));
}

在TcpServer::newConnection()函数中,当接受了一个新用户连接,就要把这个Tcp连接封装成一个TcpConnection对象,也就是上面代码中的new TcpConnection(…)。然后用一个共享型智能指针来管理这个对象。所以为什么这里要把TcpConnection用智能指针来管理啊?

这里使用智能指针管理TcpConnection的最重要原因在于防止指针悬空,而指针悬空可能会来自以下这三个方面:

  1. TcpConnection会和用户直接交互,用户可能会手欠删除。在我们编写echo服务器的时候,我们用户可以自定义连接事件发生后的处理函数(如下所示),并将这个函数注册到TcpServer中。
/**** 用户自定义的连接事件发生后的处理函数 *****/
void onConnection(const TcpConnectionPtr &conn)
{
...
}

假如这里的onConnection函数传入的是TcpConnection而不是TcpConnectionPtr,用户在onConnection函数中把TcpConnection对象给delete了怎么办?删除了之后,程序内部还要好几处地方都在使用TcpConnection对象。结果这个对象的内存突然消失了,服务器访问非法内存崩溃。虽然这一系列连锁反应会让人觉得用户很笨。但是作为设计者的我们必须要保证,编程设计不可以依赖用户行为,一定要尽可能地封死用户的误操作。所以这里用了共享智能指针。

  1. TcpConnection对象的多线程安全问题:假如服务器要关闭了,这个时候Main EventLoop线程中的TcpServer::~TcpServer()函数开始把所有TcpConnection对象都删掉。那么其他线程还在使用这个TcpConnection对象,如果你把它的内存空间都释放了,其他线程访问了非法内存,会直接崩溃。

你可能会觉得,反正我都要把服务器给关了,崩就崩了吧。这种想法是错的!因为可能在你关闭服务器的时候,其他线程正在处理TcpConnection的发送消息任务,这个时候你应该等它发完才释放TcpConnection对象的内存才对!

第三种情况我们留到将连接关闭的时候再来讨论,这一部分也是有很好的编程启发的!


3. 消息读回

在Main EventLoop中接受新连接请求之后,将这条TCP连接封装成TcpConnection对象。TcpConnection对象的内容如上图所示,主要就是封装了已连接套接字的fd(上图中的socket_,即accept返回的已连接套接字)、已连接套接字的channel_等。在TcpConnection的构造函数中会将TcpConnection::handleRead()等四个上图中的蓝色方法注册进这个channel_内。

当TcpConnection对象建立完毕之后,Main EventLoop的Acceptor会将这个TcpConnection对象中的channel_注册到某一个Sub EventLoop中。如何注册的呢?就是TcpConnection对象的EventLoop *loop_指针指向子线程绑定的EvenLoop对象上即可,标志着当前的TcpConnection属于该具体的EventLoop。

3.1 消息读取逻辑

如上图所示,Sub EventLoop中的EventLoop::loop()函数内部会循环的执行上图中的步骤1和步骤2。步骤1就是调用Poller::poll()方法获取事件监听结果,这个事件监听结果是一个Channel集合,每一个Channel封装着一个fd、fd感兴趣的事件和事件监听器监听到该fd实际发生的事件。步骤2就是调用每一个Channel的Channel::handleEvent方法。该方法会根据每一个Channel的感兴趣事件以及实际发生的事件调用提前注册在Channel内的对应的事件处理函数:readCallback_writeCallback_closeCallback_errorCallback_

readCallback_保存的函数其实是TcpConnection::handleRead(),消息读取的处理逻辑也就是由这个函数提供的,我们稍微剖析一下这个函数:

// 读是相对服务器而言的 当对端客户端有数据到达 服务器端检测到EPOLLIN 就会触发该fd上的回调 handleRead取读走对端发来的数据
void TcpConnection::handleRead(Timestamp receiveTime)
{
int savedErrno = 0;
ssize_t n = inputBuffer_.readFd(channel_->fd(), &savedErrno);
if (n > 0) // 有数据到达
{
// 已建立连接的用户有可读事件发生了 调用用户传入的回调操作onMessage shared_from_this就是获取了TcpConnection的智能指针
messageCallback_(shared_from_this(), &inputBuffer_, receiveTime);
}
else if (n == 0) // 客户端断开
{
handleClose();
}
else // 出错了
{
errno = savedErrno;
LOG_ERROR("TcpConnection::handleRead");
handleError();
}
}

TcpConnection::handleRead()函数首先调用Buffer_.readFd(channel_->fd(), &saveErrno),该函数底层调用Linux的函数readv(),将TCP接收缓冲区数据拷贝到用户定义的缓冲区中(inputBuffer_)。如果在读取拷贝的过程中发生了什么错误,这个错误信息就会保存在savedErrno中。

  • readFd()返回值>0,说明从接收缓冲区中读取到了数据,那么会接着调用messageCallback_中保存的用户自定义的读取消息后的处理函数。
  • readFd()返回值=0,说明客户端连接关闭,这时候应该调用TcpConnection::handleClose()来处理连接关闭事件。
  • readFd()返回值=-1,说明发生了错误,调用TcpConnection::handleError()来处理savedErrno的错误事件。muduo库只支持LT模式,所以读事件不会出现EAGAIN的错误,所以一旦出现错误,说明肯定是不好的非正常错误了。而EAGAIN错误只不过是非阻塞IO调用时的一种常见错误而已,关于EAGAIN更多的细节,可以参考我的另一篇文章[IO模型及高性能网络架构分析]。

3.2 Buffer::readFd()函数剖析:

剖析这个函数是因为这个函数的设计有可取之处。这个readFd巧妙的设计,可以让用户一次性把所有TCP接收缓冲区的所有数据全部都读出来并放到用户自定义的缓冲区Buffer中。

用户自定义缓冲区Buffer是有大小限制的,我们一开始不知道TCP接收缓冲区中的数据量有多少,如果一次性读出来会不会导致Buffer装不下而溢出。所以在readFd()函数中会在栈上创建一个临时空间extrabuf,然后使用readv的分散读特性,将TCP缓冲区中的数据先拷贝到Buffer中,如果Buffer容量不够,就把剩余的数据都拷贝到extrabuf中,然后再调整Buffer的容量(动态扩容),再把extrabuf的数据拷贝到Buffer中。当这个函数结束后,extrabuf也会被释放。另外extrabuf是在栈上开辟的空间,速度比在堆上开辟还要快。

/**
* 从fd上读取数据 Poller工作在LT模式
* Buffer缓冲区是有大小的! 但是从fd上读取数据的时候 却不知道tcp数据的最终大小
*
* @description: 从socket读到缓冲区的方法是使用readv先读至buffer_,
* Buffer_空间如果不够会读入到栈上65536个字节大小的空间,然后以append的
* 方式追加入buffer_。既考虑了避免系统调用带来开销,又不影响数据的接收。
**/
ssize_t Buffer::readFd(int fd, int *saveErrno)
{
// 栈额外空间,用于从套接字往出读时,当buffer_暂时不够用时暂存数据,待buffer_重新分配足够空间后,在把数据交换给buffer_。
char extrabuf[65536] = {0}; // 栈上内存空间 65536/1024 = 64KB /*
struct iovec {
ptr_t iov_base; // iov_base指向的缓冲区存放的是readv所接收的数据或是writev将要发送的数据
size_t iov_len; // iov_len在各种情况下分别确定了接收的最大长度以及实际写入的长度
};
*/ // 使用iovec分配两个连续的缓冲区
struct iovec vec[2];
const size_t writable = writableBytes(); // 这是Buffer底层缓冲区剩余的可写空间大小 不一定能完全存储从fd读出的数据 // 第一块缓冲区,指向可写空间
vec[0].iov_base = begin() + writerIndex_;
vec[0].iov_len = writable;
// 第二块缓冲区,指向栈空间
vec[1].iov_base = extrabuf;
vec[1].iov_len = sizeof(extrabuf); // when there is enough space in this buffer, don't read into extrabuf.
// when extrabuf is used, we read 128k-1 bytes at most.
// 这里之所以说最多128k-1字节,是因为若writable为64k-1,那么需要两个缓冲区 第一个64k-1 第二个64k 所以做多128k-1
// 如果第一个缓冲区>=64k 那就只采用一个缓冲区 而不使用栈空间extrabuf[65536]的内容
const int iovcnt = (writable < sizeof(extrabuf)) ? 2 : 1;
const ssize_t n = ::readv(fd, vec, iovcnt); if (n < 0)
{
*saveErrno = errno;
}
else if (n <= writable) // Buffer的可写缓冲区已经够存储读出来的数据了
{
writerIndex_ += n;
}
else // extrabuf里面也写入了n-writable长度的数据
{
writerIndex_ = buffer_.size();
append(extrabuf, n - writable); // 对buffer_扩容 并将extrabuf存储的另一部分数据追加至buffer_
}
return n;
}

4. 消息发送

4.1 消息发送逻辑

当用户调用了TcpConnetion::send(buf)函数时,相当于要求muduo库把数据buf发送给该TCP连接的客户端。此时该TcpConnection注册在事件监听器上的感兴趣事件中是没有可写事件的。TcpConnection::send(buf)函数内部其实是调用了Linux的函数write()。

  • 如果TCP发送缓冲区能一次性容纳buf,那这个write()函数将buf全部拷贝到发送缓冲区中。
  • 如果TCP发送缓冲区内不能一次性容纳buf
    • 这时候write()函数buf数据尽可能地拷贝到TCP发送缓冲区中,并且将errno设置为EWOULDBLOCK(等效于EAGAIN)。

    • 剩余未拷贝到TCP发送缓冲区中的buf数据会被存放在TcpConnection::outputBuffer_中。并且向事件监听器上注册该TcpConnection::channel_的可写事件。

    • 事件监听器监听到该TCP连接可写事件,就会调用TcpConnection::handleWrite()函数把TcpConnection::outputBuffer_中剩余的数据发送出去。

    • TcpConnection::handleWrite()函数中,通过调用Buffer::writeFd()函数将outputBuffer_的数据写入到TCP发送缓冲区,如果TCP发送缓冲区能容纳全部剩余的未发送数据,那最好不过了。如果TCP发送缓冲区依旧没法容纳剩余的未发送数据,那就尽可能地将数据拷贝到TCP发送缓冲区中,继续保持可写事件的监听。

当数据全部拷贝到TCP发送缓冲区之后,就会调用用户自定义的【写完后的事件处理函数】,并且移除该TcpConnection在事件监听器上的可写事件。(移除可写事件是为了提高效率,不会让epoll_wait() 毫无意义的频繁触发可写事件。因为大多数时候是没有数据需要发送的,频繁触发可写事件但又没有数据可写。)

这里补充一下我对可读可写的理解,由于muduo底层是epoll驱动的,可读可写状态是由文件描述符对应的内核缓冲区决定的,若要发生可读或者可写事件,首先,前提是要向epoll注册(调用epoll_ctl)需要关注的事件类型。当关注了可读事件时,若文件描述符对应的缓冲区从空变为非空,则触发读事件;当关注了可写事件时,若文件描述符对应的缓冲区由满变为不满,则触发写事件。当然epoll的LT模式会多次触发,而ET模式仅触发一次,这里不过多介绍。回到上面的项目来说,一般我们的文件描述符对应的缓冲区都不是满的,所以一开始不会关注写事件,否则如果说缓冲区不满就触发写事件,那就会一直轮询触发,对系统资源是一种浪费,所以一般情况下只关注读事件。只有当系统要向文件描述符对应的缓冲区写数据时,再关注写事件,这样一来,当缓冲区有“空位”,我就立刻往里面丢数据,反而在这种关键时刻关注写事件,写效率会更高一些,写完数据记得再通过epoll_ctl取消对写事件的关注。


5. 连接断开

5.1. 连接被动断开

服务端TcpConnection::handleRead()中感知到客户端把连接断开了。TcpConnection::handleRead()函数内部调用了Linux的函数readv(),当readv()返回0的时候,服务端就知道客户端断开连接了。然后就接着调用TcpConnection::handleClose()。

上图中的标号1、2、3是函数调用顺序,我们可以看到:

  1. 在执行TcpConnection::handle_Close()的时候,该函数还是在Sub EventLoop线程中运行的,接着调用closeCallback_(connPtr)回调函数,该函数保存的其实是TcpServer::removeConnection()函数
  2. TcpServer::removeConnection()函数调用了remvoveConnectionInLoop()函数,该函数的运行是在Main EventLoop线程中执行的,这里涉及到线程切换技术,后面再讲。
  3. removeConnectionInLoop()函数:TcpServer对象中有一个connections_成员变量,这是一个unordered_map,负责保存string到TcpConnection的映射,其实就是保存着TCP连接的名字到TcpConnection对象的映射。因为这个TCP连接要关闭了,所以也要把这个TcpConnection对象从connections_中删掉。然后再调用TcpConnection::connectDestroyed函数。另外为什么removeConnectionInLoop()要在Main EventLoop中运行,因为该函数主要是从TcpServer对象中删除某条数据。而TcpServer对象是属于Main EventLoop的。这也是贯彻了One Loop Per Thread的理念。
  4. TcpConnection::connectDestroyed()函数的执行是又跳回到了sub EventLoop线程中。该函数就是将TCP连接的监听描述符从事件监听器中移除。另外Sub EventLoop中的Poller类对象还保存着这条TCP连接的channel_,所以调用channel_.remove()将这个TCP连接的channel对象从Poller内的数据结构中删除。

再提醒一下,线程切换后面会讲,这里不知道为什么函数的执行为什么可以在线程之间来回跳来跳去的话,先将就将就。

5.2. 服务器主动关闭导致连接断开

当服务器主动关闭时,调用TcpServer::~TcpServer()析构函数。

我们之前讨论了为什么TcpConnection要用智能指针管理,留下了一个TcpConnection对象的多线程安全问题没讨论。这里涉及到两个很好的编程设计思想。好好学起来!

5.2.1. TcpConnection对象的析构问题:

这里在提示一下EventLoop::runInLoop()函数的意义,假如你有一个EventLoop对象 loop_,当你调用了loop_->runInLoop(function)函数时,这个function函数的执行会在这个loop_绑定的线程上运行!

所以我们画了下面这幅图,在创建TcpConnection对象时,Acceptor都要将这个对象分发给一个Sub EventLoop来管理。这个TcpConnection对象的一切函数执行都要在其管理的Sub EventLoop线程中运行。再一次贯彻One Loop Per Thread的设计模式。比如要想彻底删除一个TcpConnection对象,就必须要调用这个对象的connecDestroyed()方法,这个方法执行完后才能释放这个对象的堆内存。每个TcpConnection对象的connectDestroyed()方法都必须在这个TcpConnection对象所属的Sub EventLoop绑定的线程中执行。

所有上面的TcpServer::~TcpServer()函数就是干这事儿的,不断循环的让这个TcpConnection对象所属的Sub EventLoop线程执行TcpConnection::connectDestroyed()函数,同时在Main EventLoop的TcpServer::~TcpServer()函数中调用item.second.reset()释放保管TcpConnection对象的共享智能指针,以达到释放TcpConnection对象的堆内存空间的目的。

但是这里面其实有一个问题需要解决,TcpConnection::connectDestroyed()函数的执行以及这个TcpConnection对象的堆内存释放操作不在同一个线程中运行,所以要考虑怎么保证一个TcpConnectino对象的堆内存释放操作是在TcpConnection::connectDestroyed()调用完后。

这个析构函数巧妙利用了共享智能指针的特点,当没有共享智能指针指向这个TcpConnection对象时(引用计数为0),这个TcpConnection对象就会被析构删除(堆内存释放)。

我们解读一下TcpServer::~TcpServer()中的代码逻辑:

TcpServer::~TcpServer()
{
for(auto &item : connections_)
{
TcpConnectionPtr conn(item.second);
item.second.reset(); // 把原始的智能指针复位 让栈空间的TcpConnectionPtr conn指向该对象 当conn出了其作用域 即可释放智能指针指向的对象
// 销毁连接
conn->getLoop()->runInLoop(
std::bind(&TcpConnection::connectDestroyed, conn));
}
}
  • 首先TcpServer::connections_是一个unordered_map<string, TcpConnectionPtr>,其中TcpConnectionPtr的含义是指向TcpConnection的shared_ptr。

  • 在一开始,每一个TcpConnection对象都被一个共享智能指针TcpConnetionPtr持有,当执行了TcpConnectionPtr conn(item.second)时,这个TcpConnetion对象就被conn和这个item.second共同持有,但是这个conn的生存周期很短,只要离开了当前的这一次for循环,conn就会被释放。

  • 紧接着调用item.second.reset()释放掉TcpServer中保存的该TcpConnectino对象的智能指针。此时在当前情况下,只剩下conn还持有这个TcpConnection对象,因此当前TcpConnection对象还不会被析构。

  • 接着调用了conn->getLoop()->runInLoop(bind(&TcpConnection::connectDestroyed, conn));这句话的含义是让Sub EventLoop线程去执行TcpConnection::connectDestroyed()函数。当你把这个conn的成员函数传进去的时候,conn所指向的资源的引用计数会加1。因为传给runInLoop的不只有函数,还有这个函数所属的对象conn。

  • Sub EventLoop线程开始运行TcpConnection::connectDestroyed()函数。

  • Main EventLoop线程当前这一轮for循环跑完,共享智能指针conn离开代码块,因此被析构,但是TcpConnection对象还不会被释放,因为还有一个共享智能指针指向这个TcpConnection对象,而且这个智能指针在TcpConnection::connectDestroyed()中,只不过这个智能指针你看不到,它在这个函数中是一个隐式的this的存在。当这个函数执行完后,智能指针就真的被释放了。到此,就没有任何智能指针指向这个TcpConnection对象了。TcpConnection对象就彻底被析构删除了。

5.2.2. 如果TcpConnection中有正在发送的数据,怎么保证在触发TcpConnection关闭机制后,能先让TcpConnection先把数据发送完再释放TcpConnection对象的资源?

这个问题就要好好参考这部分代码的设计了,这部分代码也是很值得吸收的精华。

/******* TcpConnection.cc *******/
// 连接建立
void TcpConnection::connectEstablished()
{
setState(kConnected);
channel_->tie(shared_from_this());
channel_->enableReading(); // 向poller注册channel的EPOLLIN读事件 // 新连接建立 执行回调
connectionCallback_(shared_from_this());
}

我们先了解一下shared_from_this()是什么意思,首先TcpConnection类继承了一个类,继承了这个类之后才能使用shared_from_this()函数。

class TcpConnection : noncopyable, public std::enable_shared_from_this<TcpConnection>

假如我们在TcpConnection对象(我们管这个对象叫TCA)中的成员函数中调用了shared_from_this(),该函数可以返回一个shared_ptr,并且这个shared_ptr指向的对象是TCA。接着这个shared_ptr就作为channel_的Channel::tie()函数的函数参数。

/******* Channel.h  ********/
std::weak_ptr<void> tie_; /******* Channel.cc ********/
// channel的tie方法什么时候调用过? TcpConnection => channel
/**
* TcpConnection中注册了Chnanel对应的回调函数,传入的回调函数均为TcpConnection
* 对象的成员方法,因此可以说明一点就是:Channel的结束一定早于TcpConnection对象!
* 此处用tie去解决TcoConnection和Channel的生命周期时长问题,从而保证了Channel对
* 象能够在TcpConnection销毁前销毁。
**/
void Channel::tie(const std::shared_ptr<void> &obj)
{
tie_ = obj;
tied_ = true;
} void Channel::handleEvent(Timestamp receiveTime)
{
if (tied_)
{
std::shared_ptr<void> guard = tie_.lock();
if (guard)
{
handleEventWithGuard(receiveTime);
}
// 如果提升失败了 就不做任何处理 说明Channel的TcpConnection对象已经不存在了
}
else
{
handleEventWithGuard(receiveTime); //我实在不知道啥情况下会走到这里 希望有知道的大佬可以评论区告诉我
}
}

当事件监听器返回监听结果,就要对每一个发生事件的channel对象调用他们的HandlerEvent()函数。在这个HandlerEvent函数中,会先把tie_这个weak_ptr提升为强共享智能指针。这个强共享智能指针会指向当前的TcpConnection对象。就算你外面调用删除析构了其他所有的指向该TcpConnection对象的智能指针。你只要handleEventWithGuard()函数没执行完,你这个TcpConnetion对象都不会被析构释放堆内存。而handleEventWithGuard()函数里面就有负责处理消息发送事件的逻辑。当handleEventWithGuard()函数调用完毕,这个guard智能指针就会被释放。

线程篇

One Loop Per Thread的含义就是,一个EventLoop和一个线程唯一绑定,和这个EventLoop有关的,被这个EventLoop管辖的一切操作都必须在这个EventLoop绑定线程中执行,比如在Main EventLoop中,负责新连接建立的操作都要在Main EventLoop线程中运行。已建立的连接分发到某个Sub EventLoop上,这个已建立连接的任何操作,比如接收数据发送数据,连接断开等事件处理都必须在这个Sub EventLoop线程上运行,还不准跑到别的Sub EventLoop线程上运行。那这到底到底怎么实现的呢?这里终于有机会讲了。


1. 预备知识:eventfd()的使用

/* eventfd - create a file descriptor for event notification */
#include <sys/eventfd.h>
int eventfd(unsigned int initval, int flags);

调用函数eventfd()会创建一个eventfd对象,或者也可以理解打开一个eventfd类型的文件,类似普通文件的open操作。eventfd的在内核空间维护一个无符号64位整型计数器, 初始化为initval的值。

flags是以下三个标志位或运算的结果:

  • EFD_CLOEXEC(since Linux 2.6.27):eventfd()返回一个文件描述符,如果该进程被fork的时候,这个文件描述符也会被复制过去,这个时候就会有多个描述符指向同一个eventfd对象,如果设置了这个标志,则子进程在执行exec的时候,会自动清除掉父进程的这个文件描述符。
  • EFD_NONBLOCK(since Linux 2.6.27):文件描述符会被设置为O_NONBLOCK,如果没有设置这个标志位,read操作的时候将会阻塞直到计数器中有值,如果设置了这个这个标志位,计数器没有值得时候也会立刻返回-1
  • EFD_SEMAPHORE(since Linux 2.6.30):这个标志位会影响read操作。后面讲。

使用方法:

  • write向eventfd中写值

    • 如果写入的值和 < 0xFFFFFFFFFFFFFFFE,则写入成功。
    • 如果 > 0xFFFFFFFFFFFFFFFE
      • 设置了EFD_NONBLOCK标志位,则直接返回-1
      • 没有设置EFD_NONBLOCK标志位,就会一直阻塞到read操作执行。
  • read读取eventfd的值:
    • 如果计数器中的值 > 0

      • 设置了EFD_SEMAPHORE标志位,则返回1,且计数器的值减去1
      • 没有设置EFD_SEMAPHORE标志位,则返回计数器中的值,并且设置计数器值为0
    • 如果计数器中的值 = 0
      • 设置了EFD_NONBLOCK标志位就直接返回-1
      • 没有设置EFD_NONBLOCK标志位就会一直阻塞直到计数器中的值大于0

2. 如何保证一个EventLoop对象和一个线程唯一绑定(该线程只能绑定一个EventLoop对象,该EventLoop对象也必须绑定一个线程)

下面是EventLoop构造函数(我把不相关的代码全删了,只保留部分逻辑代码)

/****** EventLoop.cc ******/
// 防止一个线程创建多个EventLoop
__thread EventLoop *t_loopInThisThread = nullptr; EventLoop::EventLoop()
: wakeupFd_(createEventfd()) //生成一个eventfd,每个EventLoop对象,都会有自己的eventfd
, wakeupChannel_(new Channel(this, wakeupFd_))
{
LOG_DEBUG("EventLoop created %p in thread %d\n", this, threadId_);
if (t_loopInThisThread) //如果当前线程已经绑定了某个EventLoop对象了,那么该线程就无法创建新的EventLoop对象了
{
LOG_FATAL("Another EventLoop %p exists in this thread %d\n", t_loopInThisThread, threadId_);
}
else
{
t_loopInThisThread = this;
}
wakeupChannel_->setReadCallback(
std::bind(&EventLoop::handleRead, this)); // 设置wakeupfd的事件类型以及发生事件后的回调操作
wakeupChannel_->enableReading(); // 每一个EventLoop都将监听wakeupChannel_的EPOLL读事件了
}

介绍一下这个__thread,这个__thread是一个关键字,被这个关键字修饰的全局变量t_loopInThisThread会具备一个属性,那就是该变量在每一个线程内都会有一个独立的实体。因为一般的全局变量都是被同一个进程中的多个线程所共享,但是这里我们不希望这样。

在EventLoop对象的构造函数中,如果当前线程没有绑定EventLoop对象,那么t_loopInThisThreadnullptr,然后就让该指针变量指向EventLoop对象的地址。如果t_loopInThisThread不为nullptr,说明当前线程已经绑定了一个EventLoop对象了,这时候EventLoop对象构造失败!


3. Muduo库如何实现每个EventLoop线程只运行隶属于该EventLoop的操作?

这个小标题有点拗口,这一小节主要解决这样的一个问题,比如在MainEventLoop中,负责新连接建立的操作都要在MainEventLoop线程中运行。已建立的连接分发到某个SubEventLoop上之后,这个已建立连接的任何操作,比如接收数据发送数据,连接断开等事件处理都必须在这个SubEventLoop线程上运行,不准跑到别的SubEventLoop线程上运行。

EventLoop构造函数的初始化列表中,如下所示(省略了部分代码):

/* 创建线程之后主线程和子线程谁先运行是不确定的。
* 通过一个eventfd在线程之间传递数据的好处是多个线程无需上锁就可以实现同步。
* eventfd支持的最低内核版本为Linux 2.6.27,在2.6.26及之前的版本也可以使用eventfd,但是flags必须设置为0。
* 函数原型:
* #include <sys/eventfd.h>
* int eventfd(unsigned int initval, int flags);
* 参数说明:
* initval,初始化计数器的值。
* flags, EFD_NONBLOCK,设置socket为非阻塞。
* EFD_CLOEXEC,执行fork的时候,在父进程中的描述符会自动关闭,子进程中的描述符保留。
* 场景:
* eventfd可以用于同一个进程之中的线程之间的通信。
* eventfd还可以用于同亲缘关系的进程之间的通信。
* eventfd用于不同亲缘关系的进程之间通信的话需要把eventfd放在几个进程共享的共享内存中(没有测试过)。
*/
// 创建wakeupfd 用来notify唤醒subReactor处理新来的channel
int createEventfd()
{
int evtfd = ::eventfd(0, EFD_NONBLOCK | EFD_CLOEXEC);
if (evtfd < 0) //eventfd创建失败,一般不会失败,除非一个进程把文件描述符(Linux一个进程最多1024个)全用光了。
{
LOG_FATAL("eventfd error:%d\n", errno);
}
return evtfd;
} EventLoop::EventLoop()
: wakeupFd_(createEventfd()) //生成一个eventfd,每个EventLoop对象,都会有自己的eventfd
...
{...}

在EventLoop的初始化列表中:

  • createEventfd()返回一个eventfd文件描述符,并且该文件描述符设置为非阻塞和子进程不拷贝模式。该eventfd文件描述符赋给了EventLoop对象的成员变量wakeupFd_
  • 随即将wakeupFd_用Channel封装起来,得到wakeupChannel_。接着在EventLoop构造函数中。

我们来描绘一个情景,我们知道每个EventLoop线程主要就是在执行其EventLoop对象的loop函数(该函数就是一个while循环,循环的获取事件监听器的结果以及调用每一个发生事件的Channel的事件处理函数)。此时Sub EventLoop上注册的TCP连接都没有任何动静,整个Sub EventLoop线程就阻塞在epoll_wait()上。

此时Main EventLoop接受了一个新连接请求,并把这个新连接封装成一个TcpConnection对象,并且希望在Sub EventLoop线程中执行TcpConnection::connectEstablished()函数,因为该函数的目的是将TcpConnection注册到Sub EventLoop的事件监听器上,并且调用用户自定义的连接建立后的处理函数。当该TcpConnection对象注册到Sub EventLoop之后,这个TcpConnection对象的任何操作(包括调用用户自定义的连接建立后的处理函数。)都必须要在这个Sub EventLoop线程中运行,所以TcpConnection::connectEstablished()函数必须要在Sub EventLoop线程中运行。

那么我们怎么在Main EventLoop线程中通知Sub EventLoop线程起来执行TcpConnection::connectEstablished()函数呢?这里就要好好研究一下EventLoop::runInLoop()函数了。

// 在当前loop中执行cb
void EventLoop::runInLoop(Functor cb)
{
if (isInLoopThread()) // 如果当前调用runInLoop的线程正好是EventLoop的运行线程,则直接执行此回调函数
{
cb();
}
else // 在非当前EventLoop线程中执行cb,就需要唤醒EventLoop所在线程执行cb
{
queueInLoop(cb);
}
} // 把cb放入队列中 唤醒loop所在的线程执行cb
void EventLoop::queueInLoop(Functor cb)
{
{
std::unique_lock<std::mutex> lock(mutex_);
pendingFunctors_.emplace_back(cb);
} /**
* || callingPendingFunctors的意思是 当前loop正在执行回调中 但是loop的pendingFunctors_中又加入了新的回调 需要通过wakeup写事件
* 唤醒相应的需要执行上面回调操作的loop的线程 让loop()下一次poller_->poll()不再阻塞(阻塞的话会延迟前一次新加入的回调的执行),然后
* 继续执行pendingFunctors_中的回调函数
**/
if (!isInLoopThread() || callingPendingFunctors_)
{
wakeup(); // 唤醒loop所在线程
}
} // 用来唤醒loop所在线程 向wakeupFd_写一个数据 wakeupChannel就发生读事件 当前loop线程就会被唤醒
void EventLoop::wakeup()
{
uint64_t one = 1;
ssize_t n = write(wakeupFd_, &one, sizeof(one));
if (n != sizeof(one))
{
LOG_ERROR("EventLoop::wakeup() writes %lu bytes instead of 8\n", n);
}
} // 开启事件循环
void EventLoop::loop()
{
looping_ = true;
quit_ = false; LOG_INFO("EventLoop %p start looping\n", this); while (!quit_)
{
activeChannels_.clear();
pollRetureTime_ = poller_->poll(kPollTimeMs, &activeChannels_);
for (Channel *channel : activeChannels_)
{
// Poller监听哪些channel发生了事件 然后上报给EventLoop 通知channel处理相应的事件
channel->handleEvent(pollRetureTime_);
}
/**
* 执行当前EventLoop事件循环需要处理的回调操作 对于线程数 >=2 的情况 IO线程 mainloop(mainReactor) 主要工作:
* accept接收连接 => 将accept返回的connfd打包为Channel => TcpServer::newConnection通过轮询将TcpConnection对象分配给subloop处理
*
* mainloop调用queueInLoop将回调加入subloop(该回调需要subloop执行 但subloop还在poller_->poll处阻塞) queueInLoop通过wakeup将subloop唤醒
**/
doPendingFunctors();
}
LOG_INFO("EventLoop %p stop looping.\n", this);
looping_ = false;
} void EventLoop::doPendingFunctors()
{
std::vector<Functor> functors;
callingPendingFunctors_ = true; {
std::unique_lock<std::mutex> lock(mutex_);
functors.swap(pendingFunctors_); // 交换的方式减少了锁的临界区范围 提升效率 同时避免了死锁 如果执行functor()在临界区内 且functor()中调用queueInLoop()就会产生死锁
} for (const Functor &functor : functors)
{
functor(); // 执行当前loop需要执行的回调操作
} callingPendingFunctors_ = false;
}

首先EventLoop::runInLoop函数接受一个可调用的函数对象Functor cb,如果当前CPU正在运行的线程就是该EventLoop对象绑定的线程,那么就直接执行cb函数。否则就把cb传给queueInLoop()函数。

在queueInLoop()函数中主要就是把cb这个可调用对象保存在EventLoop对象的pendingFunctors_这个数组中,我们希望这个cb能在某个EventLoop对象所绑定的线程上运行,但是由于当前CPU执行的线程不是我们期待的这个EventLoop线程,我们只能把这个可调用对象先存在这个EventLoop对象的数组成员pendingFunctors_中。

再把目光转移到上面代码中的EventLoop::loop()函数中,我们知道EventLoop::loop()肯定运行在其所绑定的EventLoop线程内,在该函数内会调用doPendingFunctors()函数,这个函数就是把自己这个EventLoop对象中的pendingFunctors_数组中保存的可调用对象拿出来执行。pendingFunctors_中保存的是其他线程希望你这个EventLoop线程执行的函数。那么问题来了,假如EventLoop A线程阻塞在EventLoop::loop()中的epoll_wait()调用上(EventLoop A上监听的文件描述符没有任何事件发生),这时候EventLoop线程要求EventLoop A赶紧执行某个函数,那其他线程要怎么唤醒这个阻塞住的EventLoop A线程呢?这时候我们就要把目光聚焦在上面的wakeup()函数了。

wakeup()函数就是向我们想唤醒的线程所绑定的EventLoop对象持有的wakeupFd_随便写入一个8字节数据,因为wakeupFd_已经注册到了这个EventLoop中的事件监听器上,这时候事件监听器监听到有文件描述符的事件发生,epoll_wait()阻塞结束而返回。这就相当于起到了唤醒线程的作用!你这个EventLoop对象既然阻塞在事件监听上,那我就通过wakeup()函数给你这个EventLoop对象一个事件,让你结束监听阻塞。

关于这个EventLoop::doPendingFunctors()函数这部分实现,也值得去学习!

试想一个问题,如果当前线程要去执行消费该线程EventLoop对应的任务队列里的回调函数,此时又有新的回调函数想加入到该队列中,那我们肯定没办法一边去遍历队列来执行消费任务队列中的回调函数,一边向任务队列加入新的任务,我们需要首先对队列加锁,执行完队列中的任务后再去解锁,然后再让其他回调函数能够加入到任务队列。但是这样肯定是不可行的,其效率是非常低的,如下图所示:

所以引发了我的思考,我认为如何优化锁这件事情对提升程序执行效率是非常重要的,需要考虑到以下两点:

  • 如何减少锁的临界区大小(锁住的代码范围)
  • 如何用尽可能少的时间去持有锁

以上两种方式的目的就是尽可能少的在代码里产生互斥,这样的话,代码的执行效率就会得到提升。那么陈硕是如何解决上面对整体队列加锁的情况呢?我们来看下代码吧:

void EventLoop::doPendingFunctors()
{
std::vector<Functor> functors;
callingPendingFunctors_ = true; {
std::unique_lock<std::mutex> lock(mutex_);
functors.swap(pendingFunctors_); // 交换的方式减少了锁的临界区范围 提升效率 同时避免了死锁 如果执行functor()在临界区内 且functor()中调用queueInLoop()就会产生死锁
} for (const Functor &functor : functors)
{
functor(); // 执行当前loop需要执行的回调操作
} callingPendingFunctors_ = false;
}

陈硕在doPendingFunctors()函数中,创建了一个栈空间的任务队列functors,然后对pendingFunctors_进行加锁仅仅只是为了将其队列中的回调函数换出到栈空间任务队列functors当中。换出完毕后遍历栈空间任务队列,并在栈空间任务队列中执行相应的回调任务,而pendingFunctors_则很快的解除互斥锁的持有,能够更加迅速的响应外部,让回调函数尽快加入到该任务队列中。

当然还有一种情况我还没有说到,那就是如果我们没有按照陈硕的做法去做,而是回到最开始所想的,先加锁,在持有锁的过程中遍历任务队列挨个儿执行注册的回调函数,此时如果某个回调函数需要持有锁,那岂不是当下就会发生死锁了?这个地方需要仔细想想,因为你既要在遍历任务队列前持有锁,又要在执行任务的时候持有锁,显然前者已经抢占到了该锁,那回调函数就会一直阻塞,既然如此,任务队列的遍历执行操作也会一直阻塞下去。所以陈硕的解决方案不仅仅提高了锁的效率,也避免了死锁的发生,这个地方还是非常值得学习的!

总结

那么以上就是我在学习陈硕muduo网络库的时候,觉得非常精髓的一些知识点,想着就对其进行下汇总和梳理,避免遗忘的同时,也能拿出来经常复习品味,好的代码值得反复去学习。那么上述总结和梳理中如果哪里有问题,也欢迎大家评论区指正,我会虚心学习和交流。

长文梳理muduo网络库核心代码、剖析优秀编程细节的更多相关文章

  1. muduo 网络库学习之路(一)

    前提介绍: 本人是一名大三学生,主要使用C++开发,兴趣是高性能的服务器方面. 网络开发离不开网络库,所以今天开始学一个新的网络库,陈老师的muduo库 我参考的书籍就是陈老师自己关于muduo而编著 ...

  2. muduo网络库使用心得

    上个月看了朋友推荐的mudo网络库,下完代码得知是国内同行的开源作品,甚是敬佩.下了mudo使用手冊和035版的代码看了下结构,感觉是一个比較成熟并且方便使用的网络库.本人手头也有自己的网络库,尽管不 ...

  3. muduo网络库架构总结

    目录 muduo网络库简介 muduo网络库模块组成 Recator反应器 EventLoop的两个组件 TimerQueue定时器 Eventfd Connector和Acceptor连接器和监听器 ...

  4. muduo网络库源码学习————Timestamp.cc

    今天开始学习陈硕先生的muduo网络库,moduo网络库得到很多好评,陈硕先生自己也说核心代码不超过5000行,所以我觉得有必要拿过来好好学习下,学习的时候在源码上面添加一些自己的注释,方便日后理解, ...

  5. muduo网络库学习笔记(三)TimerQueue定时器队列

    目录 muduo网络库学习笔记(三)TimerQueue定时器队列 Linux中的时间函数 timerfd简单使用介绍 timerfd示例 muduo中对timerfd的封装 TimerQueue的结 ...

  6. Muduo网络库实战(二):实现服务器与客户端的连接

    1. 方案的确定 1)基本需求 用户1000+, IO压力不大: 多个客户端打开网站,输入查询字符串strclient,发送给服务器=>服务器接收客户端发过来的数据并处理,将结果返回给客户端: ...

  7. muduo网络库学习笔记(五) 链接器Connector与监听器Acceptor

    目录 muduo网络库学习笔记(五) 链接器Connector与监听器Acceptor Connector 系统函数connect 处理非阻塞connect的步骤: Connetor时序图 Accep ...

  8. muduo网络库学习笔记(四) 通过eventfd实现的事件通知机制

    目录 muduo网络库学习笔记(四) 通过eventfd实现的事件通知机制 eventfd的使用 eventfd系统函数 使用示例 EventLoop对eventfd的封装 工作时序 runInLoo ...

  9. 陈硕 - Linux 多线程服务端编程 - muduo 网络库作者

    http://chenshuo.com/book/ Muduo网络库源码分析(一) EventLoop事件循环(Poller和Channel)http://blog.csdn.net/nk_test/ ...

随机推荐

  1. ModelBox开发体验:使用YOLOv3做口罩检测

    摘要:本案例将在ModelBox中使用YOLO v3模型,实现一个简单的口罩检测应用 本文分享自华为云社区<ModelBox开发体验Day05开发案例-使用YOLOv3做口罩检测>,作者: ...

  2. Python自学教程8-数据类型有哪些注意事项

    不知不觉,python自学教程已经更新到第八篇了,再有几篇,基本的语法就介绍完了. 今天来总结一下数据类型有哪些需要注意的地方. 元组注意事项 元组是另一种经常使用到的数据类型,看上去和列表差不多.它 ...

  3. k8s中ingress,service,depoyment,pod如何关联

    k8s中pod通过label标签名称来识别关联,它们的label  name一定是一样的.ingress,service,depoyment通过selector 中app:name来关联 1.查询发布 ...

  4. hadoop 不在 sudoers 文件中,此事将被报告。

    问题来源: 使用sudo命令,让hadoop用户使用root身份执行命令时报错: [hadoop@mydocker ~]$ sudo date [sudo] password for hadoop: ...

  5. IDEA整合Docker

    创建项目 1.使用 IDEA 构建一个 SpringBoot 项目 2.编写一个helloController @RestController public class HelloController ...

  6. SUSE Linux Enterprise Server 12 使用二进制文件安装docker

    Docker-CE in SUSE 虽然使用zypper添加源也能安装,不过我在SLES 12sp5 上安装时发现好多命令还需要自己手动软连接,干脆网上找了找文档,再自己小改下,用二进制部署,也是可以 ...

  7. 仙人指路,引而不发,Go lang1.18入门精炼教程,由白丁入鸿儒,Golang中New和Make函数的使用背景和区别EP16

    Golang只有二十五个系统保留关键字,二十几个系统内置函数,加起来只有五十个左右需要记住的关键字,纵观编程宇宙,无人能出其右.其中还有一些保留关键字属于"锦上添花",什么叫锦上添 ...

  8. 跟羽夏学 Ghidra ——初识

    写在前面   此系列是本人一个字一个字码出来的,包括示例和实验截图.本人非计算机专业,可能对本教程涉及的事物没有了解的足够深入,如有错误,欢迎批评指正. 如有好的建议,欢迎反馈.码字不易,如果本篇文章 ...

  9. Dapr 集成 Open Policy Agent

    大型项目中基本都包含有复杂的访问控制策略,特别是在一些多租户场景中,例如Kubernetes中就支持RBAC,ABAC等多种授权类型.Dapr 的 中间件 Open Policy Agent 将Reg ...

  10. 安装MySQL8 工具集

    下载地址:https://downloads.mysql.com/archives/utilities/ # wget https://downloads.mysql.com/archives/get ...