Linux C++ Reactor模式
文件结构
- reactor_main.cpp
- reactor_server.cpp
- reactor_server.h
- CMakeLists.txt
CMakeLists.txt
cmake_minimum_required(VERSION 3.10.2)
project(modern_cpp_practice)
set(CMAKE_CXX_STANDARD 17)
add_executable( reactor_main reactor_main.cpp reactor_server.cpp)
target_link_libraries(reactor_main pthread)
reactor_server.h
//
// Created by kongshui on 22-4-18.
//
#ifndef MODERN_CPP_PRACTICE_REACTOR_SERVER_H
#define MODERN_CPP_PRACTICE_REACTOR_SERVER_H
#include <list>
#include <memory>
#include <thread>
#include <mutex>
#include <array>
#include <condition_variable>
class ReactorServer
{
public:
typedef std::shared_ptr<std::thread> thread_ptr;
// 设置单例
static ReactorServer &getInstance();
~ReactorServer();
ReactorServer(const ReactorServer &server) = delete;
ReactorServer &operator=(const ReactorServer &server) = delete;
bool init(const std::string &ip, int16_t port);
bool stop();
bool closeClient(int client_fd);
void mainLoop();
private:
ReactorServer();
bool createServerListener(const std::string &ip, int16_t port);
void acceptThread();
void workerThread();
private:
static constexpr int16_t recv_buf_size = 256;
static constexpr int8_t worker_thread_num = 8;
static constexpr int16_t epoll_event_num = 1024;
private:
int listen_fd_ = 0;
int epoll_fd_ = 0;
bool init_ = false;
bool stop_ = true;
bool main_loop_ = true;
// 一个用于接受新的客户端,一个用于接收客户端发来的数据
thread_ptr accept_thread_;
std::array<thread_ptr, worker_thread_num> worker_threads_;
std::condition_variable accept_cond_;
std::mutex accept_mutex_;
std::condition_variable worker_cond_;
std::mutex worker_mutex_;
// 存在当前可用的客户端
std::list<int> clients_list_;
};
#endif //MODERN_CPP_PRACTICE_REACTOR_SERVER_H
reactor_server.cpp
//
// Created by kongshui on 22-4-18.
//
#include "reactor_server.h"
#include <iostream>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <fcntl.h>
#include <sys/epoll.h>
#include <list>
#include <unistd.h>
#include <cstring>
#include <cerrno>
ReactorServer::ReactorServer()
{
clients_list_.clear();
accept_thread_.reset();
for (auto &thread: worker_threads_)
thread.reset();
printf("ReactorServer\n");
}
ReactorServer::~ReactorServer()
{
stop();
printf("~ReactorServer\n");
}
ReactorServer &ReactorServer::getInstance()
{
static ReactorServer server;
return server;
};
bool ReactorServer::init(const std::string &ip, int16_t port)
{
if (init_)
{
printf("already init successed");
return true;
}
if (!createServerListener(ip, port))
{
printf("create server listener failed\n");
return false;
}
accept_thread_.reset(new std::thread(&ReactorServer::acceptThread, this));
for (auto &thread: worker_threads_)
thread.reset(new std::thread(&ReactorServer::workerThread, this));
init_ = true;
printf("init success\n");
return init_;
}
bool ReactorServer::stop()
{
if (stop_)
{
printf("already stop successed");
return true;
}
main_loop_ = false;
accept_cond_.notify_all();
worker_cond_.notify_all();
printf("notify all thread(accept, worker)\n");
accept_thread_->join();
for (auto &thread: worker_threads_)
thread->join();
printf("join all success(accept, worker)\n");
epoll_ctl(epoll_fd_, EPOLL_CTL_DEL, listen_fd_, nullptr);
shutdown(listen_fd_, SHUT_RDWR);
close(listen_fd_);
close(epoll_fd_);
stop_ = true;
return stop_;
}
bool ReactorServer::closeClient(int client_fd)
{
if (epoll_ctl(epoll_fd_, EPOLL_CTL_DEL, client_fd, nullptr) == -1)
printf("close client socket failed as call epoll_ctl failed\n");
close(client_fd);
return true;
}
void ReactorServer::mainLoop()
{
while (main_loop_)
{
struct epoll_event ev[epoll_event_num] = {0};
int result = epoll_wait(epoll_fd_, ev, epoll_event_num, 10);
if (result == 0)
continue;
else if (result < 0)
{
printf("epoll_wait error\n");
continue;
}
int num = result > epoll_event_num ? epoll_event_num : result;
for (int idx = 0; idx < num; ++idx)
{
if (ev[idx].data.fd == listen_fd_)
accept_cond_.notify_one();
else
{
{
std::unique_lock<std::mutex> guard(worker_mutex_);
clients_list_.push_back(ev[idx].data.fd);
}
worker_cond_.notify_one();
}
}
}
printf("main loop exit\n");
}
void ReactorServer::acceptThread()
{
while (true)
{
int new_fd = -1;
socklen_t addr_len = 0;
struct sockaddr_in client_addr{};
{
std::unique_lock<std::mutex> guard(accept_mutex_);
accept_cond_.wait(guard);
if (!main_loop_)
break;
new_fd = accept(listen_fd_, (struct sockaddr *) &client_addr, &addr_len);
}
if (new_fd == -1)
continue;
printf("new client connected: %s:%d\n", inet_ntoa(client_addr.sin_addr), ntohs(client_addr.sin_port));
int old_flag = fcntl(new_fd, F_GETFL, 0);
int new_flag = old_flag | O_NONBLOCK;
if (fcntl(new_fd, F_SETFL, new_flag) == -1)
{
printf("fcntl error, old_flag = %d, new_flag = %d\n", old_flag, new_flag);
continue;
}
struct epoll_event ev{};
ev.events = EPOLLIN | EPOLLRDHUP | EPOLLET;
ev.data.fd = new_fd;
if (epoll_ctl(epoll_fd_, EPOLL_CTL_ADD, ev.data.fd, &ev) == -1)
printf("epoll_ctl error, fd = %d\n", ev.data.fd);
}
printf("accept thread exit\n");
}
void ReactorServer::workerThread()
{
while (true)
{
int client_fd = -1;
{
std::unique_lock<std::mutex> gurad(worker_mutex_);
while (clients_list_.empty())
{
if (!main_loop_)
{
printf("worker thread exit\n");
return;
}
worker_cond_.wait(gurad);
}
client_fd = clients_list_.front();
clients_list_.pop_front();
}
std::string client_msg;
bool error = false;
char buf[recv_buf_size] = {0};
while (true)
{
memset(buf, 0, sizeof(buf));
int result = recv(client_fd, buf, recv_buf_size, 0);
if (result == -1)
{
if (errno == EWOULDBLOCK)
break;
else
{
printf("recv error, client disconnected, fd = %d\n", client_fd);
closeClient(client_fd);
error = true;
break;
}
} else if (result == 0)
{
printf("peer closed, client disconnected, fd = %d\n", client_fd);
closeClient(client_fd);
error = true;
break;
}
client_msg += buf;
}
if (error)
continue;
printf("client msg: %s\n", client_msg.c_str());
client_msg += " test send";
int result = send(client_fd, client_msg.c_str(), client_msg.length(), 0);
if (result == -1)
{
if (errno == EWOULDBLOCK)
{
std::this_thread::sleep_for(std::chrono::milliseconds(10));
continue;
} else
{
printf("send error, fd = %d\n", client_fd);
closeClient(client_fd);
break;
}
}
}
}
bool ReactorServer::createServerListener(const std::string &ip, int16_t port)
{
listen_fd_ = socket(AF_INET, SOCK_STREAM | SOCK_NONBLOCK, 0);
if (listen_fd_ == -1)
return false;
int on = 1;
setsockopt(listen_fd_, SOL_SOCKET, SO_REUSEADDR, (char *) &on, sizeof(on));
setsockopt(listen_fd_, SOL_SOCKET, SO_REUSEPORT, (char *) &on, sizeof(on));
struct sockaddr_in server_addr{};
server_addr.sin_family = AF_INET;
server_addr.sin_addr.s_addr = inet_addr(ip.c_str());
server_addr.sin_port = htons(port);
if (bind(listen_fd_, (sockaddr *) &server_addr, sizeof(server_addr)) == -1)
{
printf("bind failed\n");
return false;
}
if (listen(listen_fd_, 50) == -1)
{
printf("listen failed\n");
return false;
}
epoll_fd_ = epoll_create(1);
if (epoll_fd_ == -1)
{
printf("epoll_create failed\n");
return false;
}
struct epoll_event ev{};
ev.events = EPOLLIN | EPOLLRDHUP;
ev.data.fd = listen_fd_;
if (epoll_ctl(epoll_fd_, EPOLL_CTL_ADD, listen_fd_, &ev) == -1)
return false;
return true;
}
reactor_main.cpp
//
// Created by kongshui on 22-4-18.
//
#include "reactor_server.h"
int main()
{
if (!ReactorServer::getInstance().init("0.0.0.0", 3333))
return -1;
ReactorServer::getInstance().mainLoop();
return 0;
}
参考链接
Linux C++ Reactor模式的更多相关文章
- 【Linux 网络编程】生动讲解 Reactor 模式与 Proactor 模式
五种 I/O 模型 先花费点时间了解这几种 I/O 模型,有助于后面的理解. 阻塞 I/O 与非阻塞 I/O 阻塞和非阻塞的概念能应用于所有的文件描述符,而不仅仅是 socket.我们称阻塞的文件描述 ...
- 知识联结梳理 : I/O多路复用、EPOLL(SELECT/POLL)、NIO、Event-driven、Reactor模式
为了形成一个完整清晰的认识,将概念和关系梳理出来,把坑填平. I/O多路复用 I/O多路复用主要解决传统I/O单线程阻塞的问题.它通过单线程管理多个FD,当监听的FD有状态变化的时候的,调用回调函数, ...
- Reactor模式详解
转自:http://www.blogjava.net/DLevin/archive/2015/09/02/427045.html 前记 第一次听到Reactor模式是三年前的某个晚上,一个室友突然跑过 ...
- Reactor模式解析——muduo网络库
最近一段时间阅读了muduo源码,读完的感受有一个感受就是有点乱.当然不是说代码乱,是我可能还没有完全消化和理解.为了更好的学习这个库,还是要来写一些东西促进一下. 我一边读一边尝试在一些地方改用c+ ...
- Reactor模式
对象行为类的设计模式,对同步事件分拣和派发.别名Dispatcher(分发器) Reactor模式是处理并发I/O比较常见的一种模式,用于同步I/O,中心思想是将所有要处理的I/O事件注册到一个中心I ...
- C++服务器设计(一):基于I/O复用的Reactor模式
I/O模型选择 在网络服务端编程中,一个常见的情景是服务器需要判断多个已连接套接字是否可读,如果某个套接字可读,则读取该套接字数据,并进行进一步处理. 在最常用的阻塞式I/O模型中,我们对每个连接套接 ...
- 公布一个基于 Reactor 模式的 C++ 网络库
公布一个基于 Reactor 模式的 C++ 网络库 陈硕 (giantchen_AT_gmail) Blog.csdn.net/Solstice 2010 Aug 30 本文主要介绍 muduo 网 ...
- libevent之Reactor模式
通过前边的一篇博文轻量级网络库libevent初探,我们知道libevent实际上是封装了不同操作系统下的/dev/poll.kqueue.event ports.select.poll和epoll事 ...
- 也谈Reactor模式
何谓Reactor模式?它是实现高性能IO的一种设计模式.网上资料有很多,有些写的也很好,但大多不知其所以然.这里博主按自己的思路简单介绍下,有不对的地方敬请指正. BIO Java1.4(2002年 ...
随机推荐
- idea中将已有项目转变为git项目,并提交到git服务器上
idea中将已有项目转变为git项目,并提交到git服务器上 前言 有时候,本地有个项目不错,想要分享到github或者码云上,我们就会有这样的需求:项目在本地已经存在(可能不是git项目),又想提交 ...
- Http请求的Get和Post的区别?
1. get从地址栏以明文的方式提交请求信息内容?username=admin&password=123,用户可见, 而post从请求正文提交请求信息内容,用户不可见. 2. get提交因为是 ...
- 解释基于XML Schema方式的切面实现?
在这种情况下,切面由常规类以及基于XML的配置实现.
- 为什么 wait(), notify()和 notifyAll ()必须在同步方法或 者同步块中被调用?
当一个线程需要调用对象的 wait()方法的时候,这个线程必须拥有该对象的锁,接 着它就会释放这个对象锁并进入等待状态直到其他线程调用这个对象上的 notify() 方法.同样的,当一个线程需要调用对 ...
- 面试问题之C++语言:C与C++的区别
C是C++的基础,C++语言和C语言在很多方面是兼容的. C是结构化语言,它的重点在于算法和数据结构.C程序的设计首要考虑的是如何通过一个过程,对输入(或环境条件)进行运算处理得到输出或实现过程(事务 ...
- Idea中使用Lombok 编译报找不到符号
1.问题描述 项目中使用了lombok,但是在idea编译过程是出现找不到符号.报错如下图所示: file @Data @ApiModel(value = "HeadTeacherVO& ...
- 使用 Spring 访问 Hibernate 的方法有哪些?
我们可以通过两种方式使用 Spring 访问 Hibernate: 1. 使用 Hibernate 模板和回调进行控制反转 2. 扩展 HibernateDAOSupport 并应用 AOP 拦截器节 ...
- 当心,你搞的Scrum可能是小瀑布
摘要:有的团队刚接触Scrum,一个问题令他们很困扰:迭代初期开发人员的工作较多,测试人员闲着:迭代末期开发人员闲着,测试人员的工作比较多,怎么解决资源等待的问题呢? 本文分享自华为云社区<当心 ...
- 一个模型预测控制(MPC)的简单实现
1 生活中的启示 情景如下:你们团队每天早晨开一次例会,主要会议内容是你汇报工作进度,领导根据工作目标和工作进度,制定当天的工作计划,你领到工作计划后开始工作.每天都这样周而复始,从领导的角度看,这件 ...
- 安装ESLint
安装ESLint ESLint是静态代码检查工具,配合TypeScript使用可以帮助检查TypeScript的语法和代码风格. 添加ESLint到当前工程,yarn add -D eslint. 使 ...