TCP异步服务端

核心功能和同步服务端的功能类似,例如以下:
class talk_to_client : public boost::enable_shared_from_this<talk_to_
client>
                        , boost::noncopyable {
typedef talk_to_client self_type;
       talk_to_client() : sock_(service), started_(false) {}
public:
       typedef boost::system::error_code error_code;
typedef boost::shared_ptr<talk_to_client> ptr;
       void start() {
started_ = true;

do_read(); }

       static ptr new_() {
ptr new_(new talk_to_client);
return new_;
       }
void stop() {
           if ( !started_) return;
started_ = false;
sock_.close();
       }
ip::tcp::socket & sock() { return sock_;}
...
   private:
ip::tcp::socket sock_;
enum { max_msg = 1024 };
char read_buffer_[max_msg];
char write_buffer_[max_msg];
bool started_;

};

由于我们是很easy的回显服务,这里不须要一个is_started()方法。

对每一个client,只读取它的消息,回显,然后关闭它。

do_read(),do_write()和read_complete()方法和TCP同步服务端的全然一致。
基本的逻辑相同是在on_read()和on_write()方法中:
void on_read(const error_code & err, size_t bytes) {
if ( !err) {
           std::string msg(read_buffer_, bytes);
           do_write(msg + "\n");
}

stop(); }

   void on_write(const error_code & err, size_t bytes) {
do_read();
}
对client的处理例如以下:
ip::tcp::acceptor acceptor(service, ip::tcp::endpoint(ip::tcp::v4(),
8001));
void handle_accept(talk_to_client::ptr client, const error_code & err)
{
       client->start();
talk_to_client::ptr new_client = talk_to_client::new_();
acceptor.async_accept(new_client->sock(),
           boost::bind(handle_accept,new_client,_1));
   }
int main(int argc, char* argv[]) {
       talk_to_client::ptr client = talk_to_client::new_();
acceptor.async_accept(client->sock(),
           boost::bind(handle_accept,client,_1));
service.run();

}

每一次client连接到服务时,handle_accept被调用,它会异步地从client读取。然后相同异步地等待一个新的client。

代码
你会在这本书对应的代码中得到全部4个应用(TCP回显同步client,TCP回显同步服务端。TCP回显异步client,TCP回显异步服务端)。

当測试时,你能够使用随意client/服务端组合(比方。一个异步client和一个同步服务端)。


UDP回显服务端/client
由于UDP不能保证全部信息都抵达接收者,我们不能保证“信息以回车结尾”。
没收到消息,我们仅仅是回显,可是没有socket去关闭(在服务端)。由于我们是UDP。

UDP同步回显client
UDP回显client比TCP回显client要简单:
ip::udp::endpoint ep( ip::address::from_string("127.0.0.1"), 8001);
void sync_echo(std::string msg) {
       ip::udp::socket sock(service, ip::udp::endpoint(ip::udp::v4(), 0)
);
       sock.send_to(buffer(msg), ep);
char buff[1024];
ip::udp::endpoint sender_ep;
int bytes = sock.receive_from(buffer(buff), sender_ep);
std::string copy(buff, bytes);
       std::cout << "server echoed our " << msg << ": "
<< (copy == msg ? "OK" : "FAIL") << std::endl;
       sock.close();
}
   int main(int argc, char* argv[]) {
char* messages[] = { "John says hi", "so does James", "Lucy got
   home", 0 };
boost::thread_group threads;
for ( char ** message = messages; *message; ++message) {
           threads.create_thread( boost::bind(sync_echo, *message));
           boost::this_thread::sleep( boost::posix_time::millisec(100));
}
       threads.join_all();
}
全部的逻辑都在synch_echo()中;连接到服务端,发送消息。接收服务端的回显,然后关闭连接。

UDP同步回显服务端
UDP回显服务端会是你写过的最简单的服务端:
io_service service;
void handle_connections() {
       char buff[1024];
       ip::udp::socket sock(service, ip::udp::endpoint(ip::udp::v4(),
8001));
       while ( true) {
ip::udp::endpoint sender_ep;
int bytes = sock.receive_from(buffer(buff), sender_ep);
std::string msg(buff, bytes);
sock.send_to(buffer(msg), sender_ep);

} }

   int main(int argc, char* argv[]) {
handle_connections();

}

它非常easy,并且能非常好的自释。

我把异步UDPclient和服务端留给读者当作一个练习。

总结
我们已经写了完毕的应用。终于让Boost.Asio得以工作。

回显应用是開始学习一个库时很好的工具。你能够常常学习和执行这个章节所展示的代码,这样你就能够很easy地记住这个库的基础。

在下一章,我们会建立更复杂的client/服务端应用。我们要确保避免低级错误,比方内存泄漏,死锁等等。




Boost.Asio c++ 网络编程翻译(16)的更多相关文章

  1. Boost.Asio c++ 网络编程翻译(20)

    异步服务端 这个图表是相当复杂的:从Boost.Asio出来你能够看到4个箭头指向on_accept.on_read,on_write和on_check_ping. 着也就意味着你永远不知道哪个异步调 ...

  2. Boost.Asio c++ 网络编程翻译(14)

    保持活动 假如,你须要做以下的操作: io_service service; ip::tcp::socket sock(service); char buff[512]; ... read(sock, ...

  3. Boost.Asio c++ 网络编程翻译(26)

    Boost.Asio-其他特性 这章我们讲了解一些Boost.Asio不那么为人所知的特性.标准的stream和streambuf对象有时候会更难用一些,但正如你所见.它们也有它们的益处.最后,你会看 ...

  4. Boost.Asio c++ 网络编程翻译(11)

    *_at方法 这些方法在一个流上面做随机存取操作.你来指定read和write操作从什么地方開始(offset): async_read_at(stream, offset, buffer [, co ...

  5. Boost.Asio c++ 网络编程翻译(21)

    同步VS异步 Boost.Asio的作者做了一个非常惊艳的工作:它能够让你在同步和异步中自由选择,从而更好的适应你的应用. 在之前的章节中,我们学习了每种类型应用的框架,比方同步client,同步服务 ...

  6. Boost.Asio c++ 网络编程翻译(10)

    read/write方法 这些方法对一个流进行读写操作(能够是套接字,或者其它表现的像流的类): async_read(stream, buffer [, completion],handler):这 ...

  7. Boost.Asio c++ 网络编程翻译(18)

    同步服务端 同步服务端也相当简单.它须要两个线程,一个负责接收新的client.另外一个负责处理已经存在的client. 它不能使用单线程:等带一个新的client是一个堵塞操作,所以我们须要另外一个 ...

  8. boost.asio系列——socket编程

    asio的主要用途还是用于socket编程,本文就以一个tcp的daytimer服务为例简单的演示一下如何实现同步和异步的tcp socket编程. 客户端 客户端的代码如下: #include &l ...

  9. 使用boost.asio实现网络通讯

    #include <boost/asio.hpp> #define USING_SSL //是否加密 #ifdef USING_SSL #include <boost/asio/ss ...

随机推荐

  1. 获取android的SDK或者手机目录路径

    获取android的SDK或者手机目录路径 Google为我们提供了API来获取SDK或者手机目录路径: 1.获取SD卡目录 File file1 = Environment.getExternalS ...

  2. DNS同时占用UDP和TCP端口53——传输数据超过512时候用tcp,DNS服务器可以配置仅支持UDP查询包

    DNS同时占用UDP和TCP端口53是公认的,这种单个应用协议同时使用两种传输协议的情况在TCP/IP栈也算是个另类.但很少有人知道DNS分别在什么情况下使用这两种协议. 先简单介绍下TCP与UDP. ...

  3. Spring中JdbcTemplate中使用RowMapper

    转自:https://blog.csdn.net/u012661010/article/details/70049633 1 sping中的RowMapper可以将数据中的每一行数据封装成用户定义的类 ...

  4. MVC HtmlHelper扩展——实现分页功能

    MVC HtmlHelper扩展类(PagingHelper) using System; using System.Collections.Generic; using System.Collect ...

  5. VS2005常用的快捷键分享

    VS2005代码编辑器的展开和折叠代码确实很方便和实用.以下是展开代码和折叠代码所用到的快捷键,很常用: Ctrl + M + O: 折叠所有方法 Ctrl + M + M: 折叠或者展开当前方法 C ...

  6. laydate.js时间选择

    例子: <asp:HiddenField ID="hfdDateBuid3" runat="server" /> <script type=& ...

  7. Codeforces Round #447

    QAQ #include<stdio.h> #include<string.h> #include<stdlib.h> #include<vector> ...

  8. canvas的常用api

    canvas 标签 <canvas width="600" height="400" id="canvas"></canv ...

  9. SQL Server-数据库架构和对象、定义数据完整性

    前言 本节我们继续SQL之旅,本节我们如题来讲讲一些基本知识以及需要注意的地方,若有不妥之处,还望指出,简短的内容,深入的理解,Always to review the basics. 数据库架构和对 ...

  10. Openwrt PPTP Server笔记

    1.安装PPTP opkg updateopkg install kmod-mppeopkg install pptpd 2./etc/pptpd.conf option /etc/ppp/optio ...