Boost.Asio 有两种支持多线程的方式,第一种方式比较简单:在多线程的场景下,每个线程都持有一个io_service,并且每个线程都调用各自的io_service的run()方法。
另一种支持多线程的方式:全局只分配一个io_service,并且让这个io_service在多个线程之间共享,每个线程都调用全局的io_service的run()方法。
每个线程一个 I/O Service
让我们先分析第一种方案:在多线程的场景下,每个线程都持有一个io_service (通常的做法是,让线程数和 CPU 核心数保持一致)。那么这种方案有什么特点呢?
1 在多核的机器上,这种方案可以充分利用多个 CPU 核心。
2 某个 socket 描述符并不会在多个线程之间共享,所以不需要引入同步机制。
3 在 event handler 中不能执行阻塞的操作,否则将会阻塞掉io_service所在的线程。
下面我们实现了一个AsioIOServicePool,封装了线程池的创建操作:
class AsioIOServicePool { public: using IOService = boost::asio::io_service; using Work = boost::asio::io_service::work; using WorkPtr = std::unique_ptr<Work>; AsioIOServicePool(std::size_t size = std::thread::hardware_concurrency()) : ioServices_(size), works_(size), nextIOService_(0) { for (std::size_t i = 0; i < size; ++i) { works_[i] = std::unique_ptr<Work>(new Work(ioServices_[i])); } for (std::size_t i = 0; i < ioServices_.size(); ++i) { threads_.emplace_back([this, i] () { ioServices_[i].run(); }); } } AsioIOServicePool(const AsioIOServicePool &) = delete; AsioIOServicePool &operator=(const AsioIOServicePool &) = delete; // 使用 round-robin 的方式返回一个 io_service boost::asio::io_service &getIOService() { auto &service = ioServices_[nextIOService_++]; if (nextIOService_ == ioServices_.size()) { nextIOService_ = 0; } return service; } void stop() { for (auto &work: works_) { work.reset(); } for (auto &t: threads_) { t.join(); } } private: std::vector<IOService> ioServices_; std::vector<WorkPtr> works_; std::vector<std::thread> threads_; std::size_t nextIOService_; };
AsioIOServicePool使用起来也很简单:
std::mutex mtx; // protect std::cout AsioIOServicePool pool; boost::asio::steady_timer timer{pool.getIOService(), std::chrono::seconds{2}}; timer.async_wait([&mtx] (const boost::system::error_code &ec) { std::lock_guard<std::mutex> lock(mtx); std::cout << "Hello, World! " << std::endl; }); pool.stop();
一个 I/O Service 与多个线程
另一种方案则是先分配一个全局io_service,然后开启多个线程,每个线程都调用这个io_service的run()方法。这样,当某个异步事件完成时,io_service就会将相应的 event handler 交给任意一个线程去执行。
然而这种方案在实际使用中,需要注意一些问题:
1 在 event handler 中允许执行阻塞的操作 (例如数据库查询操作)。
2 线程数可以大于 CPU 核心数,譬如说,如果需要在 event handler 中执行阻塞的操作,为了提高程序的响应速度,这时就需要提高线程的数目。
3 由于多个线程同时运行事件循环(event loop),所以会导致一个问题:即一个 socket 描述符可能会在多个线程之间共享,容易出现竞态条件 (race condition)。譬如说,如果某个 socket 的可读事件很快发生了两次,那么就会出现两个线程同时读同一个 socket 的问题 (可以使用strand解决这个问题)。
下面实现了一个线程池,在每个 worker 线程中执行io_service的run()方法:
class AsioThreadPool { public: AsioThreadPool(int threadNum = std::thread::hardware_concurrency()) : work_(new boost::asio::io_service::work(service_)) { for (int i = 0; i < threadNum; ++i) { threads_.emplace_back([this] () { service_.run(); }); } } AsioThreadPool(const AsioThreadPool &) = delete; AsioThreadPool &operator=(const AsioThreadPool &) = delete; boost::asio::io_service &getIOService() { return service_; } void stop() { work_.reset(); for (auto &t: threads_) { t.join(); } } private: boost::asio::io_service service_; std::unique_ptr<boost::asio::io_service::work> work_; std::vector<std::thread> threads_; };
无锁的同步方式
要怎样解决前面提到的竞态条件呢?Boost.Asio 提供了io_service::strand:如果多个 event handler 通过同一个 strand 对象分发 (dispatch),那么这些 event handler 就会保证顺序地执行。
本文来自网络收集,不代表计算机技术网立场,如涉及侵权请联系管理员删除。
ctvol管理联系方式QQ:251552304
本文章地址:https://www.ctvol.com/c-cdevelopment/485036.html