1.libevent、事件深度libev框架介绍
2.网络I/O库总结(libevent,源码源码libuv,libev,libeio)
3.史上最详细的网络编程实战教程
4.Redis和Memcached的区别
libevent、libev框架介绍
本文深入讲解了libevent的剖析API,并剖析了libevent的事件深度evbuffer源码。libevent、源码源码libev和libuv都是剖析图库系统 源码C语言实现的异步事件库,主要负责注册异步事件、事件深度检测异步事件,源码源码并根据事件的剖析触发先后顺序调用相应的回调函数处理事件。这些事件包括网络I/O事件、事件深度定时事件以及信号事件,源码源码共同驱动服务器运行。剖析
libevent和libev主要封装了与操作系统交互的事件深度简单事件管理接口,让开发者无需关注平台差异,源码源码只需处理事件的剖析具体逻辑。libev改进了libevent的架构决策,如消除全局变量的使用,采用回调函数传递上下文,构建不同的数据结构以降低事件耦合性,使用最小四叉堆作为计时器,从而实现高效管理。然而,libevent和libev在window平台的支持较差,因此libuv应运而生,基于libev,尤其在window平台上更好地封装了iocp,node.js即基于libuv。
在libevent的编译安装过程中,首先从git下载release-2.1.-stable.tar.gz,然后在编译程序时指定库名:-levent。118兼职平台源码由于头文件和库文件已经复制至系统路径,因此在编译时无需额外指定-I和-L。
libevent的封装层次分为网络封装和解决的问题。网络封装包括IO检测和IO操作,解决的问题涉及连接建立(如最大连接数、黑白名单等)和连接断开,以及数据的到达与发送。如果不想手动操作IO事件,libevent会管理读写I/O处理,使开发者只需处理逻辑,无需关心边界问题。
libevent提供了事件检测与操作的封装。事件检测是低层封装,由libevent负责,用户自定义IO操作。该层次封装了事件管理器操作和事件接口。事件管理器event_base用于构建事件集合,检测事件就绪情况。释放管理器使用event_base_free,event_reinit用于重置,event_get_supported_methods查看支持的方法。
事件循环通过event_base_dispatch和event_base_loop实现,等待事件产生,提供类似epoll红黑树循环的功能。事件循环终止使用event_base_loopbreak和event_base_loopexit,前者在事件回调执行后终止,后者立即终止。
事件对象通过event_new创建,event_free销毁。同城源码哪个好注册与注销事件使用event_add和event_del,事件驱动的核心思想是libevent的核心功能。
libevent事件对象包括只使用事件检测、IO操作自处理的Demo。此外,自带缓冲的事件-bufferevent介绍其作为event的高级版本,拥有两个缓冲区和三个回调函数,分别用于读取、写入和事件处理。
bufferevent提供读写数据到缓冲区的封装,三个回调函数分别处理读取、写入和事件触发。构建、销毁bufferevent对象,以及连接操作、设置回调等。
事件类型注册与注销使用bufferevent_enable/disable,获取读写缓冲区使用bufferevent_get_input和bufferevent_get_output,数据分割使用evbuffer_readln和固定长度读取使用evbuffer_remove。
对于bufferevent,一个文件描述符对应两个缓冲区和三个回调函数,文件描述符用于与客户端通信,非监听文件描述符。两个缓冲区指读缓冲区和写缓冲区,三个回调分别对应读操作、写操作和事件触发。
链接监听器-evconnlistener封装底层socket通信函数,如socket、bind、源码有区别吗listen、accept。创建监听器后,等待新客户端连接,调用用户指定的回调函数。构建监听器使用evconnlistener_new_bind,回调函数evconnlistener_cb接收与客户端通信的描述符和连接对端地址。
信号事件在libevent中与网络事件相似,通过epoll监听。定时事件和网络事件的处理机制基于最小堆与epoll_wait,通过源码分析可深入了解流程。
evbuffer作为libevent底层实现的链式缓冲区,用于bufferevent事件中的数据读写。每个evbuffer由链表组成,包含关键成员和实现细节。evbuffer的优点在于高效处理数据移动和内存浪费,缺点是数据在不连续内存中存储,可能导致多次io。libev关注具体网络IO事件、定时事件和信号事件,提供API如ev_io_init、ev_io_start、ev_timer_start和ev_run。通过libev宏定义封装,开发者能使用与libevent类似的接口。
网络I/O库总结(libevent,libuv,libev,libeio)
Libevent
Libevent 是一个基于事件驱动模型的非阻塞网络库,用于构建高速、可移植的非阻塞 IO 应用。广泛应用于 memcached、彩虹系统源码购买Vomit、Nylon、Netchat 等项目中,作为底层网络库,用于实现 TCP 或 HTTP 服务。Libevent 的 GitHub 源码可访问。
Libev
Libev 是由 Marc Lehmann 独立完成的,对不同系统非阻塞模型进行简单封装,解决了不同 API 之间的不兼容问题,保证程序在大多数 *nix 平台上运行。Libev 支持类 UNIX 系统的多种 I/O 多路复用模型,如 select、poll、epoll、kqueue、evports 等,但对于 Windows 的支持仅限于 select 模型,效率较低,性能不如 Libuv 封装的 IOCP。Libev 目标是修复 Libevent 的一些设计问题,如避免使用全局变量,提供更高效的事件类型管理。
Libuv
Libuv 是一个跨平台、高性能、事件驱动的异步 IO 库,用 C 语言编写,封装了不同平台底层的高性能 IO 模型,如 epoll、kqueue、IOCP、event ports,具有高度可移植性。Libuv 为 Node.js 设计,但因其高效模型逐渐被其他语言和项目采纳,用于底层库,如 Luvit、Julia、uvloop、pyuv 等。
Libevent、Libev、Libuv 比较
根据 GitHub 星标数,Libuv 的影响力最大,其次是 Libevent,Libev 关注较少。在优先级、事件循环、线程安全等方面,Libuv 更为现代,支持多种平台和 IO 模型,提供了更优的性能和功能。Libevent 和 Libev 分别针对不同平台和需求进行优化,Libev 旨在修复 Libevent 的问题。性能和可移植性方面,Libuv 优于 Libevent 和 Libev。
异步 IO 实现
目前 Linux 异步 IO 实现有原生异步 IO 和多线程模拟异步 IO 两种方式。原生异步 IO 支持特定场景,但不充分利用 Page cache;多线程模拟异步 IO 方式如 Glibc AIO、libeio、io_uring 等,提供更广泛的适用场景。
史上最详细的网络编程实战教程
本文通过介绍libhv——一个比libevent、libev、libuv更易用的跨平台国产网络库,旨在提供网络编程实战教程,帮助读者更好地理解TCP/UDP/SSL/HTTP/WebSocket网络编程。libhv提供了带非阻塞IO和定时器的事件循环,适用于开发TCP/UDP/SSL/HTTP/WebSocket客户端/服务端。
项目地址:github.com/ithewei/libhv
码云镜像:gitee.com/libhv/libhv.gitee.com
QQ技术交流群:
libhv博客专栏:hewei.blog.csdn.net/cat
libhv源码分析:blog.csdn.net/qu/ca
libhv教程--目录
libhv是一个跨平台网络库,适用于开发TCP/UDP/SSL/HTTP/WebSocket客户端/服务端。
libhv教程--介绍与体验
libhv是一个高性能事件循环库,寓意High-performance event loop library(高性能事件循环库)。Linux与mac用户可直接执行getting_started.sh脚本体验libhv编写的作为客户端测试。
libhv教程--创建一个简单的TCP客户端
完整TCP/UDP客户端程序参考examples/nc.c,c++版本示例代码见evpp目录下的TcpClient_test.cpp。
libhv教程--创建一个简单的UDP服务端
以UDP echo server为例,使用libhv创建UDP服务端。编译运行后,可使用nc作为客户端测试。
libhv教程--创建一个简单的UDP客户端
完整TCP/UDP客户端程序参考examples/nc.c,c++版本示例代码见evpp目录下的UdpClient_test.cpp。
libhv教程--创建一个简单的HTTP服务端
以HTTP协议为例,使用libhv创建HTTP服务端。c版本示例代码参考examples/http_server_test.cpp,c++版本示例代码参考evpp目录下的HttpServer_test.cpp。
libhv教程--创建一个简单的HTTP客户端
完整HTTP客户端示例代码参考examples/curl.cpp,模拟实现了curl命令行程序。
libhv教程--创建一个简单的WebSocket服务端
以WebSocket协议为例,使用libhv创建WebSocket服务端。示例代码参考examples/websocket_server_test.cpp。
libhv教程--创建一个简单的WebSocket客户端
WebSocket客户端示例代码参考examples/websocket_client_test.cpp。
libhv教程--实现一个纯C版jsonrpc框架
使用libhv实现一个行内的jsonrpc框架,借助libhv提供的接口hio_set_unpack设置拆包规则,大大节省了处理粘包与分包的成本。
libhv教程--实现一个C++版protorpc框架
实现一个行内的C++版protorpc框架,使用evpp模块+protobuf实现。
创作不易,如果你觉得不错,请在github上star下吧。
Redis和Memcached的区别
Redis和Memcached是两种基于内存的高性能数据存储系统,它们在多个方面具有不同特点。以下将从网络IO模型、数据支持类型、内存管理机制、数据存储及持久化、数据一致性问题以及集群管理等角度,详细比较两者的主要区别。
网络IO模型方面,Memcached采用多线程模型进行非阻塞IO复用,通过libevent封装的事件库实现。虽然这种模型可以充分利用多核资源,但也引入了cache coherency和锁问题,比如在执行stats命令时需要对全局变量加锁,影响性能。相比之下,Redis使用单线程IO复用模型,利用封装的AeEvent事件处理框架,优化了IO调度,对单存操作有速度优势,但当涉及计算操作时,单线程模型可能会限制整体吞吐量。
数据支持类型上,Memcached仅支持简单的key-value形式存储,而Redis在提供key-value支持的同时,还具备更丰富数据结构,如list、set、zset和hash等,这使得Redis在处理复杂数据逻辑时更灵活。
在内存管理机制上,Memcached采用Slab Allocation机制管理内存,将内存分割成特定长度的块以存储相应长度的key-value数据记录,有效地解决了内存碎片问题。Redis则采用源码封装的内存管理机制,通过记录分配情况的数组和内存头部存储大小信息,实现内存块管理,相对简单高效。两者在内存使用效率上有不同侧重点,Memcached在不造成内存碎片的同时可能带来空间浪费,而Redis的内存管理虽简单但可能产生内存碎片。
数据存储及持久化方面,Memcached不支持数据持久化,所有数据均保存在内存中。Redis则支持持久化操作,通过快照(snapshotting)或只追加文件(AOF)两种方法将数据存储到硬盘,提供了数据恢复的可能。
数据一致性问题上,Memcached通过cas命令保证多并发访问同一数据时的一致性,而Redis未提供cas命令,但可通过事务功能实现命令原子性,避免被其他操作打断。
集群管理方面,Memcached依赖客户端通过分布式算法实现集群存储,客户端查询数据同样需计算目标节点。Redis则倾向于在服务器端构建分布式存储,最新版本的Redis支持分布式存储功能,采用Redis Cluster实现线性可伸缩的分布式架构,节点间通过二进制协议通信,支持自动故障转移,保证数据可用性。
综上所述,Redis相较于Memcached在数据结构、持久化能力、集群管理等方面有更多优势,但两者根据具体应用场景和需求选择,各有其适用场景。