linux是一个强大的操作系统,它提供了许多高效的进程间通信机制,如管道、信号、消息队列、共享内存等。但是,有没有一种更简单、更灵活、更高效的通信方式呢?答案是有的,那就是eventfd。eventfd是linux 2.6版本引入的一种系统调用,它可以用来实现事件通知,也就是通过一个文件描述符来传递事件。eventfd包含一个由内核维护的64位无符号整型计数器,进程可以通过对这个文件描述符进行read/write来读取/改变计数器的值,从而实现进程间通信。eventfd有什么优点呢?它有以下几个特点:

Linux中的神器:eventfd的原理与应用

  • eventfd不需要ps://xwenw.com/tag/%e5%88%9b%e5%bb%ba" target="_blank">创建任何额外的文件或者内存空间,只需要一个文件描述符即可;
  • eventfd可以与select、poll、epoll等多路复用机制结合使用,实现高效的事件驱动编程;
  • eventfd可以设置为非阻塞或者信号量模式,提供了不同的通信语义;
  • eventfd可以跨越进程或者线程边界,实现不同级别的通信。

那么,eventfd是如何工作的呢?它又有哪些应用场景呢?本文将从原理和应用两个方面来介绍eventfd这个神器。

一般来说:Linux进程间通信有五大方案:管道,消息队列,信号量,共享内存,套接字。
管道我不是很熟,只了解一般管道局限与父子进程之间,首先就被我排除了,因为我要做的是相互独立的进程间通信,命名管道似乎不局限于父子进程,但在内核态怎么使用不清楚。
消息队列完全不了解。
信号量的核心是一个内核变量的原子操作,但接口只体现在用户态,而且信号量的P V操作更多做的好像是互斥,而不是我想要的通知唤醒机制。
共享内存就更麻烦了,接口只在用户态,如果自己想做内核态与用户态之间的共享内存,得自己写file,然后提供mmap接口。
套接字之前只是用过af_inet的tcp/udp与af_unix的dgram,还是上面的那个问题,内核没有明确的接口提供,虽然可以自己去用比如sock->ops->recvmsg这样的函数去调用,但毕竟需要自己构造入参,感觉还是不太安全。

那么剩下的似乎只有netlink了,这个socket明确地提供了内核的发包函数,因为它明确地export出了netlink_kernel_create函数,所以内核态的函数得以用这个sock来进行发包。但是一个是用户态需要注册收包函数,另一个内核态发包还是免不了要组装skb,对于我单纯地只想进行通知唤醒来说还是过于复杂了。

于是我再次寻找,发现了eventfd这个神器,在KVM与Qemu的通信之间,eventfd被大牛使用的出神入化,仔细地分析了一下源码,发现这个东西就如名字所说,纯是为了通知而存在的。
作为一个file(linux里有不是file的东西么~~),它的private_data结构体 eventfd_ctx只有可怜的四个变量。

struct eventfd_ctx {
  struct kref kref;  /* 这个就不多说了,file计数用的,用于get/put */
  wait_queue_head_t wqh; /* 这个用来存放用户态的进程wait项,有了它通知机制才成为可能 */
/*
\* Every time that a write(2) is performed on an eventfd, the
\* value of the __u64 being written is added to "count" and a
\* wakeup is performed on "wqh". A read(2) will return the "count"
\* value to userspace, and will reset "count" to zero. The kernel
\* side eventfd_signal() also, adds to the "count" counter and
\* issue a wakeup.
*/
  __u64 count;  /* 这个就是一个技术器,应用程序可以自己看着办,read就是取出然后清空,write就是把value加上 */
  unsigned int flags;  /* 所有的file都有的吧,用来存放阻塞/非阻塞标识或是O_CLOEXEC之的东西 */
};
  我之所以选用它是因为它有 eventfd_signal 这个特地为内核态提供的接口,下面的是注释。
 \* This function is supposed to be called by the kernel in paths that do not
 \* allow sleeping. In this function we allow the counter to reach the ULLONG_MAX
 \* value, and we signal this as overflow condition by returining a POLLERR to poll(2).

登录后复制

其实看代码会更清晰一些

int eventfd_signal(struct eventfd_ctx *ctx, int n)
{
  unsigned long flags;

  if (n return -EINVAL;
  spin_lock_irqsave(&ctx->wqh.lock, flags);
  if (ULLONG_MAX - ctx->count count);
  ctx->count += n;
  if (waitqueue_active(&ctx->wqh))
    wake_up_locked_poll(&ctx->wqh, POLLIN);
  spin_unlock_irqrestore(&ctx->wqh.lock, flags);

  return n;
}  

登录后复制

本质就是做一次唤醒,不用read,也不用write,与eventfd_write的区别是不用阻塞

下面说一下我的具体用法:
内核态是一个模块,注册一个misc设备,创建内核线程工作(参数为模块的file->private_data)。提供ioctl接口供用户态进程下发自己eventfd创建的fd,保存在内核线程可以访问到的file->private_data中。
当内核态想通知用户态时,直接使用eventfd_signal,此时用户态线程需要先把自己放在eventfd_ctx->wqh上,有两种方案,一个是调用read,一个是调用poll。 如果是read,之后会将eventfd_ctx->count清零,下次还能阻塞住。但是如果使用poll,之后count并未清零,导致再次poll时,即使内核态没有eventfd_signal,poll也会即时返回。
用户态通知内核态稍微麻烦一点,,首先需要再创建一个eventfd,然后下发给file->private_data(这里的操作同上面),额外需要在模块里做一个iotcl,专门负责用户态来通知内核态,函数里就做eventfd_signal,内核态线程需要先放在eventfd_ctx->wqh上,可以利用vfs_read,或者自己在内核态做一次poll(似乎又麻烦了)。

本文介绍了eventfd这个Linux中的神器,它是一种简单、灵活、高效的进程间通信机制。我们从原理方面分析了eventfd的创建、读写和标志位等内容,并且给出了相应的代码示例。我们还从应用方面介绍了eventfd在用户态与内核态通信、定时器和事件触发器等场景中的使用方法,并且给出了相应的代码示例。通过本文的学习,我们可以掌握eventfd的基本用法,并且能够在实际开发中灵活地运用eventfd来实现不同的通信需求。希望本文对你有所帮助!

以上就是Linux中的神器:eventfd的原理与应用的详细内容,更多请关注小闻网其它相关文章!

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。