Skip to main content
 Web开发网 » 站长学院 » 浏览器插件

Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分

2021年10月11日8660百度已收录

  这篇文章来聊一下 Kafka 的一些架构设计原理,这也是互联网公司面试时非常高频的技术考点。

  Kafka 是高吞吐低延迟的高并发、高性能的消息中间件,在大数据领域有极为广泛的运用。配置良好的 Kafka 集群甚至可以做到每秒几十万、上百万的超高并发写入。

  那么 Kafka 到底是如何做到这么高的吞吐量和性能的呢?这篇文章我们来详细说一下。

  页缓存技术 + 磁盘顺序写

  首先 Kafka 每次接收到数据都会往磁盘上去写,如下图所示:

  Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分

  那么在这里我们不禁有一个疑问了,如果把数据基于磁盘来存储,频繁的往磁盘文件里写数据,这个性能会不会很差?大家肯定都觉得磁盘写性能是极差的。

  没错,要是真的跟上面那个图那么简单的话,那确实这个性能是比较差的。

  但是实际上 Kafka 在这里有极为优秀和出色的设计,就是为了保证数据写入性能,首先 Kafka 是基于操作系统的页缓存来实现文件写入的。

  操作系统本身有一层缓存,叫做 Page Cache,是在内存里的缓存,我们也可以称之为 OS Cache,意思就是操作系统自己管理的缓存。对大数据以及人工智能概念都是模糊不清的,该按照什么线路去学习,学完往哪方面发展,想深入了解,想学习的同学欢迎加入大数据学习扣群:数据515—269+数字485,有大量干货(零基础以及进阶的经典实战)分享给大家,并且有清华大学毕业的资深大数据讲师给大家免费授课,给大家分享目前国内最完整的大数据高端实战实用学习流程体系 。从java和linux入手,其后逐步的深入到HADOOP-hive-oozie-web-flume-python-hbase-kafka-scala-SPARK等相关知识一一分享!

  你在写入磁盘文件的时候,可以直接写入这个 OS Cache 里,也就是仅仅写入内存中,接下来由操作系统自己决定什么时候把 OS Cache 里的数据真的刷入磁盘文件中。

  仅仅这一个步骤,就可以将磁盘文件写性能提升很多了,因为其实这里相当于是在写内存,不是在写磁盘,大家看下图:

  Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分

  接着另外一个就是 kafka 写数据的时候,非常关键的一点,它是以磁盘顺序写的方式来写的。

  也就是说,仅仅将数据追加到文件的末尾,不是在文件的随机位置来修改数据。

  普通的机械磁盘如果你要是随机写的话,确实性能极差,也就是随便找到文件的某个位置来写数据。

  但是如果你是追加文件末尾按照顺序的方式来写数据的话,那么这种磁盘顺序写的性能基本上可以跟写内存的性能本身也是差不多的。

  所以大家就知道了,上面那个图里,Kafka 在写数据的时候,一方面基于 OS 层面的 Page Cache 来写数据,所以性能很高,本质就是在写内存罢了。

  另外一个,它是采用磁盘顺序写的方式,所以即使数据刷入磁盘的时候,性能也是极高的,也跟写内存是差不多的。

  基于上面两点,Kafka 就实现了写入数据的超高性能。那么大家想想,假如说 Kafka 写入一条数据要耗费 1 毫秒的时间,那么是不是每秒就是可以写入 1000 条数据?

  但是假如 Kafka 的性能极高,写入一条数据仅仅耗费 0.01 毫秒呢?那么每秒是不是就可以写入 10 万条数据?

  所以要保证每秒写入几万甚至几十万条数据的核心点,就是尽最大可能提升每条数据写入的性能,这样就可以在单位时间内写入更多的数据量,提升吞吐量。

  零拷贝技术

  说完了写入这块,再来谈谈消费这块。

  大家应该都知道,从 Kafka 里我们经常要消费数据,那么消费的时候实际上就是要从 Kafka 的磁盘文件里读取某条数据然后发送给下游的消费者,如下图所示:

  Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分

  那么这里如果频繁的从磁盘读数据然后发给消费者,性能瓶颈在哪里呢?

  假设要是 Kafka 什么优化都不做,就是很简单的从磁盘读数据发送给下游的消费者,那么大概过程如下所示:

  先看看要读的数据在不在 OS Cache 里,如果不在的话就从磁盘文件里读取数据后放入 OS Cache。

  接着从操作系统的 OS Cache 里拷贝数据到应用程序进程的缓存里,再从应用程序进程的缓存里拷贝数据到操作系统层面的 Socket 缓存里。

  最后从 Socket 缓存里提取数据后发送到网卡,最后发送出去给下游消费。

  整个过程,如下图所示:

  Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分

  大家看上图,很明显可以看到有两次没必要的拷贝吧!一次是从操作系统的 Cache 里拷贝到应用进程的缓存里,接着又从应用程序缓存里拷贝回操作系统的 Socket 缓存里。

  而且为了进行这两次拷贝,中间还发生了好几次上下文切换,一会儿是应用程序在执行,一会儿上下文切换到操作系统来执行。

  所以这种方式来读取数据是比较消耗性能的。Kafka 为了解决这个问题,在读数据的时候是引入零拷贝技术。

  也就是说,直接让操作系统的 Cache 中的数据发送到网卡后传输给下游的消费者,中间跳过了两次拷贝数据的步骤,Socket 缓存中仅仅会拷贝一个描述符过去,不会拷贝数据到 Socket 缓存。

  大家看下图,体会一下这个精妙的过程:

  通过零拷贝技术,就不需要把 OS Cache 里的数据拷贝到应用缓存,再从应用缓存拷贝到 Socket 缓存了,两次拷贝都省略了,所以叫做零拷贝。

  对 Socket 缓存仅仅就是拷贝数据的描述符过去,然后数据就直接从 OS Cache 中发送到网卡上去了,这个过程大大的提升了数据消费时读取文件数据的性能。

  而且大家会注意到,在从磁盘读数据的时候,会先看看 OS Cache 内存中是否有,如果有的话,其实读数据都是直接读内存的。

  如果 Kafka 集群经过良好的调优,大家会发现大量的数据都是直接写入 OS Cache 中,然后读数据的时候也是从 OS Cache 中读。

  相当于是 Kafka 完全基于内存提供数据的写和读了,所以这个整体性能会极其的高。

  我整理的一些需要掌握的知识技术点,分享给大家,话不多说,提高你的编程技能,认真 + 严肃,走起!

  需要思维导图格式的可以加群:810589193免费获取

  其中不单单有Java架构技术点讲解,还有最新的面试题总结和面试经验分享,相信这些资料会对你有帮助!不多说直接上干货。

  一部分学习路线思维导图

  包括了源码分析、性能优化、微服务架构、分布式、电商实战。

Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分  python面试 第1张

Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分  python面试 第2张

Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分  python面试 第3张

Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分  python面试 第4张

Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分  python面试 第5张

  针对上面的路线图谱,有很多问题不是靠几句话能讲清楚,所以自己录制了一些视频,用来回答这些技术。很多问题其实答案很简单,但是背后的思考和逻辑不简单,要做到知其然还要知其所以然。下面是我截取的部分课程表。

  Kafka如何实现每秒上百万的超高并发写入?掌握好面试给你打满分

  最后送福利了,现在加群:810589193可以免费获取Java工程化、高性能及分布式、高性能、高架构、性能调优、Spring、MyBatis、Netty源码分析等多个知识点高级进阶干货的相关视频资料,还有spring和虚拟机等书籍扫描版,还有更多面试题等你来拿

  分享给喜欢Java,喜欢编程,有梦想成为架构师的程序员们,希望能够帮助到你们。

  最后,做一个爱思考,懂思考,会思考的程序员。

  总结

  通过这篇文章对 Kafka 底层的页缓存技术的使用,磁盘顺序写的思路,以及零拷贝技术的运用,大家应该就明白 Kafka 每台机器在底层对数据进行写和读的时候采取的是什么样的思路,为什么它的性能可以那么高,做到每秒几十万的吞吐量。

  这种设计思想对我们平时自己设计中间件的架构,或者是出去面试的时候,都有很大的帮助。

  看到最后的都是真爱了,感觉文章不错的记得给小编点个赞哦,关注小编,以后会有更多的精品文章输出哦。

评论列表暂无评论
发表评论
微信