欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

为什么你要使用这么强大的分布式消息中间件——kafka

程序员文章站 2022-04-16 08:13:36
为什么是kafka? 在我们大量使用分布式数据库、分布式计算集群的时候,是否会遇到这样的一些问题: 我们想分析下用户行为(pageviews),以便我们设计出更好的广告位 我想对用户的搜索关键词进行统计,分析出当前的流行趋势 有些数据,存储数据库浪费,直接存储硬盘效率又低 这些场景都有一个共同点: ......

为什么是kafka?

在我们大量使用分布式数据库、分布式计算集群的时候,是否会遇到这样的一些问题:

我们想分析下用户行为(pageviews),以便我们设计出更好的广告位
我想对用户的搜索关键词进行统计,分析出当前的流行趋势
有些数据,存储数据库浪费,直接存储硬盘效率又低

这些场景都有一个共同点:
数据是由上游模块产生,上游模块,使用上游模块的数据计算、统计、分析,这个时候就可以使用消息系统,尤其是分布式消息系统!

知道了我们有必要在数据处理系统中使用一个消息系统,但是我们为什么一定要选kafka呢?现在的消息系统可不只有kafka。

话说阿里中间件团队和linkedin团队都做了一个kafka、rabbitmq、rocketmq的三者对比。这边就不献丑了,实际结果可以参考以下两篇博文:

阿里测试:http://jm.taobao.org/2016/04/01/kafka-vs-rabbitmq-vs-rocketmq-message-send-performance/

linkedin测试:https://blog.csdn.net/sjf0115/article/details/78480433

对比图

kafka简介

kafka是linkedin于2010年12月份创建的开源消息系统,它主要用于处理活跃的流式数据。活跃的流式数据在web网站应用中非常常见,这些活动数据包括页面访问量(page view)、被查看内容方面的信息以及搜索情况等内容。 这些数据通常以日志的形式记录下来,然后每隔一段时间进行一次统计分析。

传统的日志分析系统是一种离线处理日志信息的方式,但若要进行实时处理,通常会有较大延迟。而现有的消息队列系统能够很好的处理实时或者近似实时的应用,但未处理的数据通常不会写到磁盘上,这对于hadoop之类,间隔时间较长的离线应用而言,在数据安全上会出现问题。kafka正是为了解决以上问题而设计的,它能够很好地进行离线和在线应用。

kafka部署结构

消息队列(message queue,简称mq),从字面意思上看,本质是个队列,fifo先入先出,只不过队列中存放的内容是message而已。其主要用途:不同进程process/线程thread之间通信。

几大特性:

高吞吐量:可以满足每秒百万级别消息的生产和消费——生产消费。
负载均衡:通过zookeeper对producer,broker,consumer的动态加入与离开进行管理。
拉取系统:由于kafka broker会持久化数据,broker没有内存压力,因此,consumer非常适合采取pull的方式消费数据
动态扩展:当需要增加broker结点时,新增的broker会向zookeeper注册,而producer及consumer会通过zookeeper感知这些变化,并及时作出调整。
消息删除策略:数据文件将会根据broker中的配置要求,保留一定的时间之后删除。kafka通过这种简单的手段,来释放磁盘空间。

消息收发流程:

启动zookeeper及broker.
producer连接broker后,将消息发布到broker中指定topic上(可以指定patition)。
broker集群接收到producer发过来的消息后,将其持久化到硬盘,并将消息该保留指定时长(可配置),而不关注消息是否被消费。
consumer连接到broker后,启动消息泵对broker进行侦听,当有消息到来时,会触发消息泵循环获取消息,获取消息后zookeeper将记录该consumer的消息offset。

kafka服务:

对于kafka而言,kafka服务就像是一个大的水池。不断的生产、存储、消费着各种类别的消息。那么kafka由何组成呢?

broker : kafka消息服务器,消息中心。一个broker可以容纳多个topic。
producer :消息生产者,就是向kafka broker发消息的客户端。
consumer :消息消费者,向kafka broker取消息的客户端。
zookeeper :管理producer,broker,consumer的动态加入与离开。
topic :可以为各种消息划分为多个不同的主题,topic就是主题名称。producer可以针对某个主题进行生产,consumer可以针对某个主题进行订阅。
consumer group: kafka采用广播的方式进行消息分发,而consumer集群在消费某topic时, zookeeper会为该集群建立offset消费偏移量,最新consumer加入并消费该主题时,可以从最新的offset点开始消费。
partition:kafka采用对数据文件切片(partition)的方式可以将一个topic可以分布存储到多个broker上,一个topic可以分为多个partition。在多个consumer并发访问一个partition会有同步锁控制。

有的时候,不光是灯红酒绿的世界可以让人沉迷,技术的世界也同样如此。而且有的时候,技术的世界比前者更加可怕,它不但能让你悄无声息的陷入进去,还能让你产生一种你很上进,你很努力的假象,以至于等到你恍然大悟那天,已经悔之晚矣。这里向大家推荐一个测试交流圈q裙:790047143。

所以大家一定要找准自己的方向,不能因为今天阿里招聘需求这么写就去学这些,明天看到一个技术很牛逼又去学那个。

为什么你要使用这么强大的分布式消息中间件——kafka

未来kafka中间件

目前该中间件只完成了初级阶段功能,很多功能都不完善不深入,随着应用业务的拓展及kafka未来版本功能支持。以kafka消息中间件为中心的大数据处理平台还有很多任务去实现。

一般在互联网中所流动的数据由以下几种类型:

需要实时响应的交易数据,用户提交一个表单,输入一段内容,这种数据最后是存放在关系数据库(oracle, mysql)中的,有些需要事务支持。
活动流数据,准实时的,例如页面访问量、用户行为、搜索情况等。我们可以针对这些数据广播、排序、个性化推荐、运营监控等。这种数据一般是前端服务器先写文件,然后通过批量的方式把文件倒到hadoop(离线数据分析平台)这种大数据分析器里面,进行慢慢的分析。
各个层面程序产生的日志,例如http的日志、tomcat的日志、其他各种程序产生的日志。这种数据一个是用来监控报警,还有就是用来做分析。