Flink 从0到1学习—— 分享四本 Flink 国外的书和二十多篇 Paper 论文
前言
之前也分享了不少自己的文章,但是对于 flink 来说,还是有不少新入门的朋友,这里给大家分享点 flink 相关的资料(国外数据 pdf 和流处理相关的 paper),期望可以帮你更好的理解 flink。
书籍
1、《introduction to apache flink book》
这本书比较薄,简单介绍了 flink,也有中文版,读完可以对 flink 有个大概的了解。
2、《learning apache flink》
这本书还是讲的比较多的 api 使用,不仅有 java 版本还有 scala 版本,入门看这本我觉得还是 ok 的。
3、《stream processing with apache flink》
这本书是 flink pmc 写的,质量还是很好的,对 flink 中的概念讲的很清楚,还有不少图片帮忙理解,美中不足的是没有 table 和 sql api 相关的介绍。
4、《streaming system》
这本书是讲流处理引擎的,对流处理引擎的发展带来不少的推动,书本的质量非常高,配了大量的图,目的就是让你很容易的懂流处理引擎中的概念(比如时间、窗口、水印等),我强烈的推荐大家都看一下,这本书的内容被很多博客和书籍都引用了。
paper
这是一份 streaming systems 领域相关的论文列表 20+ 篇,涉及 streaming systems 的设计,实现,故障恢复,弹性扩展等各方面。也包含自 2014 年以来 streaming system 和 batch system 的统一模型的论文。
2016 年
drizzle: fast and adaptable stream processing at scale (draft): record-at-a-time 的系统,如 naiad, flink,处理延迟较低、但恢复延迟较高;micro-batch 系统,如 spark streaming,恢复延迟低但处理延迟略高。drizzle 则采用 group scheduling + pre-scheduling shuffles 的方式对 spark streaming 做了改进,保留低恢复延迟的同时,降低了处理延迟至 100ms 量级。
realtime data processing at facebook (sigmod): facebook 明确自己实时的使用场景是 seconds of latency, not milliseconds,并基于自己的需求构建了 3 个实时处理组件:puma, swift, 以及 stylus。puma, swift 和 stylus 都从 scribe 读数据,并可向 scribe 写回数据(scribe 是 facebook 内部的分布式消息系统,类似 kafka)。
2015 年
the dataflow model: a practical approach to balancing correctness, latency, and cost in massive-scale, unbounded, out-of-order data processing (vldb): 来自 google 的将 stream processing 模型和 batch processing 模型统一的尝试。在 dataflow model 下,底层依赖 flumejava 支持 batch processing,依赖 millwheel 支持 stream processing。dataflow model 的开源实现是 apache beam 项目。
apache flink: stream and batch processing in a single engine apache flink 是一个处理 streaming data 和 batch data 的开源系统。flink 的设计哲学是,包括实时分析 (real-time analytics)、持续数据处理 (continuous data pipelines)、历史数据处理 (historic data processing / batch)、迭代式算法 (iterative algorithms - machine learning, graph analysis) 等的很多类数据处理应用,都能用 pipelined fault-tolerant 的 dataflows 执行模型来表达。
lightweight asynchronous snapshots for distributed dataflows: apache flink 所实现的一个轻量级的、异步做状态快照的方法。基于此,flink 得以保证分布式状态的一致性,从而保证整个系统的 exactly-once 语义。具体的,flink 会持续性的在 stream 里插入 barrier markers,制造一个分布式的顺序关系,使得不同的节点能够在同一批 barrier marker 上达成整个系统的一致性状态。
twitter heron: stream processing at scale (sigmod): heron 是 twitter 开发的用于代替 storm 的实时处理系统,解决了 storm 在扩展性、调试能力、性能、管理方式上的一些问题。heron 实现了 storm 的接口,因此对 storm 有很好的兼容性,也成为了 twitter 内部实时处理系统的事实上的标准。
2014 年
trill: a high-performance incremental query processor for diverse analytics (vldb): 此篇介绍了 microsoft 的 trill - 一个新的分析查询处理器。trill 很好的结合以下 3 方面需求:(1) query model: trill 是基于时间-关系 (tempo-relational) 模型,所以很好的支持从实时到离线计算的延迟需求;(2) fabric and language integration: trill 作为一个类库,可以很好的与高级语言、已有类库结合;以及 (3) performance: 无论实时还是离线,trill 的 throughput 都很高 —— 实时计算比流处理引擎高 2-4 个数量级,离线计算与商业的列式 dbms 同等。从实现角度讲,包括 punctuation 的使用来分 batch 满足 latency 需求,batch 内使用列式存储、code-gen 等技术来提高 performance,都具有很好的借鉴意义 —— 尤其注意这是 2014 年发表的论文。
summingbird: a framework for integrating batch and online mapreduce computations (vldb): twitter 开发的目标是将 online storm 计算和 batch mapreduce 计算逻辑统一描述的一套 domain-specific language。summingbird 抽象了 sources, sinks, 以及 stores 等,基于此抽象,上层应用就不必为 streaming 和 batch 维护两套计算逻辑,而可以使用同一套计算逻辑,只在运行时分别编译后跑在 streaming 的 storm 上和 batch 的 mapreduce 上。
storm@twitter (sigmod): 这是一篇来迟的论文。apache storm 最初在 backtype 及 twitter,而后在业界范围都有广泛的应用,甚至曾经一度也是事实上的流处理系统标准。此篇介绍了 storm 的设计,及在 twitter 内部的应用情况。当然后面我们知道 apache storm 也暴露出一些问题,业界也出现了一些更优秀的流处理系统。twitter 虽没有在 2012 年 storm 时代开启时发声,但在 2014 年 storm 落幕时以此文发声向其致敬,也算是弥补了些许遗憾吧。
2013 年
discretized streams: fault-tolerant streaming computation at scale (sosp): spark streaming 是基于 spark 执行引擎、micro-batch 模式的准实时处理系统。对比 rdd 是 spark 引擎的数据抽象,dstream (discretized stream) 则是 spark streaming 引擎的数据抽象。dstream 像 rdd 一样,具有分布式、可故障恢复的特点,并且能够充分利用 spark 引擎的推测执行,应对 straggler 的出现。
millwheel: fault-tolerant stream processing at internet scale (vldb): millwheel 是 google 内部研发的实时流数据处理系统,具有分布式、低延迟、高可用、支持 exactly-once 语义的特点。不出意外,millwheel 是 google 强大 infra structure 和强大 engeering 能力的综合体现 —— 利用 bigtable/spanner 作为后备状态存储、保证 exactly-once 特性等等。另外,millwheel 将 watermark 机制发扬光大,对 event time 有着非常好的支持。推荐对 streaming system 感兴趣的朋友一定多读几遍此篇论文 —— 虽然此篇已经发表了几年,但工业界开源的系统尚未完全达到 millwheel 的水平。
integrating scale out and fault tolerance in stream processing using operator state management (sigmod): 针对有状态的算子的状态,此篇的基本洞察是,scale out 和 fault tolerance 其实很相通,应该结合到一起考虑和实现,而不是将其割裂开来。文章提出了算子的 3 类状态:(a) processing state, (b) buffer state, 和 (c) routing state,并提出了算子状态的 4 个操作原语:(1) checkpoint state, (2) backup state, (3) restore state, (4) partition state。
2010 年
- s4: distributed stream computing platform (icdmw): 2010 年算是 general stream processing engine 元年 —— yahoo! 研发并发布了 s4, backtype 开始研发了 storm 并将在 1 年后(由 twitter)将其开源。s4 和 storm 都是 general-purpose 的 stream processing engine,允许用户通过代码自定义计算逻辑,而不是仅仅是使用声明式的语言或算子。
2008 年
out-of-order processing: a new architecture for highperformance stream system (vldb): 这篇文章提出了一种新的处理模型,即 out-of-order processing (oop),取消了以往 streaming system 里对事件有序的假设。重要的是,这篇文章提出了并实现了 low watermark: lwm(n, s, a) is the smallest value for a that occurs after prefix sn of stream s。我们看到,在 2 年后 google 开始研发的 millwheel 里,watermark 将被发扬光大。
fast and highly-available stream processing over wide area networks (icde): 针对广域网 (wide area networks) 的 stream processing 设计的快速、高可用方案。主要思想是依靠 replication。
2007 年
- a cooperative, self-configuring high-availability solution for stream processing (icde): 与 2005 年 icde 的文章一样,此篇也讨论 stream processing 的高可用问题。与 2005 年文章做法不同的是,此篇的 checkpointing 方法更细粒度一些,所以一个节点上的不同状态能够备份到不同的节点上去,因而在恢复的时候能够并行恢复以提高速度。
2005 年
the 8 requirements of real-time stream processing (sigmod): 图领奖得主 michael stonebraker 老爷子与他在 streambase 的小伙伴们勾画的 stream processing applications 应当满足的 8 条规则,如 rule 1: keep the data moving, rule 2: query using sql on streams (streamsql), rule 3: handle stream imperfections (delayed, missing and out-of-order data) … 等等。虽然此篇有引导舆论的嫌疑 —— 不知是先有了这流 8 条、再有了 streambase,还是先有了 streambase、再有了这流 8 条 —— 但其内容还是有相当的借鉴意义。
the design of the borealis stream processing engine (cidr): borealis 是 aurora 的分布式、更优化版本的续作。borealis 提出并解决了 3 个新一代系统的基础问题:(1) dynamic revision of query results, (2) dynamic query modification, 以及 (3) flexible and highly-scalable optimization. 此篇讲解了 borealis 的设计与实现 —— p.s. 下,aurora 及续作 borealis 的命名还真是非常讲究,是学院派的风格 :-d
high-availability algorithms for distributed stream processing (icde): 此篇主要聚焦在 streaming system 的高可用性,即故障恢复。文章提出了 3 种 recovery types: (a) precise, (b) gap, 和 (c) rollback,并通过 (1) passive standby, (2) upstream backup, (3) active standby 的方式进行 recover。可与 2007 年 icde 的文章对比阅读。
2004 年
- stream: the stanford data stream management system (technique report): 这篇 technique report 定义了一种 continuous query language (cql),讲解了 query plans 和 execution,讨论了一些 performance issues。系统也注意到并讨论了 adaptivity 和 approximation 的问题。从这篇 technique report 可以看出,这时的流式计算,更多是传统 rdbms 的思路,扩展到了处理实时流式数据;这大约也是 2010 以前的 stream processing 相关研究的缩影。
2002 年
monitoring streams – a new class of data management applications (vldb): 大约在 2002 年前后,从实时数据监控(如监控 sensors 数据等)应用出发,大家已经开始区分传统的查询主动、数据被动 (human-active, dbms-passive) 模式和新兴的数据主动、查询被动 (dbms-active, human-passive) 模式的区别 —— 此篇即是其中的典型代表。此篇提出了新式的 dbms 的 aurora,描述了其基本系统模型、面向流式数据的操作算子集、 优化策略、及实时应用。
exploiting punctuation semantics in continuous data streams (tkde): 此篇很早的注意到了一些传统的操作算子不能用于无尽的数据流入的场景,因为将导致无尽的状态(考虑 outer join),或者无尽的阻塞(考虑 count 或 max)等。此篇提出,如果在 stream 里加入一些特殊的 punctuation,来标识一段一段的数据,那么我们就可以把无限的 stream 划分为多个有限的数据集的集合,从而使得之前提到的算子变得可用。此篇的价值更多体现在给了 2008 年 watermark 相关的文章以基础,乃至集大成在了 2010 年 google millwheel 中。
总结
本文分享了四本 flink 相关的书籍和一份 streaming systems 领域相关的论文列表 20+ 篇,涉及 streaming systems 的设计,实现,故障恢复,弹性扩展等各方面。
如何获取呢?你可以加我的微信:zhisheng_tian,然后回复关键字:flink 即可无条件获取到。
更多私密资料请加入知识星球!
另外你如果感兴趣的话,也可以关注我的公众号。
本篇文章连接是:
github 代码仓库
以后这个项目的所有代码都将放在这个仓库里,包含了自己学习 flink 的一些 demo 和博客。
博客
1、flink 从0到1学习 —— apache flink 介绍
2、flink 从0到1学习 —— mac 上搭建 flink 1.6.0 环境并构建运行简单程序入门
3、flink 从0到1学习 —— flink 配置文件详解
4、flink 从0到1学习 —— data source 介绍
5、flink 从0到1学习 —— 如何自定义 data source ?
6、flink 从0到1学习 —— data sink 介绍
7、flink 从0到1学习 —— 如何自定义 data sink ?
8、flink 从0到1学习 —— flink data transformation(转换)
9、flink 从0到1学习 —— 介绍 flink 中的 stream windows
10、flink 从0到1学习 —— flink 中的几种 time 详解
11、flink 从0到1学习 —— flink 读取 kafka 数据写入到 elasticsearch
12、flink 从0到1学习 —— flink 项目如何运行?
13、flink 从0到1学习 —— flink 读取 kafka 数据写入到 kafka
14、flink 从0到1学习 —— flink jobmanager 高可用性配置
15、flink 从0到1学习 —— flink parallelism 和 slot 介绍
16、flink 从0到1学习 —— flink 读取 kafka 数据批量写入到 mysql
17、flink 从0到1学习 —— flink 读取 kafka 数据写入到 rabbitmq
18、flink 从0到1学习 —— flink 读取 kafka 数据写入到 hbase
19、flink 从0到1学习 —— flink 读取 kafka 数据写入到 hdfs
20、flink 从0到1学习 —— flink 读取 kafka 数据写入到 redis
21、flink 从0到1学习 —— flink 读取 kafka 数据写入到 cassandra
22、flink 从0到1学习 —— flink 读取 kafka 数据写入到 flume
23、flink 从0到1学习 —— flink 读取 kafka 数据写入到 influxdb
24、flink 从0到1学习 —— flink 读取 kafka 数据写入到 rocketmq
25、flink 从0到1学习 —— 你上传的 jar 包藏到哪里去了
26、flink 从0到1学习 —— 你的 flink job 日志跑到哪里去了
28、flink 从0到1学习 —— flink 中如何管理配置?
29、flink 从0到1学习—— flink 不可以连续 split(分流)?
30、flink 从0到1学习—— 分享四本 flink 国外的书和二十多篇 paper 论文
32、为什么说流处理即未来?
33、oppo 数据中台之基石:基于 flink sql 构建实时数据仓库
36、apache flink 结合 kafka 构建端到端的 exactly-once 处理
38、如何基于flink+tensorflow打造实时智能异常检测平台?只看这一篇就够了
40、flink 全网最全资源(视频、博客、ppt、入门、实战、源码解析、问答等持续更新)
源码解析
4、flink 源码解析 —— standalone session 模式启动流程
5、flink 源码解析 —— standalone session cluster 启动流程深度分析之 job manager 启动
6、flink 源码解析 —— standalone session cluster 启动流程深度分析之 task manager 启动
7、flink 源码解析 —— 分析 batch wordcount 程序的执行过程
8、flink 源码解析 —— 分析 streaming wordcount 程序的执行过程
9、flink 源码解析 —— 如何获取 jobgraph?
10、flink 源码解析 —— 如何获取 streamgraph?
11、flink 源码解析 —— flink jobmanager 有什么作用?
12、flink 源码解析 —— flink taskmanager 有什么作用?
13、flink 源码解析 —— jobmanager 处理 submitjob 的过程
14、flink 源码解析 —— taskmanager 处理 submitjob 的过程
15、flink 源码解析 —— 深度解析 flink checkpoint 机制
16、flink 源码解析 —— 深度解析 flink 序列化机制
17、flink 源码解析 —— 深度解析 flink 是如何管理好内存的?
18、flink metrics 源码解析 —— flink-metrics-core
19、flink metrics 源码解析 —— flink-metrics-datadog
20、flink metrics 源码解析 —— flink-metrics-dropwizard
21、flink metrics 源码解析 —— flink-metrics-graphite
22、flink metrics 源码解析 —— flink-metrics-influxdb
23、flink metrics 源码解析 —— flink-metrics-jmx
24、flink metrics 源码解析 —— flink-metrics-slf4j
25、flink metrics 源码解析 —— flink-metrics-statsd
26、flink metrics 源码解析 —— flink-metrics-prometheus
27、flink 源码解析 —— 如何获取 executiongraph ?
30、flink clients 源码解析原文出处:,欢迎关注我的公众号:zhisheng