Flink 从0到1学习 —— Flink 中如何管理配置?
前言
如果你了解 apache flink 的话,那么你应该熟悉该如何像 flink 发送数据或者如何从 flink 获取数据。但是在某些情况下,我们需要将配置数据发送到 flink 集群并从中接收一些额外的数据。
在本文的第一部分中,我将描述如何将配置数据发送到 flink 集群。我们需要配置很多东西:方法参数、配置文件、机器学习模型。flink 提供了几种不同的方法,我们将介绍如何使用它们以及何时使用它们。在本文的第二部分中,我将描述如何从 flink 集群中获取数据。
如何发送数据给 taskmanager?
在我们深入研究如何在 apache flink 中的不同组件之间发送数据之前,让我们先谈谈 flink 集群中的组件,下图展示了 flink 中的主要组件以及它们是如何相互作用的:
当我们运行 flink 应用程序时,它会与 flink jobmanager 进行交互,这个 flink jobmanager 存储了那些正在运行的 job 的详细信息,例如执行图。
jobmanager 它控制着 taskmanager,每个 taskmanager 中包含了一部分数据来执行我们定义的数据处理方法。
在许多的情况下,我们希望能够去配置 flink job 中某些运行的函数参数。根据用例,我们可能需要设置单个变量或者提交具有静态配置的文件,我们下面将讨论在 flink 中该如何实现?
除了向 taskmanager 发送配置数据外,有时我们可能还希望从 flink job 的函数方法中返回数据。
如何配置用户自定义函数?
假设我们有一个从 csv 文件中读取电影列表的应用程序(它要过滤特定类型的所有电影):
//读取电影列表数据集合 dataset<tuple3<long, string, string>> lines = env.readcsvfile("movies.csv") .ignorefirstline() .parsequotedstrings('"') .ignoreinvalidlines() .types(long.class, string.class, string.class); lines.filter((filterfunction<tuple3<long, string, string>>) movie -> { // 以“|”符号分隔电影类型 string[] genres = movie.f2.split("\\|"); // 查找所有 “动作” 类型的电影 return stream.of(genres).anymatch(g -> g.equals("action")); }).print();
我们很可能想要提取不同类型的电影,为此我们需要能够配置我们的过滤功能。 当你要实现这样的函数时,最直接的配置方法是实现构造函数:
// 传递类型名称 lines.filter(new filtergenre("action")) .print(); ... class filtergenre implements filterfunction<tuple3<long, string, string>> { //类型 string genre; //初始化构造方法 public filtergenre(string genre) { this.genre = genre; } @override public boolean filter(tuple3<long, string, string> movie) throws exception { string[] genres = movie.f2.split("\\|"); return stream.of(genres).anymatch(g -> g.equals(genre)); } }
或者,如果你使用 lambda 函数,你可以简单地使用它的闭包中的一个变量:
final string genre = "action"; lines.filter((filterfunction<tuple3<long, string, string>>) movie -> { string[] genres = movie.f2.split("\\|"); //使用变量 return stream.of(genres).anymatch(g -> g.equals(genre)); }).print();
flink 将序列化此变量并将其与函数一起发送到集群。
如果你需要将大量变量传递给函数,那么这些方法就会变得非常烦人了。 为了解决这个问题,flink 提供了 withparameters 方法。 要使用它,你需要实现那些 rich 函数,比如你不必实现 mapfunction 接口,而是实现 richmapfunction。
rich 函数允许你使用 withparameters 方法传递许多参数:
// configuration 类来存储参数 configuration configuration = new configuration(); configuration.setstring("genre", "action"); lines.filter(new filtergenrewithparameters()) // 将参数传递给函数 .withparameters(configuration) .print();
要读取这些参数,我们需要实现 "open" 方法并读取其中的参数:
class filtergenrewithparameters extends richfilterfunction<tuple3<long, string, string>> { string genre; @override public void open(configuration parameters) throws exception { //读取配置 genre = parameters.getstring("genre", ""); } @override public boolean filter(tuple3<long, string, string> movie) throws exception { string[] genres = movie.f2.split("\\|"); return stream.of(genres).anymatch(g -> g.equals(genre)); } }
所有这些选项都可以使用,但如果需要为多个函数设置相同的参数,则可能会很繁琐。在 flink 中要处理此种情况, 你可以设置所有 taskmanager 都可以访问的全局环境变量。
为此,首先需要使用 parametertool.fromargs
从命令行读取参数:
public static void main(string... args) { //读取命令行参数 parametertool parametertool = parametertool.fromargs(args); ... }
然后使用 setglobaljobparameters
设置全局作业参数:
final executionenvironment env = executionenvironment.getexecutionenvironment(); env.getconfig().setglobaljobparameters(parametertool); ... //该函数将能够读取这些全局参数 lines.filter(new filtergenrewithglobalenv()) //这个函数是自己定义的 .print();
现在我们来看看这个读取这些参数的函数,和上面说的一样,它是一个 rich 函数:
class filtergenrewithglobalenv extends richfilterfunction<tuple3<long, string, string>> { @override public boolean filter(tuple3<long, string, string> movie) throws exception { string[] genres = movie.f2.split("\\|"); //获取全局的配置 parametertool parametertool = (parametertool) getruntimecontext().getexecutionconfig().getglobaljobparameters(); //读取配置 string genre = parametertool.get("genre"); return stream.of(genres).anymatch(g -> g.equals(genre)); } }
要读取配置,我们需要调用 getglobaljobparameter 来获取所有全局参数,然后使用 get 方法获取我们要的参数。
广播变量
如果你想将数据从客户端发送到 taskmanager,上面文章中讨论的方法都适合你,但如果数据以数据集的形式存在于 taskmanager 中,该怎么办? 在这种情况下,最好使用 flink 中的另一个功能 —— 广播变量。 它只允许将数据集发送给那些执行你 job 里面函数的任务管理器。
假设我们有一个数据集,其中包含我们在进行文本处理时应忽略的单词,并且我们希望将其设置为我们的函数。 要为单个函数设置广播变量,我们需要使用 withbroadcastset 方法和数据集。
dataset<integer> tobroadcast = env.fromelements(1, 2, 3); // 获取要忽略的单词集合 dataset<string> wordstoignore = ... data.map(new richflatmapfunction<string, string>() { // 存储要忽略的单词集合. 这将存储在 taskmanager 的内存中 collection<string> wordstoignore; @override public void open(configuration parameters) throws exception { //读取要忽略的单词的集合 wordstoignore = getruntimecontext().getbroadcastvariable("wordstoignore"); } @override public string map(string line, collector<string> out) throws exception { string[] words = line.split("\\w+"); for (string word : words) //使用要忽略的单词集合 if (wordstoignore.contains(word)) out.collect(new tuple2<>(word, 1)); } //通过广播变量传递数据集 }).withbroadcastset(wordstoignore, "wordstoignore");
你应该记住,如果要使用广播变量,那么数据集将会存储在 taskmanager 的内存中,如果数据集和越大,那么占用的内存就会越大,因此使用广播变量适用于较小的数据集。
如果要向每个 taskmanager 发送更多数据并且不希望将这些数据存储在内存中,可以使用 flink 的分布式缓存向 taskmanager 发送静态文件。 要使用 flink 的分布式缓存,你首先需要将文件存储在一个分布式文件系统(如 hdfs)中,然后在缓存中注册该文件:
executionenvironment env = executionenvironment.getexecutionenvironment(); //从 hdfs 注册文件 env.registercachedfile("hdfs:///path/to/file", "machinelearningmodel") ... env.execute()
为了访问分布式缓存,我们需要实现一个 rich 函数:
class myclassifier extends richmapfunction<string, integer> { @override public void open(configuration config) { file machinelearningmodel = getruntimecontext().getdistributedcache().getfile("machinelearningmodel"); ... } @override public integer map(string value) throws exception { ... } }
请注意,要访问分布式缓存中的文件,我们需要使用我们用于注册文件的 key,比如上面代码中的 machinelearningmodel
。
accumulator(累加器)
我们前面已经介绍了如何将数据发送给 taskmanager,但现在我们将讨论如何从 taskmanager 中返回数据。 你可能想知道为什么我们需要做这种事情。 毕竟,apache flink 就是建立数据处理流水线,读取输入数据,处理数据并返回结果。
为了表达清楚,让我们来看一个例子。假设我们需要计算每个单词在文本中出现的次数,同时我们要计算文本中有多少行:
//要处理的数据集合 dataset<string> lines = ... // word count 算法 lines.flatmap(new flatmapfunction<string, tuple2<string, integer>>() { @override public void flatmap(string line, collector<tuple2<string, integer>> out) throws exception { string[] words = line.split("\\w+"); for (string word : words) { out.collect(new tuple2<>(word, 1)); } } }) .groupby(0) .sum(1) .print(); // 计算要处理的文本中的行数 int linescount = lines.count() system.out.println(linescount);
问题是如果我们运行这个应用程序,它将运行两个 flink 作业!首先得到单词统计数,然后计算行数。
这绝对是低效的,但我们怎样才能避免这种情况呢?一种方法是使用累加器。它们允许你从 taskmanager 发送数据,并使用预定义的功能聚合此数据。 flink 有以下内置累加器:
intcounter,longcounter,doublecounter:允许将 taskmanager 发送的 int,long,double 值汇总在一起
averageaccumulator:计算双精度值的平均值
longmaximum,longminimum,intmaximum,intminimum,doublemaximum,doubleminimum:累加器,用于确定不同类型的最大值和最小值
直方图 - 用于计算 taskmanager 的值分布
要使用累加器,我们需要创建并注册一个用户定义的函数,然后在客户端上读取结果。下面我们来看看该如何使用呢:
lines.flatmap(new richflatmapfunction<string, tuple2<string, integer>>() { //创建一个累加器 private intcounter linesnum = new intcounter(); @override public void open(configuration parameters) throws exception { //注册一个累加器 getruntimecontext().addaccumulator("linesnum", linesnum); } @override public void flatmap(string line, collector<tuple2<string, integer>> out) throws exception { string[] words = line.split("\\w+"); for (string word : words) { out.collect(new tuple2<>(word, 1)); } // 处理每一行数据后 linesnum 递增 linesnum.add(1); } }) .groupby(0) .sum(1) .print(); //获取累加器结果 int linesnum = env.getlastjobexecutionresult().getaccumulatorresult("linesnum"); system.out.println(linesnum);
这样计算就可以统计输入文本中每个单词出现的次数以及它有多少行。
如果需要自定义累加器,还可以使用 accumulator 或 simpleaccumulator 接口实现自己的累加器。
最后
本篇文章由 zhisheng 翻译,禁止任何无授权的转载。
翻译后地址:
原文地址:https://brewing.codes/2017/10/24/flink-additional-data/
本文部分代码地址:
微信公众号:zhisheng
另外我自己整理了些 flink 的学习资料,目前已经全部放到微信公众号了。你可以加我的微信:zhisheng_tian,然后回复关键字:flink 即可无条件获取到。
更多私密资料请加入知识星球!
博客
1、flink 从0到1学习 —— apache flink 介绍
2、flink 从0到1学习 —— mac 上搭建 flink 1.6.0 环境并构建运行简单程序入门
3、flink 从0到1学习 —— flink 配置文件详解
4、flink 从0到1学习 —— data source 介绍
5、flink 从0到1学习 —— 如何自定义 data source ?
6、flink 从0到1学习 —— data sink 介绍
7、flink 从0到1学习 —— 如何自定义 data sink ?
8、flink 从0到1学习 —— flink data transformation(转换)
9、flink 从0到1学习 —— 介绍 flink 中的 stream windows
10、flink 从0到1学习 —— flink 中的几种 time 详解
11、flink 从0到1学习 —— flink 读取 kafka 数据写入到 elasticsearch
12、flink 从0到1学习 —— flink 项目如何运行?
13、flink 从0到1学习 —— flink 读取 kafka 数据写入到 kafka
14、flink 从0到1学习 —— flink jobmanager 高可用性配置
15、flink 从0到1学习 —— flink parallelism 和 slot 介绍
16、flink 从0到1学习 —— flink 读取 kafka 数据批量写入到 mysql
17、flink 从0到1学习 —— flink 读取 kafka 数据写入到 rabbitmq
18、flink 从0到1学习 —— flink 读取 kafka 数据写入到 hbase
19、flink 从0到1学习 —— flink 读取 kafka 数据写入到 hdfs
20、flink 从0到1学习 —— flink 读取 kafka 数据写入到 redis
21、flink 从0到1学习 —— flink 读取 kafka 数据写入到 cassandra
22、flink 从0到1学习 —— flink 读取 kafka 数据写入到 flume
23、flink 从0到1学习 —— flink 读取 kafka 数据写入到 influxdb
24、flink 从0到1学习 —— flink 读取 kafka 数据写入到 rocketmq
25、flink 从0到1学习 —— 你上传的 jar 包藏到哪里去了
26、flink 从0到1学习 —— 你的 flink job 日志跑到哪里去了
28、flink 从0到1学习 —— flink 中如何管理配置?
29、flink 从0到1学习—— flink 不可以连续 split(分流)?
30、flink 从0到1学习—— 分享四本 flink 国外的书和二十多篇 paper 论文
32、为什么说流处理即未来?
33、oppo 数据中台之基石:基于 flink sql 构建实时数据仓库
36、apache flink 结合 kafka 构建端到端的 exactly-once 处理
38、如何基于flink+tensorflow打造实时智能异常检测平台?只看这一篇就够了
40、flink 全网最全资源(视频、博客、ppt、入门、实战、源码解析、问答等持续更新)
源码解析
4、flink 源码解析 —— standalone session 模式启动流程
5、flink 源码解析 —— standalone session cluster 启动流程深度分析之 job manager 启动
6、flink 源码解析 —— standalone session cluster 启动流程深度分析之 task manager 启动
7、flink 源码解析 —— 分析 batch wordcount 程序的执行过程
8、flink 源码解析 —— 分析 streaming wordcount 程序的执行过程
9、flink 源码解析 —— 如何获取 jobgraph?
10、flink 源码解析 —— 如何获取 streamgraph?
11、flink 源码解析 —— flink jobmanager 有什么作用?
12、flink 源码解析 —— flink taskmanager 有什么作用?
13、flink 源码解析 —— jobmanager 处理 submitjob 的过程
14、flink 源码解析 —— taskmanager 处理 submitjob 的过程
15、flink 源码解析 —— 深度解析 flink checkpoint 机制
16、flink 源码解析 —— 深度解析 flink 序列化机制
17、flink 源码解析 —— 深度解析 flink 是如何管理好内存的?
18、flink metrics 源码解析 —— flink-metrics-core
19、flink metrics 源码解析 —— flink-metrics-datadog
20、flink metrics 源码解析 —— flink-metrics-dropwizard
21、flink metrics 源码解析 —— flink-metrics-graphite
22、flink metrics 源码解析 —— flink-metrics-influxdb
23、flink metrics 源码解析 —— flink-metrics-jmx
24、flink metrics 源码解析 —— flink-metrics-slf4j
25、flink metrics 源码解析 —— flink-metrics-statsd
26、flink metrics 源码解析 —— flink-metrics-prometheus
27、flink 源码解析 —— 如何获取 executiongraph ?
30、flink clients 源码解析原文出处:,欢迎关注我的公众号:zhisheng
上一篇: BFS(四):搜索状态判重
下一篇: Gradle——创建简单的项目