欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Flink 灵魂两百问,这谁顶得住?

程序员文章站 2022-04-30 22:35:09
Flink 学习 "https://github.com/zhisheng17/flink learning" 麻烦路过的各位亲给这个项目点个 star,太不易了,写了这么多,算是对我坚持下来的一种鼓励吧! 本项目结构 2019/06/08 新增 Flink 四本电子书籍的 PDF,在 books ......

flink 学习

麻烦路过的各位亲给这个项目点个 star,太不易了,写了这么多,算是对我坚持下来的一种鼓励吧!

Flink 灵魂两百问,这谁顶得住?

本项目结构

Flink 灵魂两百问,这谁顶得住?

2019/06/08 新增 flink 四本电子书籍的 pdf,在 books 目录下:

2019/06/09 新增流处理引擎相关的 paper,在 paper 目录下:

博客

1、flink 从0到1学习 —— apache flink 介绍

2、flink 从0到1学习 —— mac 上搭建 flink 1.6.0 环境并构建运行简单程序入门

3、flink 从0到1学习 —— flink 配置文件详解

4、flink 从0到1学习 —— data source 介绍

5、flink 从0到1学习 —— 如何自定义 data source ?

6、flink 从0到1学习 —— data sink 介绍

7、flink 从0到1学习 —— 如何自定义 data sink ?

8、flink 从0到1学习 —— flink data transformation(转换)

9、flink 从0到1学习 —— 介绍 flink 中的 stream windows

10、flink 从0到1学习 —— flink 中的几种 time 详解

11、flink 从0到1学习 —— flink 读取 kafka 数据写入到 elasticsearch

12、flink 从0到1学习 —— flink 项目如何运行?

13、flink 从0到1学习 —— flink 读取 kafka 数据写入到 kafka

14、flink 从0到1学习 —— flink jobmanager 高可用性配置

15、flink 从0到1学习 —— flink parallelism 和 slot 介绍

16、flink 从0到1学习 —— flink 读取 kafka 数据批量写入到 mysql

17、flink 从0到1学习 —— flink 读取 kafka 数据写入到 rabbitmq

18、flink 从0到1学习 —— flink 读取 kafka 数据写入到 hbase

19、flink 从0到1学习 —— flink 读取 kafka 数据写入到 hdfs

20、flink 从0到1学习 —— flink 读取 kafka 数据写入到 redis

21、flink 从0到1学习 —— flink 读取 kafka 数据写入到 cassandra

22、flink 从0到1学习 —— flink 读取 kafka 数据写入到 flume

23、flink 从0到1学习 —— flink 读取 kafka 数据写入到 influxdb

24、flink 从0到1学习 —— flink 读取 kafka 数据写入到 rocketmq

25、flink 从0到1学习 —— 你上传的 jar 包藏到哪里去了

26、flink 从0到1学习 —— 你的 flink job 日志跑到哪里去了

Flink 灵魂两百问,这谁顶得住?

学习资料

另外我自己整理了些 flink 的学习资料,目前已经全部放到微信公众号了。
你可以加我的微信:zhisheng_tian,然后回复关键字:flink 即可无条件获取到,转载请联系本人获取授权,违者必究。

Flink 灵魂两百问,这谁顶得住?

更多私密资料请加入知识星球!

Flink 灵魂两百问,这谁顶得住?

有人要问知识星球里面更新什么内容?值得加入吗?

目前知识星球内已更新的系列文章:

1、flink 源码解析 —— 源码编译运行

2、flink 源码解析 —— 项目结构一览

3、flink 源码解析—— local 模式启动流程

4、flink 源码解析 —— standalonesession 模式启动流程

5、flink 源码解析 —— standalone session cluster 启动流程深度分析之 job manager 启动

6、flink 源码解析 —— standalone session cluster 启动流程深度分析之 task manager 启动

7、flink 源码解析 —— 分析 batch wordcount 程序的执行过程

8、flink 源码解析 —— 分析 streaming wordcount 程序的执行过程

9、flink 源码解析 —— 如何获取 jobgraph?

10、flink 源码解析 —— 如何获取 streamgraph?

11、flink 源码解析 —— flink jobmanager 有什么作用?

12、flink 源码解析 —— flink taskmanager 有什么作用?

13、flink 源码解析 —— jobmanager 处理 submitjob 的过程

14、flink 源码解析 —— taskmanager 处理 submitjob 的过程

15、flink 源码解析 —— 深度解析 flink checkpoint 机制

16、flink 源码解析 —— 深度解析 flink 序列化机制

17、flink 源码解析 —— 深度解析 flink 是如何管理好内存的?

18、flink metrics 源码解析 —— flink-metrics-core

19、flink metrics 源码解析 —— flink-metrics-datadog

20、flink metrics 源码解析 —— flink-metrics-dropwizard

21、flink metrics 源码解析 —— flink-metrics-graphite

22、flink metrics 源码解析 —— flink-metrics-influxdb

23、flink metrics 源码解析 —— flink-metrics-jmx

24、flink metrics 源码解析 —— flink-metrics-slf4j

25、flink metrics 源码解析 —— flink-metrics-statsd

26、flink metrics 源码解析 —— flink-metrics-prometheus

Flink 灵魂两百问,这谁顶得住?

26、flink annotations 源码解析

Flink 灵魂两百问,这谁顶得住?

除了《从1到100深入学习flink》源码学习这个系列文章,《从0到1学习flink》的案例文章也会优先在知识星球更新,让大家先通过一些 demo 学习 flink,再去深入源码学习!

如果学习 flink 的过程中,遇到什么问题,可以在里面提问,我会优先解答,这里做个抱歉,自己平时工作也挺忙,微信的问题不能做全部做一些解答,
但肯定会优先回复给知识星球的付费用户的,庆幸的是现在星球里的活跃氛围还是可以的,有不少问题通过提问和解答的方式沉淀了下来。

1、为何我使用 valuestate 保存状态 job 恢复是状态没恢复?

2、flink中watermark究竟是如何生成的,生成的规则是什么,怎么用来处理乱序数据

3、消费kafka数据的时候,如果遇到了脏数据,或者是不符合规则的数据等等怎么处理呢?

4、在kafka 集群中怎么指定读取/写入数据到指定broker或从指定broker的offset开始消费?

5、flink能通过oozie或者azkaban提交吗?

6、jobmanager挂掉后,提交的job怎么不经过手动重新提交执行?

7、使用flink-web-ui提交作业并执行 但是/opt/flink/log目录下没有日志文件 请问关于flink的日志(包括jobmanager、taskmanager、每个job自己的日志默认分别存在哪个目录 )需要怎么配置?

8、通过flink 仪表盘提交的jar 是存储在哪个目录下?

9、从kafka消费数据进行etl清洗,把结果写入hdfs映射成hive表,压缩格式、hive直接能够读取flink写出的文件、按照文件大小或者时间滚动生成文件

10、flink jar包上传至集群上运行,挂掉后,挂掉期间kafka中未被消费的数据,在重新启动程序后,是自动从checkpoint获取挂掉之前的kafka offset位置,自动消费之前的数据进行处理,还是需要某些手动的操作呢?

11、flink 启动时不自动创建 上传jar的路径,能指定一个创建好的目录吗

12、flink sink to es 集群上报 slot 不够,单机跑是好的,为什么?

13、fllink to elasticsearch如何创建索引文档期时间戳?

14、blink有没有api文档或者demo,是否建议blink用于生产环境。

15、flink的python api怎样?bug多吗?

16、flink vs spark streaming vs storm vs kafka stream

17、你们做实时大屏的技术架构是什么样子的?flume→kafka→flink→redis,然后后端去redis里面捞数据,酱紫可行吗?

18、做一个统计指标的时候,需要在flink的计算过程中多次读写redis,感觉好怪,星主有没有好的方案?

19、flink 使用场景大分析,列举了很多的常用场景,可以好好参考一下

20、将kafka中数据sink到mysql时,metadata的数据为空,导入mysql数据不成功???

21、使用了valuestate来保存中间状态,在运行时中间状态保存正常,但是在手动停止后,再重新运行,发现中间状态值没有了,之前出现的键值是从0开始计数的,这是为什么?是需要实现checkpointedfunction吗?

22、flink on yarn jobmanager的ha需要怎么配置。还是说yarn给管理了

23、有两个数据流就行connect,其中一个是实时数据流(kafka 读取),另一个是配置流。由于配置流是从关系型数据库中读取,速度较慢,导致实时数据流流入数据的时候,配置信息还未发送,这样会导致有些实时数据读取不到配置信息。目前采取的措施是在connect方法后的flatmap的实现的在open 方法中,提前加载一次配置信息,感觉这种实现方式不友好,请问还有其他的实现方式吗?

24、flink能通过oozie或者azkaban提交吗?

25、不采用yarm部署flink,还有其他的方案吗? 主要想解决服务器重启后,flink服务怎么自动拉起? jobmanager挂掉后,提交的job怎么不经过手动重新提交执行?

26、在一个 job 里将同份数据昨晚清洗操作后,sink 到后端多个地方(看业务需求),如何保持一致性?(一个sink出错,另外的也保证不能插入)

27、flink sql任务在某个特定阶段会发生tm和jm丢失心跳,是不是由于gc时间过长呢,

28、有这样一个需求,统计用户近两周进入产品详情页的来源(1首页大搜索,2产品频道搜索,3其他),为php后端提供数据支持,该信息在端上报事件中,php直接获取有点困难。 我现在的解决方案 通过flink滚动窗口(半小时),统计用户半小时内3个来源pv,然后按照日期序列化,直接写mysql。php从数据库中解析出来,再去统计近两周占比。 问题1,这个需求适合用flink去做吗? 问题2,我的方案总感觉怪怪的,有没有好的方案?

29、一个task slot 只能同时运行一个任务还是多个任务呢?如果task slot运行的任务比较大,会出现oom的情况吗?

30、你们怎么对线上flink做监控的,如果整个程序失败了怎么自动重启等等

31、flink cep规则动态解析有接触吗?有没有成型的框架?

32、每一个window都有一个watermark吗?window是怎么根据watermark进行触发或者销毁的?

33、checkpoint与savepoint的区别是什么?

34、flink可以在算子*享状态吗?或者大佬你有什么方法可以共享状态的呢?

35、运行几分钟就报了,看taskmager日志,报的是 failed elasticsearch bulk request null,可是我代码里面已经做过空值判断了呀 而且也过滤掉了,flink版本1.7.2 es版本6.3.1

36、这种情况,我们调并行度 还是配置参数好

37、大家都用jdbc写,各种数据库增删查改拼sql有没有觉得很累,ps.set代码一大堆,还要计算每个参数的位置

38、关于datasource的配置,每个taskmanager对应一个datasource?还是每个slot? 实际运行下来,每个slot中datasorce线程池只要设置1就行了,多了也用不到?

39、kafka现在每天出现数据丢失,现在小批量数据,一天200w左右, kafka版本为 1.0.0,集群总共7个节点,topic有十六个分区,单条报文1.5k左右

40、根据key.hash的绝对值 对并发度求模,进行分组,假设10各并发度,实际只有8个分区有处理数据,有2个始终不处理,还有一个分区处理的数据是其他的三倍,如截图

41、flink每7小时不知道在处理什么, cpu 负载 每7小时,有一次高峰,5分钟内平均负载超过0.8,如截图

42、有没有flink写的项目推荐?我想看到用flink写的整体项目是怎么组织的,不单单是一个单例子

43、flink 源码的结构图

44、我想根据不同业务表(case when)进行不同的redis sink(hash ,set),我要如何操作?

45、这个需要清理什么数据呀,我把hdfs里面的已经清理了 启动还是报这个

46、在流处理系统,在机器发生故障恢复之后,什么情况消息最多会被处理一次?什么情况消息最少会被处理一次呢?

47、我检查点都调到5分钟了,这是什么问题

48、reduce方法后 那个交易时间 怎么不是最新的,是第一次进入的那个时间,

49、flink on yarn 模式,用yarn session脚本启动的时候,我在后台没有看到到jobmanager,taskmanager,applicationmaster这几个进程,想请问一下这是什么原因呢?因为之前看官网的时候,说jobmanager就是一个jvm进程,taskmanage也是一个jvm进程

50、flink on yarn的时候得指定 多少个taskmanager和每个taskmanager slot去运行任务,这样做感觉不太合理,因为用户也不知道需要多少个taskmanager适合,flink 有动态启动taskmanager的机制吗。

51、参考这个例子,flink 零基础实战教程:如何计算实时热门商品 | jark's blog, 窗口聚合的时候,用keywindow,用的是timewindowall,然后在aggregate的时候用aggregate(new customaggregatefunction(), new customwindowfunction()),打印结果后,发现窗口中一直使用的重复的数据,统计的结果也不变,去掉customwindowfunction()就正常了 ? 非常奇怪

52、用户进入产品预定页面(端埋点上报),并填写了一些信息(端埋点上报),但半小时内并没有产生任何订单,然后给该类用户发送一个push。 1. 这种需求适合用flink去做吗?2. 如果适合,说下大概的思路

53、业务场景是实时获取数据存redis,请问我要如何按天、按周、按月分别存入redis里?(比方说过了一天自动换一个位置存redis)

54、有人 aggregatingstate 的例子吗, 感觉官方的例子和 官网的不太一样?

55、flink-jdbc这个jar有吗?怎么没找到啊?1.8.0的没找到,1.6.2的有

56、现有个关于savepoint的问题,操作流程为,取消任务时设置保存点,更新任务,从保存点启动任务;现在遇到个问题,假设我中间某个算子重写,原先通过state编写,有用定时器,现在更改后,采用窗口,反正就是实现方式完全不一样;从保存点启动就会一直报错,重启,原先的保存点不能还原,此时就会有很多数据重复等各种问题,如何才能保证数据不丢失,不重复等,恢复到停止的时候,现在想到的是记下kafka的偏移量,再做处理,貌似也不是很好弄,有什么解决办法吗

57、需要在flink计算app页面访问时长,消费kafka计算后输出到kafka。第一条log需要等待第二条log的时间戳计算访问时长。我想问的是,flink是分布式的,那么它能否保证执行的顺序性?后来的数据有没有可能先被执行?

58、我公司想做实时大屏,现有技术是将业务所需指标实时用spark拉到redis里存着,然后再用一条spark streaming流计算简单乘除运算,指标包含了各月份的比较。请问我该如何用flink简化上述流程?

59、flink on yarn 方式,这样理解不知道对不对,yarn-session这个脚本其实就是准备yarn环境的,执行run任务的时候,根据yarn-session初始化的yarndescription 把 flink 任务的jobgraph提交到yarn上去执行

60、同样的代码逻辑写在单独的main函数中就可以成功的消费kafka ,写在一个spring boot的程序中,接受外部请求,然后执行相同的逻辑就不能消费kafka。你遇到过吗?能给一些查问题的建议,或者在哪里打个断点,能看到为什么消费不到kafka的消息呢?

61、请问下flink可以实现一个流中同时存在订单表和订单商品表的数据 两者是一对多的关系 能实现得到 以订单表为主 一个订单多个商品 这种需求嘛

62、在用中间状态的时候,如果中间一些信息保存在state中,有没有必要在redis中再保存一份,来做第三方的存储。

63、能否出一期flink state的文章。什么场景下用什么样的state?如,最简单的,实时累加update到state。

64、flink的双流join博主有使用的经验吗?会有什么常见的问题吗

65、窗口触发的条件问题

66、flink 定时任务怎么做?有相关的demo么?

67、流式处理过程中数据的一致性如何保证或者如何检测

68、重启flink单机集群,还报job not found 异常。

69、kafka的数据是用 org.apache.kafka.common.serialization.bytearrayserialize序列化的,flink这边消费的时候怎么通过flinkkafkaconsumer创建datastream

70、现在公司有一个需求,一些用户的支付日志,通过sls收集,要把这些日志处理后,结果写入到mysql,关键这些日志可能连着来好几条才是一个用户的,因为发起请求,响应等每个环节都有相应的日志,这几条日志综合处理才能得到最终的结果,请问博主有什么好的方法没有?

71、flink 支持hadoop 主备么? hadoop主节点挂了 flink 会切换到hadoop 备用节点?

72、请教大家: 实际 flink 开发中用 scala 多还是 java多些? 刚入手 flink 大数据 scala 需要深入学习么?

73、我使用的是flink是1.7.2最近用了split的方式分流,但是底层的splitstream上却标注为deprecated,请问是官方不推荐使用分流的方式吗?

74、keyby 的正确理解,和数据倾斜问题的解释

75、用flink时,遇到个问题 checkpoint大概有2g左右, 有背压时,flink会重启有遇到过这个问题吗

76、flink使用yarn-session方式部署,如何保证yarn-session的稳定性,如果yarn-session挂了,需要重新部署一个yarn-session,如何恢复之前yarn-session上的job呢,之前的checkpoint还能使用吗?

77、我想请教一下关于sink的问题。我现在的需求是从kafka消费json数据,这个json数据字段可能会增加,然后将拿到的json数据以parquet的格式存入hdfs。现在我可以拿到json数据的schema,但是在保存parquet文件的时候不知道怎么处理。一是flink没有专门的format parquet,二是对于可变字段的json怎么处理成parquet比较合适?

78、flink如何在较大的数据量中做去重计算。

79、flink能在没有数据的时候也定时执行算子吗?

80、使用rocksdb状态后端,自定义pojo怎么实现序列化和反序列化的,有相关demo么?

81、check point 老是失败,是不是自定义的pojo问题?到本地可以,到hdfs就不行,网上也有很多类似的问题 都没有一个很好的解释和解决方案

82、cep规则如图,当start事件进入时,时间00:00:15,而后进入end事件,时间00:00:40。我发现规则无法命中。请问within 是从start事件开始计时?还是跟window一样根据系统时间划分的?如果是后者,请问怎么配置才能从start开始计时?

83、flink聚合结果直接写mysql的幂等性设计问题

84、flink job打开了checkpoint,用的rocksdb,通过观察hdfs上checkpoint目录,为啥算副本总量会暴增爆减

85、flink 提交任务的 jar包可以指定路径为 hdfs 上的吗

86、在flink web ui上提交的任务,设置的并行度为2,flink是stand alone部署的。两个任务都正常的运行了几天了,今天有个地方逻辑需要修改,于是将任务cancel掉(在命令行cancel也试了),结果taskmanger挂掉了一个节点。后来用其他任务试了,也同样会导致节点挂掉

87、一个配置动态更新的问题折腾好久(配置用个静态的map变量存着,有个线程定时去数据库捞数据然后存在这个map里面更新一把),本地 idea 调试没问题,集群部署就一直报 空指针异常。下游的算子使用这个静态变量map去get key在集群模式下会出现这个空指针异常,估计就是拿不到 map

88、批量写入mysql,完成hbase批量写入

89、用flink清洗数据,其中要访问redis,根据redis的结果来决定是否把数据传递到下流,这有可能实现吗?

90、监控页面流处理的时候这个发送和接收字节为0。

91、sink到mysql,如果直接用idea的话可以运行,并且成功,大大的代码上面用的flinkkafkaconsumer010,而我的flink版本为1.7,kafka版本为2.12,所以当我用flinkkafkaconsumer010就有问题,于是改为
flinkkafkaconsumer就可以直接在idea完成sink到mysql,但是为何当我把该程序打成jar包,去运行的时候,就是报flinkkafkaconsumer找不到呢

92、sockettextstreamwordcount中输入中文统计不出来,请问这个怎么解决,我猜测应该是需要修改一下代码,应该是这个例子默认统计英文

93、flink 应用程序本地 ide 里面运行的时候并行度是怎么算的?

94、请问下flink中对于窗口的全量聚合有apply和process两种 他们有啥区别呢

95、不知道大大熟悉hbase不,我想直接在hbase中查询某一列数据,因为有重复数据,所以想使用distinct统计实际数据量,请问hbase中有没有类似于sql的distinct关键字。如果没有,想实现这种可以不?

96、来分析一下现在flink,kafka方面的就业形势,以及准备就业该如何准备的这方面内容呢?

97、大佬知道flink的datastream可以转换为dataset吗?因为数据需要11分钟一个批次计算五六个指标,并且涉及好几步reduce,计算的指标之间有联系,用stream卡住了。

98、1.如何在同一窗口内实现多次的聚合,比如像spark中的这样2.多个实时流的jion可以用window来处理一批次的数据吗?

99、写的批处理的功能,现在本机跑是没问题的,就是在linux集群上出现了问题,就是不知道如果通过本地调用远程jar包然后传参数和拿到结果参数返回本机

100、我用standalone开启一个flink集群,上传flink官方用例socket window wordcount做测试,开启两个parallelism能正常运行,但是开启4个parallelism后出现错误

101、有使用assignerwithpunctuatedwatermarks 的案例demo吗?网上找了都是assignerwithperiodicwatermarks的,不知道具体怎么使用?

102、有一个datastream(从文件读取的),然后我用flink sql进行计算,这个sql是一个加总的运算,然后通过retractstreamtablesink可以把文件做sql的结果输出到文件吗?这个输出到文件的接口是用什么呢?

103、为啥split这个流设置为过期的

104、需要使用flink table的水印机制控制时间的乱序问题,这种场景下我就使用水印+窗口了,我现在写的demo遇到了问题,就是在把触发计算的窗口table(windowedtable)转换成table进行sql操作时发现窗口中的数据还是乱序的,是不是flink table的windowedtable不支持水印窗口转table-sql的功能

105、flink 对 sql 的重视性

106、flink job打开了checkpoint,任务跑了几个小时后就出现下面的错,截图是打出来的日志,有个oom,又遇到过的没?

107、本地测试是有数据的,之前该任务放在集群也是有数据的,可能提交过多次,现在读不到数据了 group id 也换过了, 只能重启集群解决么?

108、使用flink清洗数据存到es中,直接在flatmap中对处理出来的数据用es自己的clientinterface类直接将数据存入es当中,不走sink,这样的处理逻辑是不是会有问题。

108、flink从kafka拿数据(即增量数据)与存量数据进行内存聚合的需求,现在有一个方案就是程序启动的时候先用flink table将存量数据加载到内存中创建table中,然后将stream的增量数据与table的数据进行关联聚合后输出结束,不知道这种方案可行么。目前个人认为有两个主要问题:1是增量数据stream转化成append table后不知道能与存量的table关联聚合不,2是聚合后输出的结果数据是否过于频繁造成网络传输压力过大

109、设置时间时间特性有什么区别呢, 分别在什么场景下使用呢?两种设置时间延迟有什么区别呢 , 分别在什么场景下使用

110、flink从rabbitmq中读取数据,设置了rabbitmq的correlationdataid和checkpoint为exactly_once;如果flink完成一次checkpoint后,在这次checkpoint之前消费的数据都会从mq中删除。如果某次flink停机更新,那就会出现mq中的一些数据消费但是处于unacked状态。在flink又重新开启后这批数据又会重新消费。那这样是不是就不能保证exactly_once了

111、1. 在flink checkpoint 中, 像 operator的状态信息 是在设置了checkpoint 之后自动的进行快照吗 ?2. 上面这个和我们手动存储的 keyed state 进行快照(这个应该是增量快照)

112、现在有个实时商品数,交易额这种统计需求,打算用 flink从kafka读取binglog日志进行计算,但binglog涉及到insert和update这种操作时 怎么处理才能统计准确,避免那种重复计算的问题?

113、我这边用flink做实时监控,功能很简单,就是每条消息做keyby然后三分钟窗口,然后做些去重操作,触发阈值则报警,现在问题是同一个时间窗口同一个人的告警会触发两次,集群是三台机器,standalone cluster,初步结果是三个算子里有两个收到了同样的数据

114、在使用watermark的时候,默认是每200ms去设置一次watermark,那么每个taskmanager之间,由于得到的数据不同,所以往往产生的最大的watermark不同。 那么这个时候,是各个taskmanager广播这个watermark,得到全局的最大的watermark,还是说各个taskmanager都各自用自己的watermark。主要没看到广播watermark的源码。不知道是自己观察不仔细还是就是没有广播这个变量。

115、现在遇到一个需求,需要在job内部定时去读取redis的信息,想请教flink能实现像普通程序那样的定时任务吗?

116、有个触发事件开始聚合,等到数量足够,或者超时则sink推mq 环境 flink 1.6 用了mapstate 记录触发事件 1 数据足够这个ok 2 超时state ttl 1.6支持,但是问题来了,如何在超时时候增加自定义处理?

117、请问impala这种mpp架构的sql引擎,为什么稳定性比较差呢?

118、watermark跟并行度相关不是,过于全局了,期望是keyby之后再针对每个keyed stream 打watermark,这个有什么好的实践呢?

119、请问如果把一个文件的内容读取成datastream和dataset,有什么区别吗??他们都是一条数据一条数据的被读取吗?

120、有没有kylin相关的资料,或者调优的经验?

121、flink先从jdbc读取配置表到流中,另外从kafka中新增或者修改这个配置,这个场景怎么把两个流一份配置流?我用的connect,接着发不成广播变量,再和实体流合并,但在合并时报exception in thread "main" java.lang.illegalargumentexception

122、flink exactly-once,kafka版本为0.11.0 ,sink基于flinkkafkaproducer011 每五分钟一次checkpoint,但是checkpoint开始后系统直接卡死,at-lease-once 一分钟能完成的checkpoint, 现在十分钟无法完成没进度还是0, 不知道哪里卡住了

123、flink的状态是默认存在于内存的(也可以设置为rocksdb或hdfs),而checkpoint里面是定时存放某个时刻的状态信息,可以设置hdfs或rocksdb是这样理解的吗?

124、flink异步io中,下图这两种有什么区别?为啥要加 completablefuture.supplyasync,不太明白?

125、flink的状态是默认存在于内存的(也可以设置为rocksdb或hdfs),而checkpoint里面是定时存放某个时刻的状态信息,可以设置hdfs或rocksdb是这样理解的吗?

126、有个计算场景,从kafka消费两个数据源,两个数据结构都有时间段概念,计算需要做的是匹配两个时间段,匹配到了,就生成一条新的记录。请问使用哪个工具更合适,flink table还是cep?请大神指点一下 我这边之前的做法,将两个数据流转为table.两个table over window后join成新的表。结果job跑一会就oom.

127、一个互联网公司,或者一个业务系统,如果想做一个全面的监控要怎么做?有什么成熟的方案可以参考交流吗?有什么有什么度量指标吗?

128、怎么深入学习flink,或者其他大数据组件,能为未来秋招找一份大数据相关(计算方向)的工作增加自己的竞争力?

129、oppo的实时数仓,其中明细层和汇总层都在kafka中,他们的关系库的实时数据也抽取到kafka的ods,那么在构建数仓的,需要join 三四个大业务表,业务表会变化,那么是大的业务表是从kafka的ods读取吗?实时数仓,多个大表join可以吗

130、tuple类型有什么方法转换成json字符串吗?现在的场景是,结果在存储到sink中时希望存的是json字符串,这样应用程序获取数据比较好转换一点。如果tuple不好转换json字符串,那么应该以什么数据格式存储到sink中

140、端到端的数据保证,是否意味着中间处理程序中断,也不会造成该批次处理失败的消息丢失,处理程序重新启动之后,会再次处理上次未处理的消息

141、关于flink datastream window相关的。比如我现在使用滚动窗口,统计一周内去重用户指标,按照正常watermark触发计算,需要等到当前周的window到达window的endtime时,才会触发,这样指标一周后才能产出结果。我能不能实现一小时触发一次计算,每次统计截止到当前时间,window中所有到达元素的去重数量。

142、flip-16 loop fault tolerance 是讲现在的checkpoint机制无法在stream loop的时候容错吗?现在这个问题解决了没有呀?

143、现在的需求是,统计各个key的今日累计值,一分钟输出一次。如,各个用户今日累计点击次数。这种需求用datastream还是table api方便点?

144、本地idea可以跑的工程,放在standalone集群上,总报错,报错截图如下,大佬请问这是啥原因

145、比如现在用k8s起了一个flink集群,这时候数据源kafka或者hdfs会在同一个集群上吗,还是会单独再起一个hdfs/kafka集群

146、flink kafka sink 的flinkfixedpartitioner 分配策略,在并行度小于topic的partitions时,一个并行实例固定的写消息到固定的一个partition,那么就有一些partition没数据写进去?

147、基于事件时间,每五分钟一个窗口,五秒钟滑动一次,同时watermark的时间同样是基于事件事件时间的,延迟设为1分钟,假如数据流从12:00开始,如果12:07-12:09期间没有产生任何一条数据,即在12:07-12:09这段间的数据流情况为···· (12:07:00,xxx),(12:09:00,xxx)······,那么窗口[12:02:05-12:07:05],[12:02:10-12:07:10]等几个窗口的计算是否意味着只有等到,12:09:00的数据到达之后才会触发

148、使用flink1.7,当消费到某条消息(protobuf格式),报caused by: org.apache.kafka.common.kafkaexception: record batch for partition notify-18 at offset 1803009 is invalid, cause: record is corrupt 这个异常。 如何设置跳过已损坏的消息继续消费下一条来保证业务不终断? 我看了官网kafka connectors那里,说在deserializationschema.deserialize(...)方法中返回null,flink就会跳过这条消息,然而依旧报这个异常

149、是否可以抽空总结一篇flink 的 watermark 的原理案例?一直没搞明白基于事件时间处理时的数据乱序和数据迟到底咋回事

150、flink中rpc通信的原理,与几个类的讲解,有没有系统详细的文章样,如有求分享,谢谢

151、flink中如何使用基于事件时间处理,但是又不使用watermarks? 我在会话窗口中使用遇到一些问题,图一是基于处理时间的,测试结果session是基于keyby(用户)的,图二是基于事件时间的,不知道是我用法不对还是怎么的,测试结果发现并不是基于keyby(用户的),而是全局的session。不知道怎么修改?

152、flink实时计算平台,yarn模式日志收集怎么做,为什么会checkpoint失败,报警处理,后需要做什么吗?job监控怎么做

153、有flink与jstorm的在不同应用场景下, 性能比较的数据吗? 从网络上能找大部分都是flink与storm的比较. 在jstorm官网上有一份比较的图表, 感觉参考意义不大, 应该是比较早的flink版本.

154、为什么使用sessionwindows.withgap窗口的话,state存不了东西呀,每次加1 ,拿出来都是null, 我换成 timewindow就没问题。

155、请问一下,flink datastream流处理怎么统计去重指标? 官方文档中只看到批处理有distinct概念。

156、好全的一篇文章,对比分析 flink,spark streaming,storm 框架

157、关于 structured_streaming 的 paper

158、zookeeper集群切换领导了,flink集群项目重启了就没有数据的输入和输出了,这个该从哪方面入手解决?

159、我想请教下datastream怎么和静态数据join呢

160、时钟问题导致收到了明天的数据,这时候有什么比较好的处理方法?看到有人设置一个最大的跳跃阈值,如果当前数据时间 - 历史最大时间 超过阈值就不更新。如何合理的设计水印,有没有一些经验呢?

161、大佬们flink怎么定时查询数据库?

162、现在我们公司有个想法,就是提供一个页面,在页面上选择source sink 填写上sql语句,然后后台生成一个flink的作业,然后提交到集群。功能有点类似于华为的数据中台,就是页面傻瓜式操作。后台能自动根据相应配置得到结果。请问拘你的了解,可以实现吗?如何实现?有什么好的思路。现在我无从下手

163、请教一下 flink on yarn 的 ha机制

164、在一般的流处理以及cep, 都可以对于eventtime设置watermark, 有时可能需要设置相对大一点的值, 这内存压力就比较大, 有没有办法不应用jvm中的内存, 而用堆外内存, 或者其他缓存, 最好有cache机制, 这样可以应对大流量的峰值.

165、请教一个flink sql的问题。我有两个聚合后的流表a和b,a和bjoin得到c表。在设置state ttl 的时候是直接对c表设置还是,对a表和b表设置比较好?

166、spark改写为flink,会不会很复杂,还有这两者在sql方面的支持差别大吗?

167、请问flink allowedlateness导致窗口被多次fire,最终数据重复消费,这种问题怎么处理,数据是写到es中

168、设置taskmanager.numberoftaskslots: 4的时候没有问题,但是cpu没有压上去,只用了30%左右,于是设置了taskmanager.numberoftaskslots: 8,但是就报错误找不到其中一个自定义的类,然后kafka数据就不消费了。为什么?cpu到多少合适?slot是不是和cpu数量一致是最佳配置?kafka分区数多少合适,是不是和slot,parallesim一致最佳?

169、需求是根据每条日志切分出需要9个字段,有五个指标再根据9个字段的不同组合去做计算。 第一个方法是:我目前做法是切分的9个字段开5分钟大小1分钟计算一次的滑动窗口窗口,进行一次reduce去重,然后再map取出需要的字段,然后过滤再开5分钟大小1分钟计算一次的滑动窗口窗口进行计算保存结果,这个思路遇到的问题是上一个滑动窗口会每一分钟会计算5分钟数据,到第二个窗口划定的5分钟范围的数据会有好多重复,这个思路会造成数据重复。 第二个方法是:切分的9个字段开5分钟大小1分钟计算一次的滑动窗口窗口,再pross方法里完成所有的过滤,聚合计算,但是再高峰期每分钟400万条数据,这个思路担心在高峰期flink计算不过来

170、a,b,c三个表,a和c有eventtime,a和c直接join可以,a和b join后再和c join 就会报错,这是怎么回事呢

171、自定义的source是这样的(图一所示) 使用的时候是这样的(图二所示),为什么无论 sum.print().setparallelism(2)(图2所示)的并行度设置成几最后结果都是这样的

172、刚接触flink,如有问的不合适的地方,请见谅。 1、为什么说flink是有状态的计算? 2、这个状态是什么?3、状态存在哪里

173、这边用flink 1.8.1的版本,采用flink on yarn,hadoop版本2.6.0。代码是一个简单的滚动窗口统计函数,但启动的时候报错,如下图片。 (2)然后我把flink版本换成1.7.1,重新提交到2.6.0的yarn平台,就能正常运行了。 (3)我们测试集群hadoop版本是3.0,我用flink 1.8.1版本将这个程序再次打包,提交到3.0版本的yarn平台,也能正常运行。 貌似是flink 1.8.1版本与yarn 2.6.0版本不兼容造成的这个问题

174、statebackend我使用的是memorystatebackend, state是怎么释放内存的,例如我在函数中用valuestate存储了历史状态信息。但是历史状态数据我没有手动释放,那么程序会自动释放么?还是一直驻留在内存中

175、请问老师是否可以提供一些apachebeam的学习资料 谢谢

176、flink 的 dataset或者datastream支持索引查询以及删除吗,像spark rdd,如果不支持的话,该转换成什么

177、关于flink的状态,能否把它当做数据库使用,类似于内存数据库,在处理过程中存业务数据。如果是数据库可以算是分布式数据库吗?是不是使用rocksdb这种存储方式才算是?支持的单库大小是不是只是跟本地机器的磁盘大小相关?如果使用硬盘存储会不会效率性能有影响

178、我这边做了个http sink,想要批量发送数据,不过现在只能用数量控制发送,但最后的几个记录没法触发发送动作,想问下有没有什么办法

179、请问下如何做定时去重计数,就是根据时间分窗口,窗口内根据id去重计数得出结果,多谢。试了不少办法,没有简单直接办法

180、我有个job使用了elastic search sink. 设置了批量5000一写入,但是看es监控显示每秒只能插入500条。是不是bulkprocessor的currentrequest为0有关

181、有docker部署flink的资料吗

182、在说明keyby的streamgraph执行过程时,keyby的id为啥是6? 根据前面说,id是一个静态变量,每取一次就递增1,我觉得应该是3啊,是我理解错了吗

183、有没计划出execution graph的远码解析

184、可以分享下物理执行图怎样划分task,以及task如何执行,还有他们之间数据如何传递这块代码嘛?

185、flink源码和这个学习项目的结构图

186、请问flink1.8,如何做到动态加载外部udf-jar包呢?

187、同一个task manager中不同的slot是怎么交互的,比如:source处理完要传递给map的时候,如果在不同的slot中,他们的内存是相互隔离,是怎么交互的呢? 我猜是通过序列化和反序列化对象,并且通过网络来进行交互的

188、你们有没有这种业务场景。flink从kafka里面取数据,每一条数据里面有mongdb表a的id,这时我会在map的时候采用flink的异步io连接a表,然后查询出a表的字段1,再根据该字段1又需要异步io去b表查询字段2,然后又根据字段2去c表查询字段3.....像这样的业务场景,如果多来几种逻辑,我应该用什么方案最好呢

189、今天本地运行flink程序,消费socket中的数据,连续只能消费两条,第三条flink就消费不了了

190、源数据经过过滤后分成了两条流,然后再分别提取事件时间和水印,做时间窗口,我测试时一条流没有数据,另一条的数据看日志到了窗口操作那边就没走下去,貌似窗口一直没有等到触发

191、有做flink cep的吗,有资料没?

192、麻烦问一下 bucketingsink跨集群写,如果任务运行在hadoop a集群,从kafka读取数据处理后写到hadoo b集群,即使把core-site.xml和hdfs-site.xml拷贝到代码resources下,路径使用hdfs://hadoopb/xxx,会提示ava.lang.runtimeexception: error while creating filesystem when initializing the state of the bucketingsink.,跨集群写这个问题 flink不支持吗?

193、想咨询下,如何对flink中的datastream和dataset进行数据采样

194、一个flink作业经常发生oom,可能是什么原因导致的。 处理流程只有15+字段的解析,redis数据读取等操作,tm配置10g。 业务会在夜间刷数据,qps能打到2500左右~

195、我看到flink 1.8的状态过期仅支持processing time,那么如果我使用的是event time那么状态就不会过期吗

196、请问我想每隔一小时统计一个属性从当天零点到当前时间的平均值,这样的时间窗该如何定义?

197、flink任务里面反序列化一个类,报classnotfoundexception,可是包里面是有这个类的,有遇到这种情况吗?

198、在构造streamgraph,类似partitiontransformmation 这种类型的 transform,为什么要添加成一个虚拟节点,而不是一个实际的物理节点呢?

199、flink消费kafka的数据写入到hdfs中,我采用了bucketingsink 这个sink将operator出来的数据写入到hdfs文件上,并通过在hive中建外部表来查询这个。但现在有个问题,处于in-progress的文件,hive是无法识别出来该文件中的数据,可我想能在hive中实时查询进来的数据,且不想产生很多的小文件,这个该如何处理呢

200、采用flink单机集群模式一个jobmanager和两个taskmanager,机器是单机是24核,现在做个简单的功能从kafka的一个topic转满足条件的消息到另一个topic,topic的分区是30,我设置了程序默认并发为30,现在每秒消费2w多数据,不够快,请问可以怎么提高job的性能呢?

201、flink metric 源码分析

等等等,还有很多,复制粘贴的我手累啊