一次flume exec source采集日志到kafka因为单条日志数据非常大同步失败的踩坑带来的思考
本次遇到的问题描述,日志采集同步时,当单条日志(日志文件中一行日志)超过2m大小,数据无法采集同步到kafka,分析后,共踩到如下几个坑。
1、flume采集时,通过shell+exec(tail -f xxx.log 的方式) source来获取日志时,当单条日志过大超过1m时,source端无法从日志中获取到event。
2、日志超过1m后,flume的kafka sink 作为生产者发送给日志给kafka失败,kafka无法收到消息。
以下针对踩的这两个坑做分析,flume 我使用的是1.9.0版本。 kafka使用的是2.11-2.0.0版本
问题一、flume采集时,通过shell+exec(tail -f xxx.log 的方式) source来获取日志时,当单条日志过大超过1m时,source端无法从日志中获取到event。flume的配置如下:
......
agent.sources = seqgensrc
......
# for each one of the sources, the type is defined
agent.sources.seqgensrc.type = exec
#agent.sources.seqgensrc.command = tail -f /opt/logs/test.log|grep businesscollection|awk -f '- {' '{print "{"$2}'
agent.sources.seqgensrc.command = tail -f /opt/logs/test.log|grep businesscollection
agent.sources.seqgensrc.shell = /bin/bash -c
agent.sources.seqgensrc.batchsize = 1
agent.sources.seqgensrc.batchtimeout = 90000
......
原因:采用shell+exec方式的时候,flume的源码中使用的是如下的方式来获取日志
private process process = null;
//使用这种方式来执行命令。
process = runtime.getruntime().exec(commandargs);
//读取日志
reader = new bufferedreader( new inputstreamreader(process.getinputstream(), charset));
在一行日志超过1m后,这个代码就假死了,一直宕住,导致无法获取到数据。
针对这个问题处理方式:
方式一:修改源码的实现方式。(1.9.0的源码 对应的是源码中的flume-ng-core 项目中的org.apache.flume.source.execsource.java 这个类)
//process的采用如下方式获和执行命令,就改一行代码。增加.redirecterrorstream(true)后,输入流就都可以获取到,哪怕超过1m
process = new processbuilder(commandargs).redirecterrorstream(true).start();
修改完成后,重新打包编译,然后将生成的jar包替换原来老的jar包。
方式二:放弃execsource,使用taildir source。 使用这个source时,对应的配置如下:
......
agent.sources = seqgensrc
......
# for each one of the sources, the type is defined
agent.sources.seqgensrc.type = taildir
agent.sources.seqgensrc.positionfile = ./taildir_position.json
agent.sources.seqgensrc.filegroups = seqgensrc
agent.sources.seqgensrc.filegroups.seqgensrc = /opt/logs/test.log
agent.sources.seqgensrc.fileheader = false
agent.sources.seqgensrc.batchsize = 1
......
建议采用taildir source 比较好,这个可以对多个日志进行监控和采集,而且日志采集时会记录日志采集位置到positionfile 中,这样日志采集不会重复。exec source在重启采集时数据会重复采集,还需要其他的方式去避免重复采集
问题二、日志超过1m后,flume的kafka sink 作为生产者发送给日志给kafka失败,kafka无法收到消息
原因:kafka 在默认情况下,只能接收1m大小以内的消息,在没有做自定义设置时。所以单条消息大于1m后是无法处理的。
处理方式如下:
1)、修改kafka 服务端server.properties文件,做如下设置(修改大小限制)
# the send buffer (so_sndbuf) used by the socket server
socket.send.buffer.bytes=502400
# the receive buffer (so_rcvbuf) used by the socket server
socket.receive.buffer.bytes=502400
# the maximum size of a request that the socket server will accept (protection against oom)
socket.request.max.bytes=104857600
message.max.bytes=5242880
replica.fetch.max.bytes=6291456
2)、修改producer.properties,做如下设置(修改大小限制)
# the maximum size of a request in bytes max.request.size= 9242880
3)、java代码中在初始化kafka 生产者时,也需要指定max.request.size= 9242880
properties properties = new properties();
...
properties.put("max.request.size", 5242880);
...
kafkaproducer<object,object> kafkaproducer = new kafkaproducer<object,object>(properties);
4)、消费者在消费kafka数据时,也需要注意设置消费消息的大小限制
properties properties = new properties();
...
properties.put(consumerconfig.fetch_max_bytes_config, 6291456);
...
kafkaconsumer<string, string> consumer = new kafkaconsumer<>(properties);
对于flume不了的同学,可以看flume 1.9中文版用户指南:
flume1.9 用户指南 (中文版)
概述
apache flume 是一个分布式, 可靠且可用的系统, 用于有效地从许多不同的 source 收集, 聚合和移动大量日志数据到集中式数据存储.
apache flume 的使用不仅限于日志数据聚合. 由于数据 source 是可定制的, 因此 flume 可用于传输大量 event 数据, 包括但不限于网络流量数据, 社交媒体生成的数据, 电子邮件消息以及几乎任何可能的数据 source.
apache flume 是 apache software foundation 的*项目.
系统要求
java 运行时环境 - java 1.8 或更高版本
内存 - 为 source,channel 或 sink 配置的内存
磁盘空间 - channel 或 sink 配置的磁盘空间
目录权限 - agent 使用的目录的读 / 写权限
架构
数据流模型
flume event 被定义为具有字节有效负载和可选字符串属性集的数据流单元. flume agent 是一个 (jvm) 进程, 它承载 event 从外部 source 流向下一个目标 (跃点) 的组件.

flume source 消耗由外部 source(如 web 服务器)传递给它的 event . 外部 source 以目标 flume source 识别的格式向 flume 发送 event . 例如, avro flume source 可用于从 avro 客户端或从 avrosink 发送 event 的流中的其他 flume agent 接收 avroevent . 可以使用 thrift flume source 定义类似的流程, 以接收来自 thrift sink 或 flume thrift rpc 客户端或 thrift 客户端的 event , 这些客户端使用 flume thrift 协议生成的任何语言编写. 当 flume source 接收 event 时, 它将其存储到一个或多个 channels . 该 channel 是一个被动存储器, 可以保持 event 直到它被 flume sink 消耗. 文件 channel 就是一个例子 - 它由本地文件系统支持. sink 从 channel 中移除 event 并将其放入外部存储库 (如 hdfs(通过 flume hdfs sink)) 或将其转发到流中下一个 flume agent (下一跳)的 flume source. 给定 agent 中的 source 和 sink 与 channel 中暂存的 event 异步运行.
复杂的流程
flume 允许用户构建多跳流, 其中 event 在到达最终目的地之前经过多个 agent . 它还允许 fan-in 和 fan-out, 上下文路由和故障跳跃的备份路由(故障转移).
可靠性
event 在每个 agent 的 channel 中进行. 然后将 event 传递到流中的下一个 agent 或终端存储库(如 hdfs). 只有将 event 存储在下一个 agent 的 channel 或终端存储库中后, 才会从 channel 中删除这些 event . 这就是 flume 中的单跳消息传递语义如何提供流的端到端可靠性.
flume 使用事务方法来保证 event 的可靠传递. source 和 sink 分别在事务中封装由 channel 提供的事务中放置或提供的 event 的存储 / 检索. 这可确保 event 集在流中从一个点到另一个点可靠地传递. 在多跳流的情况下, 来自前一跳的 sink 和来自下一跳的 source 都运行其事务以确保数据安全地存储在下一跳的 channel 中.
可恢复性
event 在 channel 中进行, 该 channel 管理从故障中恢复. flume 支持由本地文件系统支持的持久文件 channel. 还有一个内存 channel, 它只是将 event 存储在内存中的队列中, 这更快, 但是当 agent 进程死亡时仍然留在内存 channel 中的任何 event 都无法恢复.
设置
设置 agent
flume agent 配置存储在本地配置文件中. 这是一个遵循 java 属性文件格式的文本文件. 可以在同一配置文件中指定一个或多个 agent 的配置. 配置文件包括 agent 中每个 source,sink 和 channel 的属性以及它们如何连接在一起以形成数据流.
配置单个组件
流中的每个组件 (source,sink 或 channel) 都具有特定于类型和实例化的名称, 类型和属性集. 例如, avrosource 需要主机名 (或 ip 地址) 和端口号来接收数据. 内存 channel 可以具有最大队列大小 ("容量"),hdfs sink 需要知道文件系统 uri, 创建文件的路径, 文件轮换频率("hdfs.rollinterval") 等. 组件的所有此类属性需要在托管 flume agent 的属性文件中设置.
将各个部分连接在一起
agent 需要知道要加载哪些组件以及它们如何连接以构成流程. 这是通过列出 agent 中每个 source,sink 和 channel 的名称, 然后为每个 sink 和 source 指定连接 channel 来完成的. 例如, agent 通过名为 file-channel 的文件 channel 将 event 从名为 avroweb 的 avrosource 流向 hdfs sink hdfs-cluster1. 配置文件将包含这些组件的名称和文件 channel, 作为 avrowebsource 和 hdfs-cluster1 sink 的共享 channel.
启动 agent
使用名为 flume-ng 的 shell 脚本启动 agent 程序, 该脚本位于 flume 发行版的 bin 目录中. 您需要在命令行上指定 agent 名称, config 目录和配置文件:
$ bin/flume-ng agent -n $agent_name -c conf -f conf/flume-conf.properties.template
现在, agent 将开始运行在给定属性文件中配置的 source 和 sink.
一个简单的例子
在这里, 我们给出一个示例配置文件, 描述单节点 flume 部署. 此配置允许用户生成 event , 然后将其记录到控制台.
# example.conf: a single-node flume configuration
# name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
# describe the sink
a1.sinks.k1.type = logger
# use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactioncapacity = 100
# bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
此配置定义名为 a1 的单个 agent .a1 有一个监听端口 44444 上的数据的 source, 一个缓冲内存中 event 数据的 channel, 以及一个将 event 数据记录到控制台的 sink. 配置文件命名各种组件, 然后描述其类型和配置参数. 给定的配置文件可能会定义几个命名的 agent 当一个给定的 flume 进程启动时, 会传递一个标志, 告诉它要显示哪个命名 agent.
鉴于此配置文件, 我们可以按如下方式启动 flume:
$ bin/flume-ng agent --conf conf --conf-file example.conf --name a1 -dflume.root.logger=info,console
请注意, 在完整部署中, 我们通常会包含一个选项: --conf=<conf-dir> . 所述 <conf-dir> 目录将包括一个 shell 脚本 f lume-env.sh 和潜在的一个 log4j 的属性文件. 在这个例子中, 我们传递一个 java 选项来强制 flume 登录到控制台, 我们没有自定义环境脚本.
从一个单独的终端, 我们可以 telnet 端口 44444 并向 flume 发送一个 event :
$ telnet localhost 44444
trying 127.0.0.1...
connected to localhost.localdomain (127.0.0.1).
escape character is '^]'.
hello world! <enter>
ok
原始的 flume 终端将在日志消息中输出 event .
12/06/19 15:32:19 info source.netcatsource: source starting
12/06/19 15:32:19 info source.netcatsource: created serversocket:sun.nio.ch.serversocketchannelimpl[/127.0.0.1:44444]
12/06/19 15:32:34 info sink.loggersink: event: {
headers:{
} body: 48 65 6c 6c 6f 20 77 6f 72 6c 64 21 0d hello world!.
}
恭喜 - 您已成功配置并部署了 flume agent ! 后续部分更详细地介绍了 agent 配置.
在配置文件中使用环境变量
flume 能够替换配置中的环境变量. 例如:
a1.sources = r1
a1.sources.r1.type = netcat
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = ${
nc_port
}
a1.sources.r1.channels = c1
注意: 它目前仅适用于 values , 不适用于 keys . (ie. only on the "right side" of the = mark of the config lines.)
通过设置 propertiesimplementation = org.apache.flume.node.envvarresolverproperties, 可以通过 agent 程序调用上的 java 系统属性启用此功能.
例如:
$ nc_port=44444 bin/flume-ng agent -conf conf -conf-file example.conf -name a1 -dflume.root.logger=info,console -dpropertiesimplementation=org.apache.flume.node.envvarresolverproperties
请注意, 上面只是一个示例, 可以通过其他方式配置环境变量, 包括在 conf/flume-env.sh.
记录原始数据
在许多生产环境中记录流经摄取 pipeline 的原始数据流不是所希望的行为, 因为这可能导致泄漏敏感数据或安全相关配置 (例如密钥) 泄漏到 flume 日志文件. 默认情况下, flume 不会记录此类信息. 另一方面, 如果数据管道被破坏, flume 将尝试提供调试 debug 的线索.
调试 event 管道问题的一种方法是设置 连接到 logger sink 的附加内存 channel, 它将所有 event 数据输出到 flume 日志. 但是, 在某些情况下, 这种方法是不够的.
为了能够记录 event 和配置相关的数据, 除了 log4j 属性外, 还必须设置一些 java 系统属性.
要启用与配置相关的日志记录, 请设置 java 系统属性 - dorg.apache.flume.log.printconfig=true . 这可以在命令行上传递, 也可以在 flume-env.sh 中的 java_opts 变量中设置.
要启用数据记录, 请 按照上述相同方式设置 java 系统属性 -dorg.apache.flume.log.rawdata=true . 对于大多数组件, 还必须将 log4j 日志记录级别设置为 debug 或 trace, 以使特定于 event 的日志记录显示在 flume 日志中.
下面是启用配置日志记录和原始数据日志记录的示例, 同时还将 log4j 日志级别设置为 debug 以用于控制台输出:
$ bin/flume-ng agent --conf conf --conf-file example.conf --name a1 -dflume.root.logger=debug,console -dorg.apache.flume.log.printconfig=true -dorgwdata=true
基于 zookeeper 的配置
flume 通过 zookeeper 支持 agent 配置. 这是一个实验性功能. 配置文件需要在可配置前缀下的 zookeeper 中上传. 配置文件存储在 zookeeper 节点数据中. 以下是 agent 商 a1 和 a2 的 zookeeper 节点树的外观
- /flume |- /a1 [agent config file] |- /a2 [agent config file]
上载配置文件后, 使用以下选项启动 agent
$ bin/flume-ng agent -conf conf -z zkhost:2181,zkhost1:2181 -p /flume -name a1 -dflume.root.logger=info,console
argument name | default | description |
---|---|---|
z | – | zookeeper 连接字符串。以逗号分隔的主机名列表:port |
p | /flume | zookeeper 中的基本路径,用于存储 agent 配置 |
flume 拥有完全基于插件的架构. 虽然 flume 附带了许多开箱即用的 source,channels,sink,serializers 等, 但许多实现都与 flume 分开运行. 安装第三方插件
虽然通过将自己的 jar 包添加到 flume-env.sh 文件中的 flume_classpath 变量中, 始终可以包含自定义 flume 组件, 但 flume 现在支持一个名为 plugins.d 的特殊目录, 该目录会自动获取以特定格式打包的插件. 这样可以更轻松地管理插件打包问题, 以及更简单的调试和几类问题的故障排除, 尤其是库依赖性冲突.
目录
该 plugins.d 目录位于 $flume_home/plugins.d . 在启动时, flume-ng 启动脚本在 plugins.d 目录中查找符合以下格式的插件, 并在启动 java 时将它们包含在正确的路径中.
插件的目录布局
plugins.d 中的每个插件 (子目录) 最多可以有三个子目录:
lib - the plugin's jar(s) libext - the plugin's dependency jar(s) native - any required native libraries, such as .so files
plugins.d 目录中的两个插件示例:
plugins.d/ plugins.d/custom-source-1/ plugins.d/custom-source-1/lib/my-source.jar plugins.d/custom-source-1/libext/spring-core-2.5.6.jar plugins.d/custom-source-2/ plugins.d/custom-source-2/lib/custom.jar plugins.d/custom-source-2/native/gettext.so
数据摄取
flume 支持许多从外部来 source 摄取数据的机制.
rpc
flume 发行版中包含的 avro 客户端可以使用 avro rpc 机制将给定文件发送到 flume avrosource:
$ bin/flume-ng avro-client -h localhost -p 41414 -f /usr/logs/log.10
上面的命令会将 /usr/logs/log.10 的内容发送到监听该端口的 flume source.
执行命令
有一个 exec source 执行给定的命令并消耗输出. 输出的单 "行" 即. 文本后跟回车符 ('\ r') 或换行符 ('\ n') 或两者一起.
网络流
flume 支持以下机制从常用日志流类型中读取数据, 例如:
- avro
- thrift
- syslog
- netcat
设置多 agent 流程

为了跨多个 agent 或跳数据流, 先前 agent 的 sink 和当前跳的 source 需要是 avro 类型, sink 指向 source 的主机名 (或 ip 地址) 和端口.
合并
日志收集中非常常见的情况是大量日志生成客户端将数据发送到连接到存储子系统的少数消费者 agent . 例如, 从数百个 web 服务器收集的日志发送给写入 hdfs 集群的十几个 agent .

这可以通过使用 avrosink 配置多个第一层 agent 在 flume 中实现, 所有这些 agent 都指向单个 agent 的 avrosource(同样, 您可以在这种情况下使用 thriftsource/sink / 客户端). 第二层 agent 上的此 source 将接收的 event 合并到单个信道中, 该信道由信宿器消耗到其最终目的地.
多路复用流程
flume 支持将 event 流多路复用到一个或多个目的地. 这是通过定义可以复制或选择性地将 event 路由到一个或多个信道的流复用器来实现的.

上面的例子显示了来自 agent "foo" 的 source 代码将流程扩展到三个不同的 channel. 扇出可以复制或多路复用. 在复制流的情况下, 每个 event 被发送到所有三个 channel. 对于多路复用情况, 当 event 的属性与预配置的值匹配时, event 将被传递到可用 channel 的子集. 例如, 如果一个名为 "txntype" 的 event 属性设置为 "customer", 那么它应该转到 channel1 和 channel3, 如果它是 "vendor", 那么它应该转到 channel2, 否则转到 channel3. 可以在 agent 的配置文件中设置映射.
配置
如前面部分所述, flume agent 程序配置是从类似于具有分层属性设置的 java 属性文件格式的文件中读取的.
定义流程
要在单个 agent 中定义流, 您需要通过 channel 链接 source 和 sink. 您需要列出给定 agent 的 source,sink 和 channel, 然后将 source 和 sink 指向 channel.source 实例可以指定多个 channel, 但 sink 实例只能指定一个 channel. 格式如下:
# list the sources, sinks and channels for the agent
<agent>.sources = <source>
<agent>.sinks = <sink>
<agent>.channels = <channel1> <channel2>
# set channel for source
<agent>.sources.<source>.channels = <channel1> <channel2> ...
# set channel for sink
<agent>.sinks.<sink>.channel = <channel1>
例如, 名为 agent_foo 的 agent 正在从外部 avro 客户端读取数据并通过内存 channel 将其发送到 hdfs.
配置文件 weblog.config 可能如下所示:
# list the sources, sinks and channels for the agent agent_foo.sources = avro-appserver-src-1 agent_foo.sinks = hdfs-sink-1 agent_foo.channels = mem-channel-1 # set channel for source agent_foo.sources.avro-appserver-src-1.channels = mem-channel-1 # set channel for sink agent_foo.sinks.hdfs-sink-1.channel = mem-channel-1
这将使 event 从 avro-appsrv-source 流向 hdfs-cluster1-sink, 通过内存 channelmem-channel-1.
当使用 weblog.config 作为其配置文件启动 agent 程序时, 它将实例化该流程.
配置单个组件
定义流后, 您需要设置每个 source,sink 和 channel 的属性. 这是以相同的分层命名空间方式完成的, 您可以在其中设置组件类型以及特定于每个组件的属性的其他值:
# properties for sources <agent>.sources.<source>.<someproperty> = <somevalue> # properties for channels <agent>.channel.<channel>.<someproperty> = <somevalue> # properties for sinks <agent>.sources.<sink>.<someproperty> = <somevalue>
需要为 flume 的每个组件设置属性 "type", 以了解它需要什么类型的对象. 每个 source,sink 和 channel 类型都有自己的一组属性, 使其能够按预期运行. 所有这些都需要根据需要进行设置. 在前面的示例中, 我们有一个从 avro-appsrv-source 到 hdfs-cluster1-sink 的流程通过内存 channelmem-channel-1. 这是一个显示每个组件配置的示例:
agent_foo.sources = avro-appsrv-source agent_foo.sinks = hdfs-cluster1-sink agent_foo.channels = mem-channel-1 # set channel for sources, sinks # properties of avro-appsrv-source agent_foo.sources.avro-appsrv-source.type = avro agent_foo.sources.avro-appsrv-source.bind = localhost agent_foo.sources.avro-appsrv-source.port = 10000 # properties of mem-channel-1 agent_foo.channels.mem-channel-1.type = memory agent_foo.channels.mem-channel-1.capacity = 1000 agent_foo.channels.mem-channel-1.transactioncapacity = 100 # properties of hdfs-cluster1-sink agent_foo.sinks.hdfs-cluster1-sink.type = hdfs agent_foo.sinks.hdfs-cluster1-sink.hdfs.path = hdfs://namenode/flume/webdata #...
在 agent 中添加多个流
单个 flume agent 可以包含多个独立流. 您可以在配置中列出多个 source,sink 和 channel. 可以链接这些组件以形成多个流:
# list the sources, sinks and channels for the agent <agent>.sources = <source1> <source2> <agent>.sinks = <sink1> <sink2> <agent>.channels = <channel1> <channel2>
然后, 您可以将 source 和 sink 链接到 channel(用于 sink)的相应 channel(用于 source), 以设置两个不同的流. 例如, 如果您需要在 agent 中设置两个流, 一个从外部 avro 客户端到外部 hdfs, 另一个从尾部输出到 avrosink, 那么这是一个配置来执行此操作:
# list the sources, sinks and channels in the agent agent_foo.sources = avro-appsrv-source1 exec-tail-source2 agent_foo.sinks = hdfs-cluster1-sink1 avro-forward-sink2 agent_foo.channels = mem-channel-1 file-channel-2 # flow #1 configuration agent_foo.sources.avro-appsrv-source1.channels = mem-channel-1 agent_foo.sinks.hdfs-cluster1-sink1.channel = mem-channel-1 # flow #2 configuration agent_foo.sources.exec-tail-source2.channels = file-channel-2 agent_foo.sinks.avro-forward-sink2.channel = file-channel-2
配置多 agent 流程
要设置多层流, 您需要有 sink 指向下一跳的 avro/thrift source. 这将导致第一个 flume agent 将 event 转发到下一个 flume agent . 例如, 如果您使用 avro 客户端定期向本地 flume agent 发送文件(每个 event 1 个文件), 则此本地 agent 可以将其转发到另一个已安装存储的 agent
weblog agent 配置:
# list sources, sinks and channels in the agent agent_foo.sources = avro-appsrv-source agent_foo.sinks = avro-forward-sink agent_foo.channels = file-channel # define the flow agent_foo.sources.avro-appsrv-source.channels = file-channel agent_foo.sinks.avro-forward-sink.channel = file-channel # avro sink properties agent_foo.sinks.avro-forward-sink.type = avro agent_foo.sinks.avro-forward-sink.hostname = 10.1.1.100 agent_foo.sinks.avro-forward-sink.port = 10000 # configure other pieces #...
hdfs agent 配置:
# list sources, sinks and channels in the agent agent_foo.sources = avro-collection-source agent_foo.sinks = hdfs-sink agent_foo.channels = mem-channel # define the flow agent_foo.sources.avro-collection-source.channels = mem-channel agent_foo.sinks.hdfs-sink.channel = mem-channel # avro source properties agent_foo.sources.avro-collection-source.type = avro agent_foo.sources.avro-collection-source.bind = 10.1.1.100 agent_foo.sources.avro-collection-source.port = 10000 # configure other pieces #...
在这里, 我们将 weblog agent 的 avro-forward-sink 链接到 hdfs agent 的 avro-collection-source. 这将导致来自外部应用程序服务器 source 的 event 最终存储在 hdfs 中.
扇出流量
如前一节所述, flume 支持扇出从一个 source 到多个 channel 的流量. 扇出有两种模式 : 复制和多路复用. 在复制流程中, event 将发送到所有已配置的 channel. 在多路复用的情况下, event 仅被发送到合格 channels 的子集. 为了散开流量, 需要指定 source 的 channel 列表以及扇出它的策略. 这是通过添加可以复制或多路复用的 channel"选择器" 来完成的. 如果它是多路复用器, 则进一步指定选择规则. 如果您没有指定选择器, 那么默认情况下它会复制:
# list the sources, sinks and channels for the agent <agent>.sources = <source1> <agent>.sinks = <sink1> <sink2> <agent>.channels = <channel1> <channel2> # set list of channels for source (separated by space) <agent>.sources.<source1>.channels = <channel1> <channel2> # set channel for sinks <agent>.sinks.<sink1>.channel = <channel1> <agent>.sinks.<sink2>.channel = <channel2> <agent>.sources.<source1>.selector.type = replicating
多路复用选择具有另一组属性以分流流. 这需要指定 event 属性到 channel 集的映射. 选择器检查 event 头中的每个已配置属性. 如果它与指定的值匹配, 则该 event 将发送到映射到该值的所有 channel. 如果没有匹配项, 则将 event 发送到配置为默认值的 channel 集:
# mapping for multiplexing selector <agent>.sources.<source1>.selector.type = multiplexing <agent>.sources.<source1>.selector.header = <someheader> <agent>.sources.<source1>.selector.mapping.<value1> = <channel1> <agent>.sources.<source1>.selector.mapping.<value2> = <channel1> <channel2> <agent>.sources.<source1>.selector.mapping.<value3> = <channel2> #... <agent>.sources.<source1>.selector.default = <channel2>
映射允许为每个值重叠 channel.
以下示例具有多路复用到两个路径的单个流. 名为 agent_foo 的 agent 具有单个 avrosource 和两个链接到两个 sink 的 channel:
# list the sources, sinks and channels in the agent
agent_foo.sources = avro-appsrv-source1
agent_foo.sinks = hdfs-cluster1-sink1 avro-forward-sink2
agent_foo.channels = mem-channel-1 file-channel-2
# set channels for source
agent_foo.sources.avro-appsrv-source1.channels = mem-channel-1 file-channel-2
# set channel for sinks
agent_foo.sinks.hdfs-cluster1-sink1.channel = mem-channel-1
agent_foo.sinks.avro-forward-sink2.channel = file-channel-2
# channel selector configuration
agent_foo.sources.avro-appsrv-source1.selector.type = multiplexing
agent_foo.sources.avro-appsrv-source1.selector.header = state
agent_foo.sources.avro-appsrv-source1.selector.mapping.ca = mem-channel-1
agent_foo.sources.avro-appsrv-source1.selector.mapping.az = file-channel-2
agent_foo.sources.avro-appsrv-source1.selector.mapping.ny = mem-channel-1 file-channel-2
agent_foo.sources.avro-appsrv-source1.selector.default = mem-channel-1
选择器检查名为 "state" 的标头. 如果该值为 "ca", 则将其发送到 mem-channel-1, 如果其为 "az", 则将其发送到文件 channel-2, 或者如果其为 "ny" 则为两者. 如果 "状态" 标题未设置或与三者中的任何一个都不匹配, 则它将转到 mem-channel-1, 其被指定为 "default".
选择器还支持可选 channel. 要为标头指定可选 channel, 可通过以下方式使用 config 参数 "optional":
# channel selector configuration
agent_foo.sources.avro-appsrv-source1.selector.type = multiplexing
agent_foo.sources.avro-appsrv-source1.selector.header = state
agent_foo.sources.avro-appsrv-source1.selector.mapping.ca = mem-channel-1
agent_foo.sources.avro-appsrv-source1.selector.mapping.az = file-channel-2
agent_foo.sources.avro-appsrv-source1.selector.mapping.ny = mem-channel-1 file-channel-2
agent_foo.sources.avro-appsrv-source1.selector.optional.ca = mem-channel-1 file-channel-2
agent_foo.sources.avro-appsrv-source1.selector.mapping.az = file-channel-2
agent_foo.sources.avro-appsrv-source1.selector.default = mem-channel-1
选择器将首先尝试写入所需的 channel, 如果其中一个 channel 无法使用 event , 则会使事务失败. 在所有渠道上重新尝试交易. 一旦所有必需的 channel 消耗了 event , 则选择器将尝试写入可选 channel. 任何可选 channel 使用该 event 的失败都会被忽略而不会重试.
如果可选信道与特定报头的所需信道之间存在重叠, 则认为该信道是必需的, 并且信道中的故障将导致重试所有必需信道集. 例如, 在上面的示例中, 对于标题 "ca",mem-channel-1 被认为是必需的 channel, 即使它被标记为必需和可选, 并且写入此 channel 的失败将导致该 event 在为选择器配置的所有 channel 上重试.
请注意, 如果标头没有任何所需的 channel, 则该 event 将被写入默认 channel, 并将尝试写入该标头的可选 channel. 如果未指定所需的 channel, 则指定可选 channel 仍会将 event 写入默认 channel. 如果没有将 channel 指定为默认 channel 且没有必需 channel, 则选择器将尝试将 event 写入可选 channel. 在这种情况下, 任何失败都会被忽略.
支持
多个 flume 组件支持 ssl / tls 协议, 以便安全地与其他系统通信.
component | ssl server or client |
---|---|
avro source | server |
avro sink | client |
thrift source | server |
thrift sink | client |
kafka source | client |
kafka channel | client |
kafka sink | client |
http source | server |
jms source | client |
syslog tcp source | server |
multiport syslog tcp source | server |
ssl 兼容组件具有若干配置参数来设置 ssl, 例如启用 ssl 标志, 密钥库 / 信任库参数 (位置, 密码, 类型) 和其他 ssl 参数(例如禁用的协议)
始终在 agent 配置文件的组件级别指定为组件启用 ssl. 因此, 某些组件可能配置为使用 ssl, 而其他组件则不配置(即使具有相同的组件类型)
密钥库 / 信任库设置可以在组件级别或全局指定.
在组件级别设置的情况下, 通过组件特定参数在 agent 配置文件中配置密钥库 / 信任库. 此方法的优点是组件可以使用不同的密钥库(如果需要). 缺点是必须为 agent 配置文件中的每个组件复制密钥库参数. 组件级别设置是可选的, 但如果已定义, 则其优先级高于全局参数.
使用全局设置, 只需定义一次密钥库 / 信任库参数, 并对所有组件使用相同的设置, 这意味着更少和更集中的配置.
可以通过系统属性或通过环境变量来配置全局设置.
系统属性 | 环境变量 | 描述 |
---|---|---|
javax.net.ssl.keystore | flume_ssl_keystore_path | 密钥库位置 |
javax.net.ssl.keystorepassword | flume_ssl_keystore_password | 密钥库密码 |
javax.net.ssl.keystoretype | flume_ssl_keystore_type | 密钥库类型(默认为 jks) |
javax.net.ssl.truststore | flume_ssl_truststore_path | 信任库位置 |
javax.net.ssl.truststorepassword | flume_ssl_truststore_password | 信任库密码 |
javax.net.ssl.truststoretype | flume_ssl_truststore_type | 信任库类型(默认为 jks) |
flume.ssl.include.protocols | flume_ssl_include_protocols | 计算启用的协议时要包括的协议。逗号(,)分隔列表。如果提供,排除的协议将从此列表中排除。 |
flume.ssl.exclude.protocols | flume_ssl_exclude_protocols | 计算启用的协议时要排除的协议。逗号(,)分隔列表。 |
flume.ssl.include.ciphersuites | flume_ssl_include_ciphersuites | 在计算启用的密码套件时包含的密码套件。逗号(,)分隔列表。如果提供,排除的密码套件将被排除在此列表之外。 |
flume.ssl.exclude.ciphersuites | flume_ssl_exclude_ciphersuites | 在计算启用的密码套件时要排除的密码套件。逗号(,)分隔列表。 |
可以在命令行上传递 ssl 系统属性, 也可以在 conf / flume-env.sh 中设置 java_opts 环境变量(尽管使用命令行是不可取的, 因为包含密码的命令将保存到命令历史记录中.)
export java_opts="$java_opts -djavax.net.ssl.keystore=/path/to/keystore.jks" export java_opts="$java_opts -djavax.net.ssl.keystorepassword=password"
flume 使用 jsse(java 安全套接字扩展)中定义的系统属性, 因此这是设置 ssl 的标准方法. 另一方面, 在系统属性中指定密码意味着可以在进程列表中看到密码. 对于不可接受的情况, 也可以在环境变量中定义参数. 在这种情况下, flume 在内部从相应的环境变量初始化 jsse 系统属性.
ssl 环境变量可以在启动 flume 之前在 shell 环境中设置, 也可以在 conf / flume-env.sh 中设置(尽管使用命令行是不可取的, 因为包含密码的命令将保存到命令历史记录中.)
export flume_ssl_keystore_path=/path/to/keystore.jks export flume_ssl_keystore_password=password
** 请注意:**
必须在组件级别启用 ssl. 仅指定全局 ssl 参数不会产生任何影响.
如果在多个级别指定全局 ssl 参数, 则优先级如下(从高到低):
agent 配置中的组件参数
系统属性
环境变量
如果为组件启用了 ssl, 但未以上述任何方式指定 ssl 参数, 则
在密钥库的情况下: 配置错误
在 truststores 的情况下: 将使用默认信任库(oracle jdk 中的 jssecacerts / cacerts)
在所有情况下, 可信任密码都是可选的. 如果未指定, 则在 jdk 打开信任库时, 不会对信任库执行完整性检查.
source 和接收批量大小和 channel 事务容量
source 和 sink 可以具有批量大小参数, 该参数确定它们在一个批次中处理的最大 event 数. 这发生在具有称为事务容量的上限的 channel 事务中. 批量大小必须小于渠道的交易容量. 有一个明确的检查, 以防止不兼容的设置. 只要读取配置, 就会进行此检查.
- flume source
- avro source
监听 avro 端口并从外部 avro 客户端流接收 event . 当与另一个(上一跳)flume agent 上的内置 avro sink 配对时, 它可以创建分层集合拓扑. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 avro |
bind | - | 要侦听的主机名或 ip 地址 |
port | - | 要绑定的端口号 |
threads | - | 生成的最大工作线程数 |
selector.type | ||
selector.* | ||
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* | ||
compression-type | none | 这可以是 “none” 或“deflate”。压缩类型必须与匹配 avrosource 的压缩类型匹配 |
ssl | false | 将其设置为 true 以启用 ssl 加密。如果启用了 ssl,则还必须通过组件级参数(请参阅下文)或全局 ssl 参数(请参阅 ssl / tls 支持部分)指定 “密钥库” 和“密钥库密码” 。 |
keysore | - | 这是 java 密钥库文件的路径。如果未在此处指定,则将使用全局密钥库(如果已定义,则配置错误)。 |
keystore-password | - | java 密钥库的密码。如果未在此处指定,则将使用全局密钥库密码(如果已定义,则配置错误)。 |
keystore-type | jks | java 密钥库的类型。这可以是 “jks” 或“pkcs12”。如果未在此处指定,则将使用全局密钥库类型(如果已定义,则默认为 jks)。 |
exclude-protocols | sslv3 | 要排除的以空格分隔的 ssl / tls 协议列表。除指定的协议外,将始终排除 sslv3。 |
include-protocols | - | 要包含的以空格分隔的 ssl / tls 协议列表。启用的协议将是包含的协议,没有排除的协议。如果包含协议为空,则它包括每个支持的协议。 |
exclude-cipher-suites | - | 要排除的以空格分隔的密码套件列表。 |
include-cipher-suites | - | 以空格分隔的密码套件列表。启用的密码套件将是包含的密码套件,不包括排除的密码套件。如果 included-cipher-suites 为空,则包含每个支持的密码套件。 |
ipfilter | false | 将此设置为 true 以启用 ipfiltering for netty |
ipfilterrules | - | 使用此配置定义 n netty ipfilter 模式规则。 |
agent 名为 a1 的示例:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = avro
a1.sources.r1.channels = c1
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 4141
ipfilterrules 的示例
ipfilterrules 定义由逗号分隔的 n 个 netty ipfilters 模式规则必须采用此格式.
<'allow' or deny>:<'ip' or 'name' for computer name>:<pattern> or allow/deny:ip/name:pattern
example: ipfilterrules=allow:ip:127.*,allow:name:localhost,deny:ip:*
请注意, 匹配的第一个规则将适用, 如下例所示, 来自 localhost 上的客户端
这将允许 localhost 上的客户端拒绝来自任何其他 ip 的客户端 "allow:name:localhost,deny:ip: 这将拒绝 localhost 上的客户端允许来自任何其他 ip 的客户端"deny:name:localhost,allow:ip:
thrift source
侦听 thrift 端口并从外部 thrift 客户端流接收 event . 当与另一个(上一跳)flume agent 上的内置 thriftsink 配对时, 它可以创建分层集合拓扑. 可以通过启用 kerberos 身份验证将 thriftsource 配置为以安全模式启动. agent-principal 和 agent-keytab 是 thriftsource 用于向 kerberos kdc 进行身份验证的属性. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要节俭 |
bind | - | 要侦听的主机名或 ip 地址 |
port | - | 要绑定的端口号 |
threads | - | 生成的最大工作线程数 |
selector.type | ||
selector.* | ||
interceptors | - | 空格分隔的拦截器列表 |
interceptors.* | ||
ssl | false | 将其设置为 true 以启用 ssl 加密。如果启用了 ssl,则还必须通过组件级参数(请参阅下文)或全局 ssl 参数(请参阅 ssl / tls 支持部分)指定 “密钥库” 和“密钥库密码”。 |
keystore | - | 这是 java 密钥库文件的路径。如果未在此处指定,则将使用全局密钥库(如果已定义,则配置错误)。 |
keystore-password | - | java 密钥库的密码。如果未在此处指定,则将使用全局密钥库密码(如果已定义,则配置错误)。 |
keystore-type | jks | java 密钥库的类型。这可以是 “jks” 或“pkcs12”。如果未在此处指定,则将使用全局密钥库类型(如果已定义,则默认为 jks)。 |
exclude-protocols | 要排除的以空格分隔的 ssl / tls 协议列表。除指定的协议外,将始终排除 sslv3。 | |
include-protocols | - | 要包含的以空格分隔的 ssl / tls 协议列表。启用的协议将是包含的协议,没有排除的协议。如果包含协议为空,则它包括每个支持的协议。 |
exclude-cipher-suites | - | 要排除的以空格分隔的密码套件列表。 |
include-cipher-suites | - | 以空格分隔的密码套件列表。启用的密码套件将是包含的密码套件,不包括排除的密码套件。 |
kerberos | 设置为 true 以启用 kerberos 身份验证。在 kerberos 模式下,成功进行身份验证需要 agent-principal 和 agent-keytab。安全模式下的 thriftsource 仅接受来自已启用 kerberos 且已成功通过 kerberos kdc 验证的 thrift 客户端的连接。 | |
agent-principal | - | thrift source 使用的 kerberos 主体对 kerberos kdc 进行身份验证。 |
agent-keytab | - | thrift source 与 agent 主体结合使用的 keytab 位置,用于对 kerberos kdc 进行身份验证。 |
agent 名为 a1 的示例:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = thrift
a1.sources.r1.channels = c1
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 4141
exec source
exec source 在启动时运行给定的 unix 命令, 并期望该进程在标准输出上连续生成数据 (stderr 被简单地丢弃, 除非属性 logstderr 设置为 true). 如果进程因任何原因退出, 则 source 也会退出并且不会生成其他数据. 这意味着 cat [named pipe] 或 tail -f [file] 等配置将产生所需的结果, 而日期 可能不会 - 前两个命令产生数据流, 而后者产生单个 event 并退出. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 exec |
command | - | 要执行的命令 |
shell | - | 用于运行命令的 shell 调用。例如 /bin/sh -c 。仅适用于依赖 shell 功能的命令,如通配符,后退标记,管道等。 |
restartthrottle | 10000 | 尝试重新启动之前等待的时间(以毫秒为单位) |
restart | false | 是否应该重新执行已执行的 cmd |
logstderr | false | 是否应记录命令的 stderr |
batchsize | 20 | 一次读取和发送到 channel 的最大行数 |
batchtimeout | 3000 | 在向下游推送数据之前,如果未达到缓冲区大小,则等待的时间(以毫秒为单位) |
selector.type | replication | 复制或多路复用 |
selector.* | 取决于 selector.type 值 | |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* |
警告
exec source 和其他异步 source 的问题在于, 如果无法将 event 放入 channel 中, 则 source 无法保证客户端知道它. 在这种情况下, 数据将丢失. 例如, 最常请求的功能之一是 tail -f [file] 类似用例, 其中应用程序写入磁盘上的日志文件, flume 将文件作为尾部发送, 将每一行作为 event 发送. 虽然这是可能的, 但是有一个明显的问题; 如果 channel 填满并且 flume 无法发送 event , 会发生什么?由于某种原因, flume 无法向编写日志文件的应用程序指示它需要保留日志或 event 尚未发送. 如果这没有意义, 您只需要知道: 当使用 exec source 等单向异步接口时, 您的应用程序永远无法保证已收到数据!
作为此警告的延伸 - 并且完全清楚 - 使用此 source 时, event 传递绝对没有保证.
为了获得更强的可靠性保证, 请考虑 spooling directory source,taildir source 或通过 sdk 直接与 flume 集成.
agent 名为 a1 的示例:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = exec
a1.sources.r1.command = tail -f /var/log/secure
a1.sources.r1.channels = c1
'shell'配置用于通过命令 shell(例如 bash 或 powershell)调用'命令'.'command'作为参数传递给'shell'执行. 这允许'命令'使用 shell 中的功能, 例如通配符, 后退标记, 管道, 循环, 条件等. 如果没有'shell'配置, 将直接调用'command'.'shell'的常用值: '/bin/sh -c', '/bin/ksh -c', 'cmd /c', 'powershell -command', etc.
a1.sources.tailsource-1.type = exec
a1.sources.tailsource-1.shell = /bin/bash -c
a1.sources.tailsource-1.command = for i in /path/*.txt; do cat $i; done
jms source
jms source 从 jms 目标 (例如队列或主题) 读取消息. 作为 jms 应用程序, 它应该与任何 jms 提供程序一起使用, 但仅使用 activemq 进行测试. jmssource 提供可配置的批量大小, 消息选择器, 用户 / 传递和消息到水槽 event 转换器. 请注意, 供应商提供的 jms jar 应该包含在 flume 类路径中, 使用 plugins.d 目录(首选), 命令行上的 - classpath 或 flume-env.sh 中的 flume_classpath 变量. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 jms |
initialcontextfactory | - | inital context factory,例如:org.apache.activemq.jndi.activemqinitialcontextfactory |
connectionfactory | - | 连接工厂应显示为的 jndi 名称 |
providerurl | - | jms 提供程序 url |
destinationname | - | 目的地名称 |
destinationtype | - | 目的地类型(队列或主题) |
messageselector | - | 创建使用者时使用的消息选择器 |
username | - | 目标 / 提供商的用户名 |
passwordfile | - | 包含目标 / 提供程序密码的文件 |
batchsize | 100 | 一批中要使用的消息数 |
converter.type | default | 用于将消息转换为水槽 event 的类。见下文。 |
converter.* | - | 转换器属性。 |
converter.charset | utf-8 | 仅限默认转换器。在将 jms textmessages 转换为字节数组时使用的字符集。 |
createdurablesubscription | false | 是否创建持久订阅。持久订阅只能与 destinationtype 主题一起使用。如果为 true,则必须指定 “clientid” 和“durablesubscriptionname”。 |
clientid | - | jms 客户端标识符在创建后立即在 connection 上设置。持久订阅必需。 |
durablesubscriptionname | - | 用于标识持久订阅的名称。持久订阅必需。 |
消息转换器
jmssource 允许可插拔转换器, 尽管默认转换器可能适用于大多数用途. 默认转换器能够将字节, 文本和对象消息转换为 flumeevents. 在所有情况下, 消息中的属性都将作为标题添加到 flumeevent 中.
bytesmessage:
消息的字节被复制到 flumeevent 的主体. 每封邮件无法转换超过 2gb 的数据.
textmessage 的:
消息文本转换为字节数组并复制到 flumeevent 的主体. 默认转换器默认使用 utf-8, 但这是可配置的.
objectmessage:
object 被写入包含在 objectoutputstream 中的 bytearrayoutputstream, 并将生成的数组复制到 flumeevent 的主体.
agent 名为 a1 的示例:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = jms
a1.sources.r1.channels = c1
a1.sources.r1.initialcontextfactory = org.apache.activemq.jndi.activemqinitialcontextfactory
a1.sources.r1.connectionfactory = genericconnectionfactory
a1.sources.r1.providerurl = tcp://mqserver:61616
a1.sources.r1.destinationname = business_data
a1.sources.r1.destinationtype = queue
ssl 和 jms source
jms 客户端实现通常支持通过 jsse(java 安全套接字扩展)定义的某些 java 系统属性来配置 ssl / tls. 为 flume 的 jvm 指定这些系统属性, jmssource(或更准确地说是 jmssource 使用的 jms 客户端实现)可以通过 ssl 连接到 jms 服务器(当然, 仅当 jms 服务器也已设置为使用 ssl 时). 它应该可以与任何 jms 提供程序一起使用, 并且已经过 activemq,ibm mq 和 oracle weblogic 的测试.
以下部分仅介绍 flume 方面所需的 ssl 配置步骤. 您可以在 flume wiki 上找到有关不同 jms 提供程序的服务器端设置以及完整工作配置示例的更详细说明.
** ssl 传输 / 服务器身份验证:**
如果 jms 服务器使用自签名证书或其证书由不受信任的 ca(例如公司自己的 ca)签名, 则需要设置信任库 (包含正确的证书) 并传递给 flume. 它可以通过全局 ssl 参数完成. 有关全局 ssl 设置的更多详细信息, 请参阅 ssl / tls 支持部分.
使用 ssl 时, 某些 jms 提供程序需要 ssl 特定的 jndi 初始上下文工厂和 / 或提供程序 url 设置(例如, activemq 使用 ssl:// url 前缀而不是 tcp://). 在这种情况下, 必须在 agent 配置文件中调整 source 属性(initialcontextfactory 和 / 或 providerurl)
客户端证书身份验证(双向 ssl):
jms source 可以通过客户端证书身份验证而不是通常的用户 / 密码登录来对 jms 服务器进行身份验证(使用 ssl 并且 jms 服务器配置为接受此类身份验证时).
包含用于身份验证的 flume 密钥的密钥库需要再次通过全局 ssl 参数进行配置. 有关全局 ssl 设置的更多详细信息, 请参阅 ssl / tls 支持部分.
密钥库应该只包含一个密钥(如果存在多个密钥, 则将使用第一个密钥). 密钥密码必须与密钥库密码相同.
在客户端证书身份验证的情况下, 不需要在 flume agent 配置文件中为 jmssource 指定 username / passwordfile 属性.
请注意:
与其他组件不同, jms source 没有组件级别的配置参数. 也没有启用 ssl 标志. ssl 设置由 jndi / provider url 设置 (最终是 jms 服务器设置) 以及 truststore / keystore 的存在 / 不存在控制.
spooling directory source
此 source 允许您通过将要摄取的文件放入磁盘上的 "spooling" 目录来摄取数据. 此 source 将查看新文件的指定目录, 并将在新文件出现时解析 event .event 解析逻辑是可插入的. 在给定文件完全读入 channel 后, 默认情况下通过重命名文件来指示完成, 或者可以删除它或使用 trackerdir 来跟踪已处理的文件.
与 exec source 不同, 即使 flume 重新启动或被杀死, 此 source 也是可靠的并且不会遗漏数据. 作为这种可靠性的交换, 只有不可变的, 唯一命名的文件必须被放入 spooling directory. 中. flume 试图检测这些问题, 如果违反则会声明失败:
如果在放入 spooling directory 后写入文件, flume 会将错误打印到其日志文件并停止处理.
如果稍后重复使用文件名, flume 将在其日志文件中输出错误并停止处理.
为避免上述问题, 在将文件名移动到 spooling directory 中时, 添加唯一标识符 (例如时间戳) 可能很有用.
尽管该 source 的可靠性保证, 但仍存在如果发生某些下游故障则可能重复 event 的情况. 这与其他 flume 组件提供的保证一致.
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称需要是 spooldir。 |
spooldir | - | 从中读取文件的目录。 |
filesuffix | .completed | 后缀附加到完全摄取的文件 |
deletepolicy | never | 何时删除已完成的文件:从 never 或 immediate |
fileheader | false | 是否添加存储绝对路径文件名的标头。 |
fileheaderkey | file | 将绝对路径文件名附加到 event 标题时使用的标题键。 |
basenameheader | false | 是否添加存储文件基本名称的标头。 |
basenameheaderkey | basename | 标题将文件的基本名称附加到 event 标题时使用的标题。 |
includepattern | .*$ | 正则表达式,指定要包含的文件。它可以与 ignorepattern 一起使用。如果一个文件同时匹配 ignorepattern 和 includepattern 正则表达式,该文件将被忽略。 |
ignorepattern | $ | 正则表达式,指定要忽略的文件(跳过)。它可以与 includepattern 一起使用。如果一个文件同时匹配 ignorepattern 和 includepattern 正则表达式,该文件将被忽略。 |
trackerdir | .flumespool | 用于存储与文件处理相关的元数据的目录。如果此路径不是绝对路径,则将其解释为相对于 spooldir。 |
trackingpolicy | rename | 跟踪策略定义如何跟踪文件处理。它可以是 “重 rename” 或“tracker_dir”。此参数仅在 deletepolicy 为 “never” 时有效。“重 rename” - 处理完文件后,会根据 filesuffix 参数重命名。“tracker_dir” - 不重命名文件,但会在 trackerdir 中创建新的空文件。新的跟踪器文件名 source 自摄取的文件名和 filesuffix。 |
consumeorder | oldest | spooling directory 中的文件将以 oldest, youngest 和 random 的方式使用。如果是 oldest 和 youngest 的,文件的最后修改时间将用于比较文件。如果出现相同,将首先消耗具有最小字典顺序的文件。在 random 的情况下,任何文件将被随机挑选。当使用 oldest 和 youngest 时,整个目录将被扫描以选择 oldest/youngest 的文件,如果存在大量文件,这可能会很慢,而使用 random 可能会导致旧文件在新文件不断进入时很晚被消耗 & nbsp;spooling directory。 |
polldelay | 500 | 轮询新文件时使用的延迟(以毫秒为单位)。 |
recursivedirectorysearch | false | 是否监视子目录以查找要读取的新文件。 |
maxbackoff | 4000 | 如果 channel 已满,则在连续尝试写入 channel 之间等待的最长时间(以毫秒为单位)。source 将以低退避开始,并在每次 channel 抛出 channelexception 时以指数方式增加,直到此参数指定的值。 |
batchsize | 100 | 批量传输到 channel 的粒度 |
inputcharset | utf-8 | 反序列化器使用的字符集,将输入文件视为文本。 |
decodeerrorpolicy | fail | 当我们在输入文件中看到不可解码的字符时该怎么办。fail:抛出异常并且无法解析文件。 replace:用“替换字符”char 替换不可解析的字符,通常是 unicode u+fffd 。 ignore:删除不可解析的字符序列。 |
deserializer | line | 指定用于将文件解析为 event 的反序列化程序。默认将每行解析为 event 。指定的类必须实现 eventdeserializer.builder。 |
deserializer.* | 每个 event 反序列化器不同。 | |
buffermaxlines | - | (obselete)此选项现在被忽略。 |
buffermaxlinelength | 5000 | (已弃用)提交缓冲区中行的最大长度。请改用 deserializer.maxlinelength。 |
selector.type | replicating | replicating or multiplexing |
selector.* | 取决于 selector.type 值 | |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* |
名为 agent-1 的 agent 示例:
a1.channels = ch-1
a1.sources = src-1
a1.sources.src-1.type = spooldir
a1.sources.src-1.channels = ch-1
a1.sources.src-1.spooldir = /var/log/apache/flumespool
a1.sources.src-1.fileheader = true
event deserializers
以下 event 反序列化器随 flume 一起提供.
line
此解串器为每行文本输入生成一个 event
物业名称 | 默认 | 描述 |
---|---|---|
deserializer.maxlinelength | 2048 | 单个 event 中包含的最大字符数。如果一行超过此长度,则会被截断,并且该行上的其余字符将出现在后续 event 中。 |
deserializer.outputcharset | utf-8 | 用于编码放入 channel 的 event 的字符集。 |
avro
此解串器能够读取 avro 容器文件, 并在文件中为每个 avro 记录生成一个 event . 每个 event 都使用标头进行注释, 该标头指示所使用的模式. event 的主体是二进制 avro 记录数据, 不包括模式或容器文件元素的其余部分.
请注意, 如果假脱机目录 source 必须重试将其中一个 event 放入 channel(例如, 因为 channel 已满), 则它将重置并从最新的 avro 容器文件同步点重试. 为了减少此类故障情况下的潜在 event 重复, 请在 avro 输入文件中更频繁地写入同步标记.
物业名称 | 默认 | 描述 |
---|---|---|
deserializer.schematype | hash | 如何表示模式。默认情况下,或者 & nbsp; 指定值 hash 时,会对 avro 架构进行哈希处理,并将哈希值存储在 event 头 “flume.avro.schema.hash” 中的每个 event 中。如果指定了 literal,则 json 编码的模式本身存储在 event 头 “flume.avro.schema.literal” 中的每个 event 中。与 hash 模式相比,使用 literal 模式效率相对较低。 |
blobdeserializer>
此反序列化器为每个 event 读取二进制大对象(blob), 通常每个文件一个 blob. 例如 pdf 或 jpg 文件. 请注意, 此方法不适用于非常大的对象, 因为整个 blob 都缓存在 ram 中.
物业名称 | 默认 | 描述 |
---|---|---|
解串器 | - | 此类的 fqcn:org.apache.flume.sink.solr.morphline.blobdeserializer$builder |
deserializer.maxbloblength | 100000000 | 要读取的最大字节数和给定请求的缓冲区 |
taildir source
注意: 此 source 作为预览功能提供. 它不适用于 windows.
观察指定的文件, 并在检测到添加到每个文件的新行后几乎实时地拖尾它们. 如果正在写入新行, 则此 source 将重试读取它们以等待写入完成.
此 source 是可靠的, 即使 tail 文件旋转也不会丢失数据. 它定期以 json 格式写入给定位置文件上每个文件的最后读取位置. 如果 flume 由于某种原因停止或停止, 它可以从写在现有位置文件上的位置重新开始 tail.
在其他用例中, 此 source 也可以使用给定的位置文件从每个文件的任意位置开始拖尾. 当指定路径上没有位置文件时, 默认情况下它将从每个文件的第一行开始拖尾.
文件将按修改时间顺序使用. 将首先使用具有最早修改时间的文件.
此 source 不会重命名或删除或对正在挂载的文件执行任何修改. 目前此 source 不支持 tail 二进制文件. 它逐行读取文本文件.
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 taildir。 |
filegroups | - | 以空格分隔的文件组列表。每个文件组都指示一组要挂起的文件。 |
filegroups. | - | 文件组的绝对路径。正则表达式(而不是文件系统模式)只能用于文件名。 |
positionfile | ~/.flume/taildir_position.json | 以 json 格式文件以记录每个尾部文件的 inode,绝对路径和最后位置。 |
headers. | - | 标题值,使用标题键设置。可以为一个文件组指定多个标头。 |
byteoffsetheader | false | 是否将 tailed line 的字节偏移量添加到名为 “byteoffset” 的标头中。 |
skiptoend | false | 在未写入位置文件的文件的情况下是否跳过位置到 eof。 |
idletimeout | 120000 | 关闭非活动文件的时间(毫秒)。如果关闭的文件附加了新行,则此 source 将自动重新打开它。 |
writeposinterval | 3000 | 写入位置文件上每个文件的最后位置的间隔时间(ms)。 |
batchsize | 100 | 一次读取和发送到 channel 的最大行数。使用默认值通常很好。 |
maxbatchcount | long.max_value | 控制从同一文件连续读取的批次数。如果 source 正在拖尾多个文件,并且其中一个文件以快速写入,则可以防止处理其他文件,因为繁忙文件将在无限循环中读取。在这种情况下,降低此值。 |
backoffsleepincrement | 1000 | 在最后一次尝试未找到任何新数据时,重新尝试轮询新数据之前的时间延迟增量。 |
maxbackoffsleep | 5000 | 每次重新尝试轮询新数据时的最大时间延迟,当最后一次尝试未找到任何新数据时。 |
cachepatternmatching | true | 对于包含数千个文件的目录,列出目录并应用文件名正则表达式模式可能非常耗时。缓存匹配文件列表可以提高性能。消耗文件的顺序也将被缓存。要求文件系统以至少 1 秒的粒度跟踪修改时间。 |
fileheader | false | 是否添加存储绝对路径文件名的标头。 |
fileheaderkey | file | 将绝对路径文件名附加到 event 标题时使用的标题键。 |
agent 名为 a1 的示例:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = taildir
a1.sources.r1.channels = c1
a1.sources.r1.positionfile = /var/log/flume/taildir_position.json
a1.sources.r1.filegroups = f1 f2
a1.sources.r1.filegroups.f1 = /var/log/test1/example.log
a1.sources.r1.headers.f1.headerkey1 = value1
a1.sources.r1.filegroups.f2 = /var/log/test2/.*log.*
a1.sources.r1.headers.f2.headerkey1 = value2
a1.sources.r1.headers.f2.headerkey2 = value2-2
a1.sources.r1.fileheader = true
a1.sources.ri.maxbatchcount = 1000
kafka source
kafka source 是一个 apache kafka 消费者, 它从 kafka 主题中读取消息. 如果您运行了多个 kafka source, 则可以使用相同的使用者组配置它们, 以便每个 source 都读取一组唯一的主题分区. 这目前支持 kafka 服务器版本 0.10.1.0 或更高版本. 测试完成了 2.0.1, 这是发布时最高的可用版本.
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 org.apache.flume.source.kafka.kafkasource |
kafka.bootstrap.servers | - | source 代码使用的 kafka 集群中的 agent 列表 |
kafka.consumer.group.id | flume | 独特的消费者群体。在多个 source 或 agent 中设置相同的 id 表示它们是同一个使用者组的一部分 |
kafka.topics | - | 以逗号分隔的主题列表,kafka 消费者将从中读取消息。 |
kafka.topics.regex | - | 正则表达式,用于定义 source 订阅的主题集。此属性具有比 kafka.topics 更高的优先级,并覆盖 kafka.topics(如果存在)。 |
batchsize | 1000 | 一批中写入 channel 的最大消息数 |
batchdurationmillis | 1000 | 将批次写入 channel 之前的最长时间(以毫秒为单位)只要达到第一个大小和时间,就会写入批次。 |
backoffsleepincrement | 1000 | kafka topic 显示为空时触发的初始和增量等待时间。等待时间将减少对空 kafka topic 的激进 ping 操作。一秒钟是摄取用例的理想选择,但使用拦截器的低延迟操作可能需要较低的值。 |
maxbackoffsleep | 5000 | kafka topic 显示为空时触发的最长等待时间。5 秒是摄取用例的理想选择,但使用拦截器的低延迟操作可能需要较低的值。 |
useflumeeventformat | false | 默认情况下,event 将从 kafka topic 直接作为字节直接进入 event 主体。设置为 true 以读取 event 作为 flume avro 二进制格式。与 kafka sink 上的相同属性或 kafka channel 上的 parseasflumeevent 属性一起使用时,这将保留在生成端发送的任何 flume 标头。 |
settopicheader | true | 设置为 true 时,将检索到的消息的主题存储到由 topic header 属性定义的标头中 & nbsp;。 |
topicheader | topic | 如果 settopicheader 属性设置为 true,则定义用于存储接收消息主题名称的标头名称。如果与 kafka sinktopicheader 属性结合使用,应该小心,以避免将消息发送回循环中的同一主题。 |
kafka.consumer.security.protocol | plaintext | 如果使用某种级别的安全性写入 kafka,则设置为 sasl_plaintext,sasl_ssl 或 ssl。有关安全设置的其他信息,请参见下文。 |
more consumer security props | 如果使用 sasl_plaintext,sasl_ssl 或 ssl,请参阅 kafka 安全性以获取需要在使用者上设置的其他属性。 | |
other kafka consumer properties | - | 这些属性用于配置 kafka consumer。可以使用 kafka 支持的任何消费者财产。唯一的要求是使用前缀 kafka.consumer 添加属性名称 & nbsp;。例如:kafka.consumer.auto.offset.reset |
** 注意 **
kafka source 会覆盖两个 kafka 使用者参数: source 和每次 batch 提交的时候会将 auto.commit.enable 设置为 "false", 并提交每个批处理. kafka source 至少保证一次消息检索策略.
source 启动时可以存在重复项.
kafka source 还提供了 key.deserializer(org.apache.kafka.common.serialization.stringserializer)和 value.deserializer(org.apache.kafka.common.serialization.bytearrayserializer)的默认值.
不建议修改这些参数.
不推荐使用的属性
属性名称 | 默认 | 描述 |
---|---|---|
topic | - | 使用 kafka.topics |
groupid | flume | 使用 kafka.consumer.group.id |
zookeeperconnect | - | 自 0.9.x 起不再受 kafka 消费者客户端的支持。使用 kafka.bootstrap.servers 与 kafka 集群建立连接 |
migratezookeeperoffsets | true | 如果找不到 kafka 存储的偏移量,请在 zookeeper 中查找偏移量并将它们提交给 kafka。这应该是支持从旧版本的 flume 无缝 kafka 客户端迁移。迁移后,可以将其设置为 false,但通常不需要这样做。如果未找到 zookeeper 偏移量,则 kafka 配置 kafka.consumer.auto.offset.reset 定义如何处理偏移量。 有关详细信息,请查看 kafka 文档 |
通过逗号分隔的主题列表进行主题订阅的示例:
tier1.sources.source1.type = org.apache.flume.source.kafka.kafkasource
tier1.sources.source1.channels = channel1
tier1.sources.source1.batchsize = 5000
tier1.sources.source1.batchdurationmillis = 2000
tier1.sources.source1.kafka.bootstrap.servers = localhost:9092
tier1.sources.source1.kafka.topics = test1, test2
tier1.sources.source1.kafka.consumer.group.id = custom.g.id
正则表达式主题订阅的示例:
ier1.source.source1.type = org.apache.flume.source.kafka.kafkasource
tier1.source.source1.channel = channel1
tier1.source.source1.kafka.bootstrap.servers = 本地主机: 9092
tier1.source.source1.kafka .topics.regex = ^ topic [0-9] $
#默认使用 kafka.consumer.group.id = flume
** security 和 kafka source:**
flume 和 kafka 之间的通信渠道支持安全认证和数据加密. 对于安全身份验证, 可以使用 kafka 0.9.0 版中的 sasl / gssapi(kerberos v5)或 ssl(即使该参数名为 ssl, 实际协议是 tls 实现)
截至目前, 数据加密仅由 ssl / tls 提供.
将 kafka.consumer.security.protocol 设置为以下任何值意味着:
sasl_plaintext - 无数据加密的 kerberos 或纯文本身份验证
sasl_ssl - 使用数据加密的 kerberos 或纯文本身份验证
ssl - 基于 tls 的加密, 带有可选的身份验证
** 警告 **
启用 ssl 时性能会下降, 其大小取决于 cpu 类型和 jvm 实现. 参考: kafka 安全概述 和跟踪此问题的 jira: https://issues/jira/browse/kafka-2561
** tls 和 kafka source:**
请阅读配置 kafka 客户端 ssl 中描述的步骤, 以了解用于微调的其他配置设置, 例如以下任何一项: 安全提供程序, 密码套件, 启用的协议, 信任库或密钥库类型.
配置服务器端身份验证和数据加密的示例:
a1.sources.source1.type = org.apache.flume.source.kafka.kafkasource
a1.sources.source1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.sources.source1.kafka.topics = mytopic
a1.sources.source1.kafka.consumer.group.id = flume-consumer
a1.sources.source1.kafka.consumer.security.protocol = ssl
# optional, the global truststore can be used alternatively
a1.sources.source1.kafka.consumer.ssl.truststore.location=/path/to/truststore.jks
a1.sources.source1.kafka.consumer.ssl.truststore.password=<password to access the truststore>
在此处指定信任库是可选的, 可以使用全局信任库. 有关全局 ssl 设置的更多详细信息, 请参阅 ssl / tls 支持部分
注意: 默认情况下, 未定义属性 ssl.endpoint.identification.algorithm, 因此不会执行主机名验证. 要启用主机名验证, 请设置以下属性
a1.sources.source1.kafka.consumer.ssl.endpoint.identification.algorithm=https
启用后, 客户端将根据以下两个字段之一验证服务器的完全限定域名(fqdn):
通用名称(cn) https://tools.ietf.org/html/rfc6125#section-2.3 https://tools.ietf.org/html/rfc6125#section-2.3
主题备选名称(san)
如果还需要客户端身份验证, 则还需要将以下内容添加到 flume agent 配置中, 或者可以使用全局 ssl 设置(请参阅 ssl / tls 支持部分). 每个 flume agent 都必须拥有其客户证书, kafka 经纪人必须单独或通过其签名链来信任. 常见示例是由单个根 ca 签署每个客户端证书, 而后者又由 kafka 经纪人信任.
# optional, the global keystore can be used alternatively
a1.sources.source1.kafka.consumer.ssl.keystore.location=/path/to/client.keystore.jks
a1.sources.source1.kafka.consumer.ssl.keystore.password=<password to access the keystore>
** kerberos 和 kafka source **
要将 kafka source 与使用 kerberos 保护的 kafka 群集一起使用, 请为消费者设置上面提到的 consumer.security.protocol 属性.与 kafka agent 一起使用的 kerberos 密钥表和主体在 jaas 文件的 "kafkaclient" 部分中指定."客户端" 部分描述了 zookeeper 连接(如果需要). 有关 jaas 文件内容的信息, 请参阅 kafka doc. 可以通过 flume-env.sh 中的 java_opts 指定此 jaas 文件的位置以及可选的系统范围的 kerberos 配置:
java_opts="$java_opts -djava.security.krb5.conf=/path/to/krb5.conf" java_opts="$java_opts -djava.security.auth.login.config=/path/to/flume_jaas.conf"
使用 sasl_plaintext 的示例安全配置:
a1.sources.source1.type = org.apache.flume.source.kafka.kafkasource
a1.sources.source1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.sources.source1.kafka.topics = mytopic
a1.sources.source1.kafka.consumer.group.id = flume-consumer
a1.sources.source1.kafka.consumer.security.protocol = sasl_plaintext
a1.sources.source1.kafka.consumer.sasl.mechanism = gssapi
a1.sources.source1.kafka.consumer.sasl.kerberos.service.name = kafka
使用 sasl_ssl 的安全配置示例:
a1.sources.source1.type = org.apache.flume.source.kafka.kafkasource
a1.sources.source1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.sources.source1.kafka.topics = mytopic
a1.sources.source1.kafka.consumer.group.id = flume-consumer
a1.sources.source1.kafka.consumer.security.protocol = sasl_ssl
a1.sources.source1.kafka.consumer.sasl.mechanism = gssapi
a1.sources.source1.kafka.consumer.sasl.kerberos.service.name = kafka
# optional, the global truststore can be used alternatively
a1.sources.source1.kafka.consumer.ssl.truststore.location=/path/to/truststore.jks
a1.sources.source1.kafka.consumer.ssl.truststore.password=<password to access the truststore>
示例 jaas 文件. 有关其内容的参考, 请参阅 sasl 配置的 kafka 文档中所需认证机制 (gssapi / plain) 的客户端配置部分. 由于 kafka source 也可能连接到 zookeeper 以进行偏移迁移, 因此 "client" 部分也添加到此示例中. 除非您需要偏移迁移, 否则不需要这样做, 或者您需要此部分用于其他安全组件. 另外, 请确保 flume 进程的操作系统用户对 jaas 和 keytab 文件具有读权限.
client {
com.sun.security.auth.module.krb5loginmodule required
usekeytab=true
storekey=true
keytab="/path/to/keytabs/flume.keytab"
principal="flume/flumehost1.example.com@yourkerberosrealm";
};
kafkaclient {
com.sun.security.auth.module.krb5loginmodule required
usekeytab=true
storekey=true
keytab="/path/to/keytabs/flume.keytab"
principal="flume/flumehost1.example.com@yourkerberosrealm";
};
netcat tcp source
类似于 netcat 的 source, 它侦听给定端口并将每行文本转换为 event . 像 nc -k -l [host] [port]这样的行为. 换句话说, 它打开一个指定的端口并监听数据. 期望是提供的数据是换行符分隔的文本. 每行文本都转换为 flume event , 并通过连接的 channel 发送. 必需属性以 粗体显示
property name | default | description |
---|---|---|
channels | – | |
type | – | the component type name, needs to be netcat |
bind | – | host name or ip address to bind to |
port | – | port # to bind to |
max-line-length | 512 | max line length per event body (in bytes) |
ack-every-event | true | respond with an “ok” for every event received |
selector.type | replicating | replicating or multiplexing |
selector.* | depends on the selector.type value | |
interceptors | – | space-separated list of interceptors |
interceptors.* |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = netcat
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 6666
a1.sources.r1.channels = c1
netcat udp source
根据原始的 netcat(tcp)source, 该 source 监听给定端口并将每行文本转换为 event 并通过连接的 channel 发送. 像 nc -u -k -l [host] [port]这样的行为. 必需属性以 粗体显示
property name | default | description |
---|---|---|
channels | – | |
type | – | the component type name, needs to be netcatudp |
bind | – | host name or ip address to bind to |
port | – | port # to bind to |
remoteaddressheader | – | |
selector.type | replicating | replicating or multiplexing |
selector.* | depends on the selector.type value | |
interceptors | – | space-separated list of interceptors |
interceptors.* |
agent 名为 a1 的示例:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = netcatudp
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 6666
a1.sources.r1.channels = c1
sequence generator source
一个简单的 sequence 生成器, 它使用从 0 开始的计数器连续生成 event , 递增 1 并在 totalevents 处停止. 无法向 channel 发送 event 时重试. 主要用于测试. 在重试期间, 它使重试消息的主体保持与以前相同, 以便在目的地重复数据删除之后, 唯一 event 的数量应等于指定的 totalevents. 必需属性以粗体显示
property name | default | description |
---|---|---|
channels | – | |
type | – | the component type name, needs to be seq |
selector.type | replicating or multiplexing | |
selector.* | replicating | depends on the selector.type value |
interceptors | – | space-separated list of interceptors |
interceptors.* | ||
batchsize | 1 | number of events to attempt to process per request loop. |
totalevents | long.max_value | number of unique events sent by the source. |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = seq
a1.sources.r1.channels = c1
syslog source
读取 syslog 数据并生成 flume event .udp source 将整个消息视为单个 event .tcpsource 为每个由换行符 ('n') 分隔的字符串创建一个新 event
必需属性以粗体显示
syslog tcpsource
原始的, 经过验证的 syslog tcpsource 代码
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 & nbsp;syslogtcp |
host | - | 要绑定的主机名或 ip 地址 |
port | - | 要绑定的端口号 |
eventsize | 2500 | 单个 event 行的最大大小(以字节为单位) |
keepfields | none | 将此设置为 “all” 将保留 event 正文中的 priority,timestamp 和 hostname。还允许包含间隔开的字段列表。目前,可以包括以下字段:优先级,版本,时间戳,主机名。值'true'和'false'已被弃用,采用'all'和'none'。 |
clientipheader | - | 如果指定,客户端的 ip 地址将使用此处指定的标头名称存储在每个 event 的标头中。这允许拦截器和 channel 选择器基于客户端的 ip 地址定制路由逻辑。不要在此处使用标准 syslog 标头名称(如_host_),因为在这种情况下将覆盖 event 标头。 |
clienthostnameheader | - | 如果指定,则客户端的主机名将使用此处指定的标头名称存储在每个 event 的标头中。这允许拦截器和 channel 选择器基于客户端的主机名自定义路由逻辑。检索主机名可能涉及名称服务反向查找,这可能会影响性能。不要在此处使用标准 syslog 标头名称(如_host_),因为在这种情况下将覆盖 event 标头。 |
selector.type | replicating or multiplexing | |
selector.* | replicating | 取决于 selector.type 值 |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* | ||
ssl | false | 将其设置为 true 以启用 ssl 加密。如果启用了 ssl,则还必须通过组件级参数(请参阅下文)或全局 ssl 参数(请参阅 ssl / tls 支持部分)指定 “密钥库” 和“密钥库密码” 。 |
keystore | - | 这是 java 密钥库文件的路径。如果未在此处指定,则将使用全局密钥库(如果已定义,则配置错误)。 |
keystore-password | - | java 密钥库的密码。如果未在此处指定,则将使用全局密钥库密码(如果已定义,则配置错误)。 |
keystore-type | jks | java 密钥库的类型。这可以是 “jks” 或“pkcs12”。如果未在此处指定,则将使用全局密钥库类型(如果已定义,则默认为 jks)。 |
exclude-protocols | sslv3 | 要排除的以空格分隔的 ssl / tls 协议列表。除指定的协议外,将始终排除 sslv3。 |
include-protocols | - | 要包含的以空格分隔的 ssl / tls 协议列表。启用的协议将是包含的协议,没有排除的协议。如果包含协议为空,则它包括每个支持的协议。 |
exclude-cipher-suites | - | 要排除的以空格分隔的密码套件列表。 |
include-cipher-suites | - | 以空格分隔的密码套件列表。启用的密码套件将是包含的密码套件,不包括排除的密码套件。如果 included-cipher-suites 为空,则包含每个支持的密码套件。 |
for example, a syslog tcp source for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = syslogtcp
a1.sources.r1.port = 5140
a1.sources.r1.host = localhost
a1.sources.r1.channels = c1
多端口 syslog tcp source
这是 syslog tcpsource 的更新, 更快, 多端口版本. 请注意, 端口配置设置已替换端口. 多端口功能意味着它可以以有效的方式一次监听多个端口. 此 source 使用 apache mina 库来执行此操作. 提供对 rfc-3164 和许多常见 rfc-5424 格式消息的支持. 还提供了配置基于每个端口的字符集的功能.
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 multiport_syslogtcp |
host | - | 要绑定的主机名或 ip 地址。 |
ports | - | 要绑定到的空格分隔列表(一个或多个)。 |
eventsize | 2500 | 单个 event 行的最大大小(以字节为单位)。 |
keepfields | none | 将此设置为 “all” 将保留 event 正文中的 priority,timestamp 和 hostname。还允许包含间隔开的字段列表。目前,可以包括以下字段:优先级,版本,时间戳,主机名。值'true'和'false'已被弃用,采用'all'和'none'。 |
portheader | - | 如果指定,端口号将使用此处指定的标头名称存储在每个 event 的标头中。这允许拦截器和 channel 选择器基于传入端口定制路由逻辑。 |
clientipheader | - | 如果指定,客户端的 ip 地址将使用此处指定的标头名称存储在每个 event 的标头中。这允许拦截器和 channel 选择器基于客户端的 ip 地址定制路由逻辑。不要在此处使用标准 syslog 标头名称(如_host_),因为在这种情况下将覆盖 event 标头。 |
clienthostnameheader | - | 如果指定,则客户端的主机名将使用此处指定的标头名称存储在每个 event 的标头中。这允许拦截器和 channel 选择器基于客户端的主机名自定义路由逻辑。检索主机名可能涉及名称服务反向查找,这可能会影响性能。不要在此处使用标准 syslog 标头名称(如_host_),因为在这种情况下将覆盖 event 标头。 |
charset.default | utf-8 | 将 syslogevent 解析为字符串时使用的默认字符集。 |
charset.port | - | 字符集可基于每个端口进行配置。 |
batchsize | 100 | 每个请求循环尝试处理的最大 event 数。使用默认值通常很好。 |
readbuffersize | 1024 | 内部 mina 读缓冲区的大小。提供性能调整。使用默认值通常很好。 |
numprocessors | (auto-detected) | 处理消息时系统上可用的处理器数量。默认是使用 java runtime api 自动检测 cpu 数量。mina 将为每个检测到的 cpu 生成 2 个请求处理线程,这通常是合理的。 |
selector.type | replicating | replicating, multiplexing, or custom |
selector.* | - | 取决于 selector.type 值 |
interceptors | - | 以空格分隔的拦截器列表。 |
interceptors.* | ||
ssl | false | 将其设置为 true 以启用 ssl 加密。如果启用了 ssl,则还必须通过组件级参数(请参阅下文)或全局 ssl 参数(请参阅 ssl / tls 支持部分)指定 “密钥库” 和“密钥库密码” 。 |
keystore | - | 这是 java 密钥库文件的路径。如果未在此处指定,则将使用全局密钥库(如果已定义,则配置错误)。 |
keystore-password | - | java 密钥库的密码。如果未在此处指定,则将使用全局密钥库密码(如果已定义,则配置错误)。 |
keystore-type | jks | java 密钥库的类型。这可以是 “jks” 或“pkcs12”。如果未在此处指定,则将使用全局密钥库类型(如果已定义,则默认为 jks)。 |
exclude-protocols | sslv3 | 要排除的以空格分隔的 ssl / tls 协议列表。除指定的协议外,将始终排除 sslv3。 |
include-protocols | - | 要包含的以空格分隔的 ssl / tls 协议列表。启用的协议将是包含的协议,没有排除的协议。如果包含协议为空,则它包括每个支持的协议。 |
exclude-cipher-suites | - | 要排除的以空格分隔的密码套件列表。 |
include-cipher-suites | - | 以空格分隔的密码套件列表。启用的密码套件将是包含的密码套件,不包括排除的密码套件。如果 included-cipher-suites 为空,则包含每个支持的密码套件。 |
for example, a multiport syslog tcp source for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = multiport_syslogtcp
a1.sources.r1.channels = c1
a1.sources.r1.host = 0.0.0.0
a1.sources.r1.ports = 10001 10002 10003
a1.sources.r1.portheader = port
syslog udpsource
property name | default | description |
---|---|---|
channels | – | |
type | – | the component type name, needs to be syslogudp |
host | – | host name or ip address to bind to |
port | – | port # to bind to |
keepfields | false | setting this to true will preserve the priority, timestamp and hostname in the body of the event. |
clientipheader | – | if specified, the ip address of the client will be stored in the header of each event using the header name specified here. this allows for interceptors and channel selectors to customize routing logic based on the ip address of the client. do not use the standard syslog header names here (like _host_) because the event header will be overridden in that case. |
clienthostnameheader | – | if specified, the host name of the client will be stored in the header of each event using the header name specified here. this allows for interceptors and channel selectors to customize routing logic based on the host name of the client. retrieving the host name may involve a name service reverse lookup which may affect the performance. do not use the standard syslog header names here (like _host_) because the event header will be overridden in that case. |
selector.type | replicating or multiplexing | |
selector.* | replicating | depends on the selector.type value |
interceptors | – | space-separated list of interceptors |
interceptors.* |
for example, a syslog udp source for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = syslogudp
a1.sources.r1.port = 5140
a1.sources.r1.host = localhost
a1.sources.r1.channels = c1
http source < 通过 http post 和 get 接受 flumeevent 的 source.get 应仅用于实验. http 请求由可插入的 "处理程序" 转换为 flume event , 该处理程序必须实现 httpsourcehandler 接口. 该处理程序获取 httpservletrequest 并返回 flume event 列表.从一个 http 请求处理的所有 event 都在一个事务中提交给 channel, 从而允许在诸如文件 channel 之类的 channel 上提高效率. 如果处理程序抛出异常, 则此 source 将返回 http 状态 400. 如果 channel 已满, 或者 source 无法将 event 附加到 channel, 则 source 将返回 http 503 - 暂时不可用状态
在一个发布请求中发送的所有 event 都被视为一个批处理, 并在一个事务中插入到 channel 中
此 source 基于 jetty 9.4, 并提供了设置其他 jetty 特定参数的功能, 这些参数将直接传递给 jetty 组件
属性名称 | 默认 | 描述 |
---|---|---|
type | 组件类型名称需要为 http | |
port | - | source 应绑定的端口。 |
bind | 0.0.0.0 | 要侦听的主机名或 ip 地址 |
handler | org.apache.flume.source.http.jsonhandler | 处理程序类的 fqcn。 |
handler.* | - | 配置处理程序的参数 |
selector.type | replicating | replicating or multiplexing |
selector.* | 取决于 selector.type 值 | |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* | ||
ssl | 假 | 将属性设置为 true,以启用 ssl.http source 不支持 sslv3。 |
exclude-protocols | 在 sslv3 | 要排除的以空格分隔的 ssl / tls 协议列表。除指定的协议外,将始终排除 sslv3。 |
include-protocols | - | 要包含的以空格分隔的 ssl / tls 协议列表。启用的协议将是包含的协议,没有排除的协议。如果包含协议为空,则它包括每个支持的协议。 |
exclude-cipher-suites | - | 要排除的以空格分隔的密码套件列表。 |
include-cipher-suites | - | 以空格分隔的密码套件列表。启用的密码套件将是包含的密码套件,不包括排除的密码套件。 |
keystore | 密钥库的位置,包括密钥库文件名。如果启用了 ssl 但未在此处指定密钥库,则将使用全局密钥库(如果已定义,则配置错误)。 | |
keystore-password | 密钥库密码。如果启用了 ssl 但未在此处指定密钥库密码,则将使用全局密钥库密码(如果已定义,则配置错误)。 | |
keystore-type | jks | 密钥库类型。这可以是 “jks” 或“pkcs12”。 |
queuedthreadpool.* | 要在 org.eclipse.jetty.util.thread.queuedthreadpool 上设置的 jetty 特定设置。nb queuedthreadpool 仅在设置了此类的至少一个属性时使用。 | |
httpconfiguration.* | 要在 org.eclipse.jetty.server.httpconfiguration 上设置 jetty 特定设置 | |
sslcontextfactory.* | 要在 org.eclipse.jetty.util.ssl.sslcontextfactory 上设置的 jetty 特定设置(仅在 ssl 设置为 true 时适用)。 | |
serverconnector.* | 要在 org.eclipse.jetty.server.serverconnector 上设置的 jetty 特定设置 |
不推荐使用的属性
物业名称 | 默认 | 描述 |
---|---|---|
keystorepassword | - | 使用密钥库密码。不推荐的值将被新的值覆盖。 |
excludeprotocols | sslv3 | 使用 exclude-protocols。不推荐的值将被新的值覆盖。 |
enablessl | false | 使用 ssl。不推荐的值将被新的值覆盖。 |
nb 使用上面列出的对象上的 setter-methods 设置 jetty 特定设置. 有关完整的详细信息, 请参阅这些类的 javadoc(, , 和 )
使用特定于 jetty 的设置时, 上面命名的属性将优先(例如, excludeprotocols 将优先于 sslcontextfactory.excludeprotocols). 所有房产都是小写的.
an example http source for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = http
a1.sources.r1.port = 5140
a1.sources.r1.channels = c1
a1.sources.r1.handler = org.example.rest.resthandler
a1.sources.r1.handler.nickname = random props
a1.sources.r1.httpconfiguration.sendserverversion = false
a1.sources.r1.serverconnector.idletimeout = 300
jsonhandler
开箱即用的处理程序可以处理以 json 格式表示的 event , 并支持 utf-8,utf-16 和 utf-32 字符集. 处理程序接受一个 event 数组(即使只有一个 event ,event 必须在数组中发送), 并根据请求中指定的编码将它们转换为 flumeevent . 如果未指定编码, 则假定为 utf-8.json 处理程序支持 utf-8,utf-16 和 utf-32.event 表示如下.
[{
"headers" : {
"timestamp" : "434324343",
"host" : "random_host.example.com"
},
"body" : "random_body"
},
{
"headers" : {
"namenode" : "namenode.example.com",
"datanode" : "random_datanode.example.com"
},
"body" : "really_random_body"
}]
要设置 charset, 请求必须具有指定为 application/json 的 内容类型 ; charset = utf-8(根据需要用 utf-16 或 utf-32 替换 utf-8)
以此处理程序所期望的格式创建 event 的一种方法是使用 flume sdk 中提供的 jsonevent 并使用 google gson 使用 gson#fromjson(object,type)方法创建 json 字符串. 要作为 event 列表的此方法的第二个参数传递的类型标记可以通过以下方式创建:
type type = new typetoken<list<jsonevent>>() {
}.gettype();
blobhandler
默认情况下, httpsource 将 json 输入拆分为 flumeevent . 作为替代方案, blobhandler 是 httpsource 的处理程序, 它返回包含请求参数的 event 以及使用此请求上载的二进制大对象(blob). 例如 pdf 或 jpg 文件. 请注意, 此方法不适用于非常大的对象, 因为它会将整个 blob 缓存在 ram 中.
属性名称 | 默认 | 描述 |
---|---|---|
handler | - | 此类的 fqcn:org.apache.flume.sink.solr.morphline.blobhandler |
handler.maxbloblength | 100000000 | 要读取的最大字节数和给定请求的缓冲区 |
stress source
stresssource 是一个内部负载生成 source 实现, 对压力测试非常有用. 它允许用户使用空标头配置 event 有效负载的大小. 用户可以配置要发送的 event 总数以及要传递的最大成功 event 数.
必需属性以粗体显示
物业名称 | 默认 | 描述 |
---|---|---|
type | - | 组件类型名称,需要是 org.apache.flume.source.stresssource |
size | 500 | 每个 event 的有效载荷大小。单位:字节 |
maxtotalevents | -1 | 要发送的最大 event 数 |
maxsuccessfulevents | -1 | 成功发送的最大 event 数 |
batchsize | 1 | 一批中要发送的 event 数 |
maxeventspersecond | 0 | 设置为大于零的整数时,在 source 上强制执行速率限制。 |
example for agent named a1:
a1.sources = stresssource-1
a1.channels = memorychannel-1
a1.sources.stresssource-1.type = org.apache.flume.source.stresssource
a1.sources.stresssource-1.size = 10240
a1.sources.stresssource-1.maxtotalevents = 1000000
a1.sources.stresssource-1.channels = memorychannel-1
legacy sources
legacy source 允许 flume 1.x agent 从 flume 0.9.4 agent 接收 event . 它接受 flume 0.9.4 格式的 event , 将它们转换为 flume 1.0 格式, 并将它们存储在连接的 channel 中. 0.9.4event 属性 (如 timestamp,pri,host,nanos 等) 将转换为 1.xevent 头属性. 旧版 source 支持 avro 和 thrift rpc 连接. 要在两个 flume 版本之间使用此桥接, 您需要使用 avrolegacy 或 thriftlegacysource 启动 flume 1.x agent .0.9.4 agent 应该让 agent sink 指向 1.x agent 的主机 / 端口.
注意
flume 1.x 的可靠性语义与 flume 0.9.x 的可靠性语义不同. 旧版 source 不支持 flume 0.9.x agent 的 e2e 或 dfo 模式. 唯一支持的 0.9.x 模式是尽力而为, 尽管 1.x 流的可靠性设置将适用于传统 source 保存到 flume 1.xchannel 后的 event
必需属性以粗体显示
avro legacy source
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 org.apache.flume.source.avrolegacy.avrolegacysource |
host | - | 要绑定的主机名或 ip 地址 |
port | - | 要听的端口# |
selector.type | replicating or multiplexing | |
selector.* | replicating | 取决于 selector.type 值 |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = org.apache.flume.source.avrolegacy.avrolegacysource
a1.sources.r1.host = 0.0.0.0
a1.sources.r1.bind = 6666
a1.sources.r1.channels = c1
thrift legacy source
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是 org.apache.flume.source.thriftlegacy.thriftlegacysource |
host | - | 要绑定的主机名或 ip 地址 |
port | - | 要听的端口# |
selector.type | replicating or multiplexing | |
selector.* | replicating | 取决于 selector.type 值 |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = org.apache.flume.source.thriftlegacy.thriftlegacysource
a1.sources.r1.host = 0.0.0.0
a1.sources.r1.bind = 6666
a1.sources.r1.channels = c1
custom source
自定义 source 是您自己的 source 接口实现. 启动 flume agent 时, 自定义 source 的类及其依赖项必须包含在 agent 程序的类路径中. 自定义 source 的类型是其 fqcn.
属性名称 | 默认 | 描述 |
---|---|---|
channels | - | |
type | - | 组件类型名称,需要是您的 fqcn |
selector.type | replicating or multiplexing | |
selector.* | replicating | 取决于 selector.type 值 |
interceptors | - | 以空格分隔的拦截器列表 |
interceptors.* |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = org.example.mysource
a1.sources.r1.channels = c1
scribe source
scribe 是另一种摄取系统. 要采用现有的 scribe 摄取系统, flume 应该使用基于 thrift 的 scribesource 和兼容的传输协议. 要部署 scribe, 请遵循 facebook 的指南. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件类型名称,需要是 org.apache.flume.source.scribe.scribesource |
port | 1499 | 应该连接 scribe 的端口 |
maxreadbufferbytes | 16384000 | thrift 默认 framebuffer 大小 |
workerthreads | 5 | 在 thrift 中处理线程数 |
selector.type | ||
selector.* |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.type = org.apache.flume.source.scribe.scribesource
a1.sources.r1.port = 1463
a1.sources.r1.workerthreads = 5
a1.sources.r1.channels = c1
flume sinks
hdfs sink
此 sink 将 event 写入 hadoop 分布式文件系统 (hdfs). 它目前支持创建文本和序列文件. 它支持两种文件 type 的压缩. 可以根据经过的时间或数据大小或 event 数量定期滚动文件(关闭当前文件并创建新文件). 它还根据 event source 自的时间戳或机器等属性对数据进行分区 / 分区. hdfs 目录路径可能包含格式转义序列, 将由 hdfs sink 替换, 以生成用于存储 event 的目录 / 文件名. 使用此 sink 需要安装 hadoop, 以便 flume 可以使用 hadoop jar 与 hdfs 集群进行通信. 请注意, 需要支持 sync() 调用的 hadoop 版本.
以下是支持的转义序列:
别号 | 描述 |
---|---|
%{host} | 名为 “host” 的 event 标头的替换值。支持任意标题名称。 |
%t | unix 时间,以毫秒为单位 |
%a | locale 的工作日短名称(周一,周二,......) |
%a | locale 的完整工作日名称(周一,周二......) |
%b | locale 的短月名(jan,feb,...) |
%b | locale 的长月名(1 月,2 月......) |
%c | locale 的日期和时间(2005 年 3 月 3 日 23:05:25) |
%d | 每月的一天(01) |
%e | 没有填充的月份日(1) |
%d | 日期; 与%m /%d /%y 相同 |
%h | 小时(00..23) |
%i | 小时(01..12) |
%j | 一年中的一天(001..366) |
%k | 小时(0..23) |
%m | 月(01..12) |
%n | 没有填充的月份(1..12) |
%m | 分钟(00..59) |
%p | locale 相当于 am 或 pm |
%s | 自 1970-01-01 00:00:00 utc 以来的秒数 |
%s | 第二(00..59) |
%y | 年份的最后两位数(00..99) |
%y | 年(2010 年) |
%z | + hhmm 数字时区(例如,-0400) |
%[localhost] | 替换运行 agent 程序的主机的 hostname |
%[ip] | 替换运行 agent 程序的主机的 ip 地址 |
%[fqdn] | 替换运行 agent 程序的主机的规范 hostname |
注意: 转义字符串%[localhost],%[ip]和%[fqdn]都依赖于 java 获取 hostname 的能力, 这在某些网络环境中可能会失败.
正在使用的文件将在名称末尾包含 ".tmp". 文件关闭后, 将删除此扩展程序. 这允许排除目录中的部分完整文件. 必需属性以粗体显示
注意
对于所有与时间相关的转义序列, event 标题中必须存在带有 "timestamp" 键的标头(除非 hdfs.uselocaltimestamp 设置为 true).自动添加此方法的一种方法是使用 timestampinterceptor.
名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 hdfs |
hdfs.path | - | hdfs 目录路径( eg hdfs://namenode/flume/webdata/ ) |
hdfs.fileprefix | flumedata | 名称前缀为 flume 在 hdfs 目录中创建的文件 |
hdfs.filesuffix | - | 附加到文件的后缀(例如. avro - 注意:不会自动添加句点) |
hdfs.inuseprefix | - | 用于水槽主动写入的临时文件的前缀 |
hdfs.inusesuffix | .tmp | 用于临时文件的后缀,flume 主动写入 |
hdfs.emptyinusesuffix | false | 如果为 false,则在写入输出时使用 hdfs.inusesuffix。关闭输出后,hdfs.inusesuffix 将从输出文件名中删除。如果为 true,则忽略 hdfs.inusesuffix 参数,而是使用空字符串。 |
hdfs.rollinterval | 30 | 滚动当前文件之前等待的秒数(0 = 根据时间间隔从不滚动) |
hdfs.rollsize | 1024 | 触发滚动的文件大小,以字节为单位(0:永不基于文件大小滚动) |
hdfs.rollcount | 10 | 在滚动之前写入文件的 event 数(0 = 从不基于 event 数滚动) |
hdfs.idletimeout | 0 | 超时后非活动文件关闭(0 = 禁用自动关闭空闲文件) |
hdfs.batchsize | 100 | 在将文件刷新到 hdfs 之前写入文件的 event 数 |
hdfs.codec | - | 压缩编解码器。以下之一:gzip,bzip2,lzo,lzop,snappy |
hdfs.filetype | sequencefile | 文件格式:当前 sequencefile,datastream 或 compressedstream (1)datastream 不会压缩输出文件,请不要设置 codec(2)compressedstream 需要使用可用的 codec 设置 hdfs.codec |
hdfs.maxopenfiles | 5000 | 仅允许此数量的打开文件。如果超过此数量,则关闭最旧的文件。 |
hdfs.minblockreplicas | - | 指定每个 hdfs 块的最小副本数。如果未指定,则它来自类路径中的默认 hadoop 配置。 |
hdfs.writeformat | 可写 | 序列文件记录的格式。一个文本或可写。在使用 flume 创建数据文件之前设置为 text,否则 apache impala(孵化)或 apache hive 无法读取这些文件。 |
hdfs.threadspoolsize | 10 | hdfs io 操作的每个 hdfs sink 的线程数(open, write, etc. ) |
hdfs.rolltimerpoolsize | 1 | 每个 hdfs sink 用于调度定时文件滚动的线程数 |
hdfs.kerberosprincipal | - | 用于访问安全 hdfs 的 kerberos 用户主体 |
hdfs.kerberoskeytab | - | 用于访问安全 hdfs 的 kerberos 密钥表 |
hdfs.proxyuser | ||
hdfs.round | false | 是否应将时间戳向下舍入(如果为 true,则影响除%t 之外的所有基于时间的转义序列) |
hdfs.roundvalue | 1 | 舍入到此最高倍(在使用 hdfs.roundunit 配置的单位中),小于当前时间。 |
hdfs.roundunit | second | 舍入值的单位 - second, minute or hour. |
hdfs.timezone | local time | 应该用于解析目录路径的时区名称,例如 america/los_angeles。 |
hdfs.uselocaltimestamp | false | 替换转义序列时,请使用本地时间(而不是 event 头中的时间戳)。 |
hdfs.closetries | 0 | 启动近距离尝试后,sink 必须尝试重命名文件的次数。如果设置为 1,则此 sink 将不会重新尝试失败的重命名(例如,由于 namenode 或 datanode 失败),并且可能使文件处于打开状态,扩展名为. tmp。如果设置为 0,sink 将尝试重命名该文件,直到最终重命名该文件(它将尝试的次数没有限制)。如果关闭调用失败但数据将保持不变,则文件可能仍保持打开状态,在这种情况下,只有在 flume 重启后文件才会关闭。 |
hdfs.retryinterval | 180 | 连续尝试关闭文件之间的时间(以秒为单位)。每次关闭调用都会花费多次 rpc 往返 namenode,因此将此设置得太低会导致名称节点上的大量负载。如果设置为 0 或更小,则如果第一次尝试失败,sink 将不会尝试关闭文件,并且可能使文件保持打开状态或扩展名为 “.tmp”。 |
serializer | text | 其他可能的选项包括 avro_event 或 eventserializer.builder 接口的实现的完全限定类名 & nbsp;。 |
serializer.* |
不推荐使用的属性:
名称 | 默认 | 描述 |
hdfs.calltimeout | 30000 | hdfs 操作允许的毫秒数,例如 open,write,flush,close。 如果发生许多 hdfs 超时操作,则应增加此数量。 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = hdfs
a1.sinks.k1.channel = c1
a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%h%m/%s
a1.sinks.k1.hdfs.fileprefix = events-
a1.sinks.k1.hdfs.round = true
a1.sinks.k1.hdfs.roundvalue = 10
a1.sinks.k1.hdfs.roundunit = minute
以上配置将时间戳向下舍入到最后 10 分钟. 例如, 时间戳为 2012 年 6 月 12 日上午 11:54:34 的 event 将导致 hdfs 路径变为
- /flume/events/2012-06-12/1150/00.
- hive sink
此 sink 将包含分隔文本或 json 数据的 event 直接流式传输到 hive 表或分区. event 使用 hive 事务编写. 一旦将一组 event 提交给 hive, 它们就会立即显示给 hive 查询. 水槽将流入的分区既可以预先创建, 也可以选择 flume 创建它们, 如果它们缺失的话. 传入 event 数据中的字段将映射到 hive 表中的相应列
名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称需要是 hive |
hive.metastore | - | hive metastore uri( eg thrift://a.b.com:9083 ) |
hive.database | - | hive 数据库名称 |
hive.table | - | hive 表名 |
hive.partition | - | 逗号分隔标识要写入的分区的分区值列表。可能包含转义序列。例如:如果表格被分区(大陆:字符串,国家:字符串,时间:字符串),那么'亚洲,印度,2014-02-26-01-21'将表示大陆 = 亚洲,国家 = 印度,时间 = 2014 -02-26-01-21 |
hive.txnsperbatchask | 100 | hive 向 flume 等流媒体客户端授予一批交易而非单笔交易。此设置配置每个事务批处理所需的事务数。来自单个批次中所有事务的数据最终都在一个文件中。flume 将在批处理中的每个事务中写入最多 batchsizeevent 。此设置与 batchsize 一起提供对每个文件大小的控制。请注意,最终 hive 会将这些文件透明地压缩为更大的文件。 |
heartbeatinterval | 240 | (以秒为单位)发送到 hive 的连续心跳之间的间隔,以防止未使用的事务过期。将此值设置为 0 可禁用心跳。 |
autocreatepartitions | true | flume 将自动创建必要的 hive 分区以进行流式传输 |
batchsize | 15000 | 在单个 hive 事务中写入 hive 的最大 event 数 |
maxopenconnections | 500 | 仅允许此数量的打开连接。如果超过此数量,则关闭最近最少使用的连接。 |
calltimeout | 10000 | (以毫秒为单位)hive 和 hdfs i/o 操作的超时,例如 opentxn,write,commit,abort。 |
serializer | serializer 负责解析 event 中的字段并将它们映射到 hive 表中的列。serializer 器的选择取决于 event 中数据的格式。支持的序列化程序:delimited 和 json | |
roundunit | minute | 舍入值的单位 - 秒,分钟或小时。 |
roundvalue | 1 | 舍入到此最高倍数(在使用 hive.roundunit 配置的单位中),小于当前时间 |
时区 | local time | 应该用于解析分区中转义序列的时区名称,例如 america / los_angeles。 |
uselocaltimestamp | false | 替换转义序列时,请使用本地时间(而不是 event 头中的时间戳)。 |
为 hive sink 提供了以下序列化程序:
json: 处理 utf8 编码的 json(严格语法)event , 不需要配置. json 中的对象名称直接映射到 hive 表中具有相同名称的列. 内部使用 org.apache.hive.hcatalog.data.jsonserde, 但独立于 hive 表的 serde. 此序列化程序需要安装 hcatalog.
delimited: 处理简单的分隔文本 event . 内部使用 lazysimpleserde, 但独立于 hive 表的 serde.
名称 | 默认 | 描述 |
---|---|---|
serializer.delimiter | , | (type:字符串)传入数据中的字段分隔符。要使用特殊字符,请用双引号括起来,例如 “\t” |
serializer.fieldnames | - | 从输入字段到 hive 表中的列的映射。指定为 hive 表列名称的逗号分隔列表(无空格),按发生顺序标识输入字段。要跳过字段,请保留未指定的列名称。例如。'time ,, ip,message'表示输入映射到 hive 表中的 time,ip 和 message 列的第 1,第 3 和第 4 个字段。 |
serializer.serdeseparator | ctrl-a | (type:字符)自定义基础 serde 使用的分隔符。如果 serializer.fieldnames 中的字段与表列的顺序相同,则 serializer.delimiter 与 serializer.serdeseparator 相同,并且 serializer.fieldnames 中的字段数小于或等于表的数量,可以提高效率列,因为传入 event 正文中的字段不需要重新排序以匹配表列的顺序。对于'\t'这样的特殊字符使用单引号。确保输入字段不包含此字符。注意:如果 serializer.delimiter 是单个字符,最好将其设置为相同的字符 |
以下是支持的转义序列:
别号 | 描述 |
---|---|
%{host} | 名为 “host” 的 event 标头的替换值。支持任意标题名称。 |
%t | unix 时间,以毫秒为单位 |
%a | locale 的工作日短名称(周一,周二,......) |
%a | locale 的完整工作日名称(周一,周二......) |
%b | locale 的短月名(jan,feb,...) |
%b | locale 的长月名(1 月,2 月......) |
%c | locale 的日期和时间(2005 年 3 月 3 日 23:05:25) |
%d | 每月的一天(01) |
%d | 日期; 与%m /%d /%y 相同 |
%h | 小时(00..23) |
%i | 小时(01..12) |
%j | 一年中的一天(001..366) |
%k | 小时(0..23) |
%m | 月(01..12) |
%m | 分钟(00..59) |
%p | locale 相当于 am 或 pm |
%s | 自 1970-01-01 00:00:00 utc 以来的秒数 |
%s | 第二(00..59) |
%y | 年份的最后两位数(00..99) |
%y | 年(2010 年) |
%z | + hhmm 数字时区(例如,-0400) |
注意
对于所有与时间相关的转义序列, event 标题中必须存在具有键 "timestamp" 的标头(除非 uselocaltimestamp 设置为 true). 自动添加此方法的一种方法是使用 timestampinterceptor.
示例 hive 表:
create table weblogs ( id int , msg string )
partitioned by (continent string, country string, time string)
clustered by (id) into 5 buckets
stored as orc;
example for agent named a1:
a1.channels = c1
a1.channels.c1.type = memory
a1.sinks = k1
a1.sinks.k1.type = hive
a1.sinks.k1.channel = c1
a1.sinks.k1.hive.metastore = thrift://127.0.0.1:9083
a1.sinks.k1.hive.database = logsdb
a1.sinks.k1.hive.table = weblogs
a1.sinks.k1.hive.partition = asia,%{country},%y-%m-%d-%h-%m
a1.sinks.k1.uselocaltimestamp = false
a1.sinks.k1.round = true
a1.sinks.k1.roundvalue = 10
a1.sinks.k1.roundunit = minute
a1.sinks.k1.serializer = delimited
a1.sinks.k1.serializer.delimiter = "\t"
a1.sinks.k1.serializer.serdeseparator = '\t'
a1.sinks.k1.serializer.fieldnames =id,,msg
以上配置将时间戳向下舍入到最后 10 分钟. 例如, 将时间戳标头设置为 2012 年 6 月 12 日上午 11:54:34 且 "country" 标头设置为 "india" 的 event 将评估为分区(continent ='asia',country ='india',time ='2012-06-12-11-50'. 序列化程序配置为接受包含三个字段的制表符分隔输入并跳过第二个字段.
logger sink
在 info 级别记录 event . 通常用于测试 / 调试目的. 必需属性以粗体显示. 此 sink 是唯一的例外, 它不需要在 "记录原始数据" 部分中说明的额外配置.
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 & nbsp; logger |
maxbytestolog | 16 | 要记录的 event 主体的最大字节数 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = logger
a1.sinks.k1.channel = c1
avro sink
这个 sink 形成了 flume 的分层收集支持的一半. 发送到此 sink 的 flume event 将转换为 avro event 并发送到配置的 hostname/port pair .event 将从配置的 channel 中批量获取配置的批处理大小. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 avro。 |
hostname | - | 要绑定的 hostname 或 ip 地址。 |
port | - | 要听的端口#。 |
batch-size | 100 | 要一起批量发送的 event 数。 |
connect-timeout | 20000 | 允许第一个(握手)请求的时间量(ms)。 |
request-timeout | 20000 | 在第一个之后允许请求的时间量(ms)。 |
reset-connection-interval | none | 重置连接到下一跳之前的时间量。这将迫使 avro sink 重新连接到下一跳。这将允许 sink 在添加新闻主机时连接到硬件负载平衡器后面的主机,而无需重新启动 agent 。 |
compression-type | none | 这可以是 “ none ” 或“ deflate ”。压缩 type 必须与匹配 avrosource 的压缩 type 匹配 |
compression-level | 6 | 压缩 event 的压缩级别。0 = 无压缩,1-9 是压缩。数字越大,压缩越多 |
ssl | false | 设置为 true 以启用此 avrosink 的 ssl。配置 ssl 时,您可以选择设置“truststore”,“truststore-password”,“truststore-type”,并指定是否“trust-all-certs”。 |
trust-all-certs | false | 如果将此设置为 true,则不会检查远程服务器(avrosource)的 ssl 服务器证书。这不应该在生产中使用,因为它使攻击者更容易执行中间人攻击并 “监听” 加密连接。 |
truststore | - | 自定义 java 信任库文件的路径。flume 使用此文件中的证书颁发机构信息来确定是否应该信任远程 avro source 的 ssl 身份验证凭据。如果未指定,则将使用全局密钥库。如果未指定全局密钥库,则将使用缺省 java jsse 证书颁发机构文件(通常为 oracle jre 中的 “jssecacerts” 或“cacerts”)。 |
truststore-password | - | 信任库的密码。如果未指定,则将使用全局密钥库密码(如果已定义)。 |
truststore-type | jks | java 信任库的 type。这可以是 “jks” 或其他受支持的 java 信任库 type。如果未指定,则将使用全局密钥库 type(如果已定义,则 defautl 为 jks)。 |
exclude-protocols | 在 sslv3 | 要排除的以空格分隔的 ssl/tls 协议列表。除指定的协议外,将始终排除 sslv3。 |
maxioworkers | 2 * 机器中可用处理器的数量 | i / o 工作线程的最大数量。这是在 nettyavrorpcclient nioclientsocketchannelfactory 上配置的。 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = avro
a1.sinks.k1.channel = c1
a1.sinks.k1.hostname = 10.10.10.10
a1.sinks.k1.port = 4545
thrift sink
这个水槽形成了 flume 的分层收集支持的一半. 发送到此 sink 的 flume event 将转换为 thrift event 并发送到配置的 hostname/port pair.event 将从配置的 channel 中批量获取配置的批处理大小.
可以通过启用 kerberos 身份验证将 thrift sink 配置为以安全模式启动. 要与以安全模式启动的 thriftsource 通信, thriftsink 也应该以安全模式运行. client-principal 和 client-keytab 是 thriftsink 用于向 kerberos kdc 进行身份验证的属性. server-principal 表示 thriftsource 的主体, 此 sink 配置为以安全模式连接. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要节俭。 |
hostname | - | 要绑定的 hostname 或 ip 地址。 |
port | - | 要听的端口#。 |
batch-size | 100 | 要一起批量发送的 event 数。 |
connect-timeout | 20000 | 允许第一个(握手)请求的时间量(ms)。 |
request-timeout | 20000 | 在第一个之后允许请求的时间量(ms)。 |
connection-reset-interval | none | 重置连接到下一跳之前的时间量。这将迫使 thrift sink 重新连接到下一跳。这将允许 sink 在添加新闻主机时连接到硬件负载平衡器后面的主机,而无需重新启动 agent 。 |
ssl | false | 设置为 true 以为此 thriftsink 启用 ssl。配置 ssl 时,您可以选择设置 “truststore”,“truststore-password” 和“truststore-type” |
truststore | - | 自定义 java 信任库文件的路径。flume 使用此文件中的证书颁发机构信息来确定是否应该信任远程 thrift source 的 ssl 身份验证凭据。如果未指定,则将使用全局密钥库。如果未指定全局密钥库,则将使用缺省 java jsse 证书颁发机构文件(通常为 oracle jre 中的 “jssecacerts” 或“cacerts”)。 |
truststore-password | - | 信任库的密码。如果未指定,则将使用全局密钥库密码(如果已定义)。 |
truststore-type | jks | java 信任库的 type。这可以是 “jks” 或其他受支持的 java 信任库 type。如果未指定,则将使用全局密钥库 type(如果已定义,则 defautl 为 jks)。 |
exclude-protocols | sslv3 | 要排除的以空格分隔的 ssl / tls 协议列表 |
kerberos 的 | false | 设置为 true 以启用 kerberos 身份验证。在 kerberos 模式下,需要 client-principal,client-keytab 和 server-principal 才能成功进行身份验证并与启用 kerberos 的 thrift source 进行通信。 |
client-principal | - | thrift sink 使用的 kerberos 校长对 kerberos kdc 进行身份验证。 |
client-keytab | - | thrift sink 与客户端主体结合使用的 keytab 位置,用于对 kerberos kdc 进行身份验证。 |
server-principal | - | thrift sink 配置为连接到的 thrift source 的 kerberos 主体。 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = thrift
a1.sinks.k1.channel = c1
a1.sinks.k1.hostname = 10.10.10.10
a1.sinks.k1.port = 4545
irc sink
irc sink 从附加 channel 接收消息, 并将这些消息中继到已配置的 irc 目标. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 irc |
hostname | - | 要连接的 hostname 或 ip 地址 |
port | 6667 | 要连接的远程主机的端口号 |
nick | - | 昵称 |
user | - | 用户名 |
password | - | 用户密码 |
chan | - | channel |
name | ||
splitlines | - | (布尔值) |
splitchars 中 | n | 行分隔符(如果你要在配置文件中输入默认值,那么你需要转义反斜杠,如下所示:“\ n”) |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = irc
a1.sinks.k1.channel = c1
a1.sinks.k1.hostname = irc.yourdomain.com
a1.sinks.k1.nick = flume
a1.sinks.k1.chan = #flume
file roll sink
在本地文件系统上存储 event . 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 file_roll。 |
sink.directory | - | 将存储文件的目录 |
sink.pathmanager | default | 要使用的 pathmanager 实现。 |
sink.pathmanager.extension | - | 如果使用默认的 pathmanager,则为文件扩展名。 |
sink.pathmanager.prefix | - | 如果使用默认 pathmanager,则添加到文件名开头的字符串 |
sink.rollinterval | 30 | 每 30 秒滚动一次文件。指定 0 将禁用滚动并导致所有 event 都写入单个文件。 |
sink.serializer | text | 其他可能的选项包括 avro_event 或 eventserializer.builder 接口实现的 fqcn。 |
sink.batchsize | 100 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = file_roll
a1.sinks.k1.channel = c1
a1.sinks.k1.sink.directory = /var/log/flume
null sink
丢弃从 channel 收到的所有 event . 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称必须为 null。 |
batchsize | 100 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = null
a1.sinks.k1.channel = c1
hbase sink
此 sink 将数据写入 hbase.hbase 配置是从类路径中遇到的第一个 hbase-site.xml 中获取的. 实现由配置指定的 hbaseeventserializer 的类用于将 event 转换为 hbase put 和 / 或 increments . 然后将这些 put 和 increments 写入 hbase. 该 sink 提供与 hbase 相同的一致性保证, hbase 是当前行的原子性. 如果 hbase 无法写入某些 event , 则 sink 将重播该事务中的所有 event
hbase sink 支持将数据写入安全 hbase. 要写入安全 hbase, agent 程序正在运行的用户必须具有对 sink 配置为写入的表的写入权限. 可以在配置中指定用于对 kdc 进行身份验证的主体和密钥表. flume agent 程序类路径中的 hbase-site.xml 必须将身份验证设置为 kerberos(有关如何执行此操作的详细信息, 请参阅 hbase 文档)
为方便起见, flume 提供了两个序列化器.
simplehbaseeventserializer(org.apache.flume.sink.hbase.simplehbaseeventserializer)按原样将 event 主体写入 hbase, 并可选择增加 hbase 中的列. 这主要是一个示例实现.
regexhbaseeventserializer(org.apache.flume.sink.hbase.regexhbaseeventserializer)根据给定的正则表达式打破 event 体, 并将每个部分写入不同的列.
type 是 fqcn:org.apache.flume.sink.hbase.hbasesink.
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 hbase |
table | - | hbase 中要写入的表的名称。 |
columnfamily | - | hbase 中的列族写入。 |
zookeeperquorum | - | 法定人数规格。这是 hbase-site.xml 中属性 hbase.zookeeper.quorum 的值 |
znodeparent | /hbase | -root - 区域的 znode 的基本路径。价值 zookeeper.znode.parent 在 hbase 的 - site.xml 中 |
batchsize | 100 | 每个 txn 要写入的 event 数。 |
coalesceincrements | false | 如果 sink 将多个增量合并到每个批次的单元格中。如果有限数量的单元格有多个增量,这可能会提供更好的性能。 |
serializer | org.apache.flume.sink.hbase.simplehbaseeventserializer | 默认增量列 =“icol”,有效负载列 =“pcol”。 |
serializer.* | - | 要传递给序列化程序的属性。 |
kerberosprincipal | - | 用于访问安全 hbase 的 kerberos 用户主体 |
kerberoskeytab | - | 用于访问安全 hbase 的 kerberos 密钥表 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = hbase
a1.sinks.k1.table = foo_table
a1.sinks.k1.columnfamily = bar_cf
a1.sinks.k1.serializer = org.apache.flume.sink.hbase.regexhbaseeventserializer
a1.sinks.k1.channel = c1
hbase2 sink
hbase2sink 相当于 hbase 版本 2 的 hbasesink. 提供的功能和配置参数与 hbasesink 的情况相同(除了 sinktype 中的 hbase2 标签和包 / 类名称)
type 是 fqcn:org.apache.flume.sink.hbase2.hbase2sink
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 hbase2 |
table | - | hbase 中要写入的表的名称。 |
columnfamily | - | hbase 中的列族写入。 |
zookeeperquorum | - | 这是 hbase-site.xml 中属性 hbase.zookeeper.quorum 的值 |
znodeparent | /hbase | -root - 区域的 znode 的基本路径。价值 zookeeper.znode.parent 在 hbase 的 - site.xml 中 |
batchsize | 100 | 每个 txn 要写入的 event 数。 |
coalesceincrements | false | 如果 sink 将多个增量合并到每个批次的单元格中。如果有限数量的单元格有多个增量,这可能会提供更好的性能。 |
serializer | org.apache.flume.sink.hbase2.simplehbase2eventserializer | 默认增量列 =“icol”,有效负载列 =“pcol”。 |
serializer.* | - | 要传递给序列化程序的属性。 |
kerberosprincipal | - | 用于访问安全 hbase 的 kerberos 用户主体 |
kerberoskeytab | - | 用于访问安全 hbase 的 kerberos 密钥表 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = hbase2
a1.sinks.k1.table = foo_table
a1.sinks.k1.columnfamily = bar_cf
a1.sinks.k1.serializer = org.apache.flume.sink.hbase2.regexhbase2eventserializer
a1.sinks.k1.channel = c1
asynchbasesink
此 sink 使用异步模型将数据写入 hbase. 实现由配置指定的 asynchbaseeventserializer 的类用于将 event 转换为 hbase put 和 / 或 increments. 然后将这些放置和增量写入 hbase. 此 sink 使用 asynchbase api https://github.com/opentsdb/asynchbase 写入 hbase. 该 sink 提供与 hbase 相同的一致性保证, hbase 是当前行的原子性. 如果 hbase 无法写入某些 event , 则 sink 将重播该事务中的所有 event .asynchbasesink 只能与 hbase 1.x 一起使用. asynchbasesink 使用的异步客户端库不适用于 hbase 2.type 为 fqcn:org.apache.flume.sink.hbase.asynchbasesink. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 asynchbase |
table | - | hbase 中要写入的表的名称。 |
zookeeperquorum | - | 法定人数规格。这是 hbase-site.xml 中属性 hbase.zookeeper.quorum 的值 |
znodeparent | /hbase | -root - 区域的 znode 的基本路径。价值 zookeeper.znode.parent 在 hbase 的 - site.xml 中 |
columnfamily | - | hbase 中的列族写入。 |
batchsize | 100 | 每个 txn 要写入的 event 数。 |
coalesceincrements | false | 如果 sink 将多个增量合并到每个批次的单元格中。如果有限数量的单元格有多个增量,这可能会提供更好的性能。 |
timeout | 60000 | sink 为事务中的所有 event 等待来自 hbase 的 acks 的时间长度(以毫秒为单位)。 |
serializer | org.apache.flume.sink.hbase.simpleasynchbaseeventserializer | |
serializer.* | - | 要传递给序列化程序的属性。 |
async.* | - | 要传递给 asynchbase 库的属性。这些属性优先于旧的 zookeeperquorum 和 znodeparent 值。您可以在 asynchbase 的文档页面中找到可用属性的列表 & nbsp;。 |
请注意, 此 sink 在配置中获取 zookeeper quorum 和父 znode 信息. 可以在 flume 配置文件中指定 zookeeper quorum 和父节点配置. 或者, 这些配置值取自类路径中的第一个 hbase-site.xml 文件.
如果配置中未提供这些, 则 sink 将从类路径中的第一个 hbase-site.xml 文件中读取此信息.
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = asynchbase
a1.sinks.k1.table = foo_table
a1.sinks.k1.columnfamily = bar_cf
a1.sinks.k1.serializer = org.apache.flume.sink.hbase.simpleasynchbaseeventserializer
a1.sinks.k1.channel = c1
morphlinesolrsink
此 sink 从 flume event 中提取数据, 对其进行转换, 并将其近乎实时地加载到 apache solr 服务器中, 后者又向最终用户或搜索应用程序提供查询.
此 sink 非常适合将原始数据流式传输到 hdfs(通过 hdfssink)并同时提取, 转换并将相同数据加载到 solr(通过 morphlinesolrsink)的用例. 特别是, 此 sink 可以处理来自不同数据 source 的任意异构原始数据, 并将其转换为对搜索应用程序有用的数据模型
etl 功能可使用 morphline 配置文件进行自定义, 该文件定义了一系列转换命令, 用于将 event 记录从一个命令传递到另一个命令
morphlines 可以看作是 unix 管道的演变, 其中数据模型被推广为使用通用记录流, 包括任意二进制有效载荷. morphline 命令有点像 flume 拦截器. morphlines 可以嵌入到 flume 等 hadoop 组件中.
用于解析和转换一组标准数据格式 (如日志文件, avro,csv, 文本, html,xml,pdf,word,excel 等) 的命令是开箱即用的, 还有其他自定义命令和解析器用于其他数据格式可以添加为 morphline 插件. 可以索引任何 type 的数据格式, 并且可以生成任何 type 的 solr 模式的任何 solr 文档, 并且可以注册和执行任何自定义 etl 逻辑.
morphlines 操纵连续的记录流. 数据模型可以描述如下: 记录是一组命名字段, 其中每个字段具有一个或多个值的有序列表. 值可以是任何 java 对象. 也就是说, 记录本质上是一个哈希表, 其中每个哈希表条目包含一个 string 键和一个 java 对象列表作为值.(该实现使用 guava 的 arraylistmultimap, 它是一个 listmultimap). 请注意, 字段可以具有多个值, 并且任何两个记录都不需要使用公共字段名称.
这个 sink 将 flumeevent 的主体填充到_attachment_body 中记录字段中, 并将 flumeevent 的标头复制到同名的记录字段中. 然后命令可以对此数据执行操作.
支持路由到 solrcloud 集群以提高可伸缩性. 索引负载可以分布在大量 morphlinesolrsink 上, 以提高可伸缩性. 可以跨多个 morphlinesolrsink 复制索引负载以实现高可用性, 例如使用 flume 功能, 例如负载平衡 sink 处理器. morphlineinterceptor 还可以帮助实现到多个 solr 集合的动态路由(例如, 用于多租户)
必须将环境所需的 morphline 和 solr jar 放在 apache flume 安装的 lib 目录中.
type 是 fqcn:org.apache.flume.sink.solr.morphline.morphlinesolrsink
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 org.apache.flume.sink.solr.morphline.morphlinesolrsink |
morphlinefile | - | 本地文件系统与 morphline 配置文件的相对或绝对路径。示例:/etc/flume-ng/conf/morphline.conf |
morphlineid | null | 如果 morphline 配置文件中有多个 morphlines,则用于标识 morphline 的可选名称 |
batchsize | 1000 | 每个水槽事务要采取的最大 event 数。 |
batchdurationmillis | 1000 | 每个水槽事务的最大持续时间(ms)。事务在此持续时间之后或超过 batchsize 时提交,以先到者为准。 |
handlerclass | org.apache.flume.sink.solr.morphline.morphlinehandlerimpl | 实现 org.apache.flume.sink.solr.morphline.morphlinehandler 的类的 fqcn |
isproductionmode | false | 应该为关键任务,大规模在线生产系统启用此标志,这些系统需要在发生不可恢复的异常时无需停机即可取得进展。与未知 solr 架构字段相关的损坏或格式错误的解析器输入数据,解析器错误和错误会产生不可恢复的异常。 |
recoverableexceptionclasses | org.apache.solr.client.solrj.solrserverexception | 以逗号分隔的可恢复异常列表,这些异常往往是暂时的,在这种情况下,可以重试相应的任务。示例包括网络连接错误,超时等。当生产模式标志设置为 true 时,使用此参数配置的可恢复异常将不会被忽略,因此将导致重试。 |
isignoringrecoverableexceptions | false | 如果不可恢复的异常被意外错误分类为可恢复,则应启用此标志。这使得 sink 能够取得进展并避免永远重试 event 。 |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = org.apache.flume.sink.solr.morphline.morphlinesolrsink
a1.sinks.k1.channel = c1
a1.sinks.k1.morphlinefile = /etc/flume-ng/conf/morphline.conf
# a1.sinks.k1.morphlineid = morphline1
# a1.sinks.k1.batchsize = 1000
# a1.sinks.k1.batchdurationmillis = 1000
elasticsearchsink
此 sink 将数据写入弹性搜索集群. 默认情况下, 将写入 event 以便 kibana http://kibana.org/ 图形界面可以显示它们 - 就像 logstash 一样 https://logstash.net/ 编写它们一样
必须将环境所需的 elasticsearch 和 lucene-core jar 放在 apache flume 安装的 lib 目录中. elasticsearch 要求客户端 jar 的主要版本与服务器的主要版本匹配, 并且两者都运行相同的 jvm 次要版本. 如果这不正确, 将出现 serializationexceptions. 要选择所需的版本, 请首先确定 elasticsearch 的版本以及目标群集正在运行的 jvm 版本. 然后选择与主要版本匹配的 elasticsearch 客户端库.0.19.x 客户端可以与 0.19.x 群集通信; 0.20.x 可以与 0.20.x 对话, 0.90.x 可以与 0.90.x 对话. 确定 elasticsearch 版本后, 读取 pom.xml 文件以确定要使用的正确 lucene-core jar 版本.
event 将每天写入新索引. 名称将是 < indexname> -yyyy-mm-dd, 其中 < indexname > 是 indexname 参数. sink 将在午夜 utc 开始写入新索引.
默认情况下, elasticsearchlogstasheventserializer 会为弹性搜索序列化 event . 可以使用 serializer 参数覆盖此行为. 此参数接受 org.apache.flume.sink.elasticsearch.elasticsearcheventserializer 或 org.apache.flume.sink.elasticsearch.elasticsearchindexrequestbuilderfactory 的实现. 不推荐使用 elasticsearcheventserializer 来支持更强大的 elasticsearchindexrequestbuilderfactory
type 是 fqcn:org.apache.flume.sink.elasticsearch.elasticsearchsink
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是 org.apache.flume.sink.elasticsearch.elasticsearchsink |
hostname | - | 逗号分隔的 hostname:port 列表,如果端口不存在,将使用默认端口'9300' |
indexname | flume | 将附加日期的索引的名称。示例'flume' - >'flume-yyyy-mm-dd'支持任意标题替换,例如。%{header} 替换为命名 event 标头的值 |
indextype | logs | 索引文档的 type,默认为'log'支持任意标头替换,例如。%{header} 替换为命名 event 标头的值 |
clustername | elasticsearch | 要连接的 elasticsearch 集群的名称 |
batchsize | 100 | 每个 txn 要写入的 event 数。 |
ttl | - | ttl 以天为单位,设置时会导致过期文档自动删除,如果没有设置,文档将永远不会被自动删除。ttl 在早期的整数形式中都被接受,例如 a1.sink.k1.ttl = 5,还有限定符 ms(毫秒),s(秒),m(分钟),h(小时),d(天)和 w(周)。示例 a1.sink.k1.ttl = 5d 将 ttl 设置为 5 天。按照 < a href="http://www.elasticsearch.org/guide/reference/mapping/ttl-field/以获取更多信息。" ztid="2867" ow="472" oh="36">http://www.elasticsearch.org/guide/reference/mapping/ttl-field / 以获取更多信息。 |
serializer | org.apache.flume.sink.elasticsearch.elasticsearchlogstasheventserializer | 要使用的 elasticsearchindexrequestbuilderfactory 或 elasticsearcheventserializer。接受任一类的实现,但首选 elasticsearchindexrequestbuilderfactory。 |
serializer.* | - | 要传递给序列化程序的属性。 |
注意
使用标头替换可以方便地使用 event 标头的值来动态决定在存储 event 时要使用的 indexname 和 indextype. 使用此功能时应谨慎, 因为 event 提交者现在可以控制 indexname 和 indextype. 此外, 如果使用 elasticsearch rest 客户端, 则 event 提交者可以控制所使用的 url 路径
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = elasticsearch
a1.sinks.k1.hostnames = 127.0.0.1:9200,127.0.0.2:9300
a1.sinks.k1.indexname = foo_index
a1.sinks.k1.indextype = bar_type
a1.sinks.k1.clustername = foobar_cluster
a1.sinks.k1.batchsize = 500
a1.sinks.k1.ttl = 5d
a1.sinks.k1.serializer = org.apache.flume.sink.elasticsearch.elasticsearchdynamicserializer
a1.sinks.k1.channel = c1
kite dataset sink
将 event 写入 kite 数据集的 http://kitesdk.org/docs/current/guide/ 实验 sink. 此 sink 将反序列化每个传入 event 的主体, 并将结果记录存储在风筝数据集中. 它通过按 uri 加载数据集来确定目标数据集.
唯一支持的序列化的 avro 和记录模式必须在 event 标题使用或者被通过, flume.avro.schema.literal 与 json 模式表示或 flume.avro.schema.url 有一个网址, 该模式可能会发现(hdfs:/ ... 支持 uri). 这与使用 deserializer.schematype = literal 的 log4jappender 水槽客户端和 false 脱机目录 source 的 avro 反序列化器 兼容.
注 1: 不支持 flume.avro.schema.hash 标头. 注意 2: 在某些情况下, 在超过滚动间隔后可能会略微发生文件滚动. 但是, 此延迟不会超过 5 秒. 在大多数情况下, 延迟是可以忽略的.
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 必须是 org.apache.flume.sink.kite.datasetsink |
kite.dataset.uri | - | 要打开的数据集的 uri |
kite.repo.uri | - | 要打开的存储库的 uri(不建议使用; 请改用 kite.dataset.uri) |
kite.dataset.namespace | - | 数据集的命名空间,其中将写入记录(不建议使用; 请改用 kite.dataset.uri) |
kite.dataset.name | - | 将写入记录的数据集的名称(不建议使用; 请改用 kite.dataset.uri) |
kite.batchsize | 100 | 每批中要处理的记录数 |
kite.rollinterval | 30 | 释放数据文件之前的最长等待时间(秒) |
kite.flushable.commitonbatch | true | 如果为 true,将提交 flume 事务,并在每批 kite.batchsize 记录上刷新 writer。此设置仅适用于可刷新数据集。如果为 & nbsp;true,则可以将具有提交数据的临时文件保留在数据集目录中。需要手动恢复这些文件,以使数据对 datasetreaders 可见。 |
kite.syncable.synconbatch | true | 控制 sink 在提交事务时是否也将同步数据。此设置仅适用于可同步数据集。同步 gaurentees 数据将写入远程系统上的稳定存储,同时只刷新数据已离开 flume 的客户端缓冲区的 gaurentees。当 kite.flushable.commitonbatch 属性设置为 false 时,此属性也必须设置为 false。 |
kite.entityparser | avro | 将 flume events 变为 kite 实体的 parser 。有效值是 avro 和 entityparser.builder 接口的实现的完全限定类名。 |
kite.failurepolicy | retry | 政策处理不可恢复的错误,如缺少 & nbsp; 架构在 event 头。默认值 retry 将使当前批处理失败,并再次尝试与旧行为匹配。其他有效值是保存,这将写原始 event 到 kite.error.dataset.uri 数据集,以及一个实现的完全限定类名 failurepolicy.builder 接口。 |
kite.error.dataset.uri | - | 当 kite.failurepolicy 设置为 save 时,保存失败 event 的数据集的 uri 。需要的时候 kite.failurepolicy 设置为保存。 |
auth.kerberosprincipal | - | 用于 hdfs 安全身份验证的 kerberos 用户主体 |
auth.kerberoskeytab | - | 主体的 kerberos keytab 位置(本地 fs) |
auth.proxyuser | - | hdfs 操作的有效用户,如果与 kerberos 主体不同 |
kafka sink
这是一个 flume sink 实现, 可以将数据发布到 kafka http://kafka.apache.org/ 主题. 其中一个目标是将 flume 与 kafka 集成, 以便基于拉的处理系统可以处理来自各种 flume source 的数据.
这目前支持 kafka 服务器版本 0.10.1.0 或更高版本. 测试完成了 2.0.1, 这是发布时最高的可用版本
必需属性以粗体字体标记
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 必须设置为 org.apache.flume.sink.kafka.kafkasink |
kafka.bootstrap.servers | - | kafka-sink 将连接到的经纪人列表,以获取主题分区列表这可以是经纪人的部分列表,但我们建议至少两个用于 ha。格式为逗号分隔的 hostname:port 列表 |
kafka.topic | default-flume-topic | kafka 中将发布消息的主题。如果配置了此参数,则会将消息发布到此主题。如果 event 标头包含 “主题” 字段,则 event 将发布到该主题,从而覆盖此处配置的主题。支持任意头部替换,例如。%{header}将替换为名为 “header” 的 event 标头的值。(如果使用替换,建议将 kafka agent 的 “auto.create.topics.enable” 属性设置为 true。) |
flumebatchsize | 100 | 一批中要处理的消息数。较大批量可提高吞吐量,同时增加延迟。 |
kafka.producer.acks | 1 | 在考虑成功写入之前,有多少副本必须确认消息。接受的值为 0(从不等待确认),1(仅等待前导),-1(等待所有副本)将此值设置为 - 1,以避免在某些领导失败的情况下丢失数据。 |
useflumeeventformat | false | 默认情况下,event 直接从 event 主体作为字节放到 kafka 主题上。设置为 true 以将 event 存储为 flume avro 二进制格式。与 kafkasource 上的相同属性或 kafka channel 上的 parseasflumeevent 属性一起使用时,这将保留生成端的任何 flume 头。 |
defaultpartitionid | - | 指定要发送到此 channel 中的所有 event 的 kafka 分区 id(整数),除非被 partitionidheader 覆盖。默认情况下,如果未设置此属性,则 event 将由 kafka producer 的分区程序分发 - 包括按键(如果指定)(或由 kafka.partitioner.class 指定的分区程序)。 |
partitionidheader | - | 设置后,sink 将使用 event 标头中使用此属性的值命名的字段的值,并将消息发送到主题的指定分区。如果该值表示无效分区,则将抛出 eventdeliveryexception。如果存在标头值,则此设置将覆盖 defaultpartitionid。 |
allowtopicoverride | true | 设置后,sink 将允许将消息生成到 topicheader 属性指定的主题中(如果提供)。 |
topicheader | topic | 当与 allowtopicoverride 一起设置时,将生成一个消息,该消息将使用此属性的值命名为标头的值。与 kafka source topicheader 属性一起使用时应小心,以避免创建环回。 |
kafka.producer.security.protocol | plaintext | 如果使用某种级别的安全性写入 kafka,则设置为 sasl_plaintext,sasl_ssl 或 ssl。有关安全设置的其他信息,请参见下文。 |
more producer security props | 如果使用 sasl_plaintext,则 sasl_ssl 或 ssl 会引用 kafka 安全性以获取需要在生产者上设置的其他属性。 | |
其他 kafka producer properties | - | 这些属性用于配置 kafka producer。可以使用 kafka 支持的任何生产者属性。唯一的要求是使用前缀 kafka.producer 添加属性名称 & nbsp;。例如:kafka.producer.linger.ms |
注意
kafka sink 使用 flume event 标头中的 topic 和 key 属性将 event 发送到 kafka. 如果 topic 中存在 headers , 则会将 event 发送到该特定 topic, 从而覆盖为 sink 配置的主题. 如果 key 在 topic 存在, 关键还是使用 kafkatopic 分区分区数据. 具有相同密钥的 event 将发送到同一分区. 如果密钥为空, 则将 event 发送到随机分区.
kafka sink 还为 key.serializer(org.apache.kafka.common.serialization.stringserializer)和 value.serializer(org.apache.kafka.common.serialization.bytearrayserializer)
提供默认值. 不建议修改这些参数
不推荐使用的属性:
属性名称 | 默认 | 描述 |
---|---|---|
brokerlist | - | 使用 kafka.bootstrap.servers |
topic | default-flume-topic | 使用 kafka.topic |
batchsize | 100 | 使用 kafka.flumebatchsize |
requiredacks | 1 | 使用 kafka.producer.acks |
下面给出 kafka sink 的示例配置. 以 kafka 生产者前缀 kafka.producer 开头的属性. 创建 kafka 生成器时传递的属性不限于此示例中给出的属性. 此外, 可以在此处包含您的自定义属性, 并通过作为方法参数传入的 flume context 对象在预处理器中访问它们.
a1.sinks.k1.channel = c1
a1.sinks.k1.type = org.apache.flume.sink.kafka.kafkasink
a1.sinks.k1.kafka.topic = mytopic
a1.sinks.k1.kafka.bootstrap.servers = localhost:9092
a1.sinks.k1.kafka.flumebatchsize = 20
a1.sinks.k1.kafka.producer.acks = 1
a1.sinks.k1.kafka.producer.linger.ms = 1
a1.sinks.k1.kafka.producer.compression.type = snappy
安全和 kafka sink
flume 和 kafka 之间的通信 channel 支持安全认证和数据加密. 对于安全身份验证, 可以使用 kafka 0.9.0 版中的 sasl / gssapi(kerberos v5)或 ssl(即使该参数名为 ssl, 实际协议是 tls 实现)
截至目前, 数据加密仅由 ssl / tls 提供.
将 kafka.producer.security.protocol 设置为以下任何值意味着:
sasl_plaintext - 无数据加密的 kerberos 或纯文本身份验证
sasl_ssl - 使用数据加密的 kerberos 或纯文本身份验证
ssl - 基于 tls 的加密, 带有可选的身份验证
警告
启用 ssl 时性能会下降, 其大小取决于 cputype 和 jvm 实现. 参考: kafka 安全概述 和跟踪此问题的 jira: https://issues/jira/browse/kafka-2561
tls 和 kafka sink:
请阅读配置 kafka 客户端 ssl 中描述的步骤, 以了解用于微调的其他配置设置, 例如以下任何一项: 安全提供程序, 密码套件, 启用的协议, 信任库或密钥库 type.
配置服务器端身份验证和数据加密的示例.
在此处指定信任库是可选的, 可以使用全局信任库. 有关全局 ssl 设置的更多详细信息, 请参阅 ssl / tls 支持部分.
注意: 默认情况下, 未定义属性 ssl.endpoint.identification.algorithm, 因此不会执行 hostname 验证. 要启用 hostname 验证, 请设置以下属性
a1.sinks.sink1.kafka.producer.ssl.endpoint.identification.algorithm = https
启用后, 客户端将根据以下两个字段之一验证服务器的完全限定域名(fqdn):
通用名称(cn) https://tools.ietf.org/html/rfc6125#section-2.3 https://tools.ietf.org/html/rfc6125#section-2.3
主题备选名称(san)
如果还需要客户端身份验证, 则还需要将以下内容添加到 flume agent 配置中, 或者可以使用全局 ssl 设置(请参阅 ssl / tls 支持部分). 每个 flume agent 都必须拥有其客户证书, kafka 经纪人必须单独或通过其签名链来信任. 常见示例是由单个根 ca 签署每个客户端证书, 而后者又由 kafka 经纪人信任
# optional, the global keystore can be used alternatively
a1.sinks.sink1.kafka.producer.ssl.keystore.location = /path/to/client.keystore.jks
a1.sinks.sink1.kafka.producer.ssl.keystore.password = <password to access the keystore>
如果密钥库和密钥使用不同的密码保护, 则 ssl.key.password 属性将为生产者密钥库提供所需的额外密钥
a1.sinks.sink1.kafka.producer.ssl.key.password = <password to access the key>
kerberos 和 kafka sink
要将 kafkasink 与使用 kerberos 保护的 kafka 集群一起使用, 请为生产者设置上面提到的 producer.security.protocol 属性. 与 kafka agent 一起使用的 kerberos 密钥表和主体在 jaas 文件的 "kafkaclient" 部分中指定."客户端" 部分描述了 zookeeper 连接(如果需要). 有关 jaas 文件内容的信息, 请参阅 kafka doc. 可以通过 flume-env.sh 中的 java_opts 指定此 jaas 文件的位置以及可选的系统范围的 kerberos 配置:
java_opts="$java_opts -djava.security.krb5.conf=/path/to/krb5.conf" java_opts="$java_opts -djava.security.auth.login.config=/path/to/flume_jaas.conf"
使用 sasl_plaintext 的示例安全配置:
a1.sinks.sink1.type = org.apache.flume.sink.kafka.kafkasink
a1.sinks.sink1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.sinks.sink1.kafka.topic = mytopic
a1.sinks.sink1.kafka.producer.security.protocol = sasl_plaintext
a1.sinks.sink1.kafka.producer.sasl.mechanism = gssapi
a1.sinks.sink1.kafka.producer.sasl.kerberos.service.name = kafka
使用 sasl_ssl 的安全配置示例:
a1.sinks.sink1.type = org.apache.flume.sink.kafka.kafkasink
a1.sinks.sink1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.sinks.sink1.kafka.topic = mytopic
a1.sinks.sink1.kafka.producer.security.protocol = sasl_ssl
a1.sinks.sink1.kafka.producer.sasl.mechanism = gssapi
a1.sinks.sink1.kafka.producer.sasl.kerberos.service.name = kafka
# optional, the global truststore can be used alternatively
a1.sinks.sink1.kafka.producer.ssl.truststore.location = /path/to/truststore.jks
a1.sinks.sink1.kafka.producer.ssl.truststore.password = <password to access the truststore>
示例 jaas 文件. 有关其内容的参考, 请参阅 sasl 配置的 kafka 文档中所需认证机制 (gssapi / plain) 的客户端配置部分. 与 kafka source 或 kafka channel 不同, 不需要 "client" 部分, 除非其他连接组件需要它. 另外, 请确保 flume 进程的操作系统用户对 jaas 和 keytab 文件具有读权限.
kafkaclient {
com.sun.security.auth.module.krb5loginmodule required
usekeytab=true
storekey=true
keytab="/path/to/keytabs/flume.keytab"
principal="flume/flumehost1.example.com@yourkerberosrealm";
};
http sink
此 sink 的行为是它将从 channel 获取 event , 并使用 http post 请求将这些 event 发送到远程服务. event 内容作为 post 正文发送
此 sink 的错误处理行为取决于目标服务器返回的 http 响应. sink 退避 / 就绪状态是可配置的, 事务提交 / 回滚结果以及 event 是否有助于成功的 event 排放计数也是可配置的
状态代码不可读的服务器返回的任何格式错误的 http 响应都将导致退避信号, 并且不会从该 channel 中消耗该 event
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称需要为 http。 |
endpoint | - | post 到的完全限定的 url 端点 |
connecttimeout | 5000 | 套接字 connect-timeout(以毫秒为单位) |
request-timeout | 5000 | 最大请求处理时间(以毫秒为单位) |
contenttypeheader | text/plain | http content-type 标头 |
acceptheader | text/plain | http accept 标头值 |
defaultbackoff | true | 是否在接收所有 http 状态代码时默认退避 |
defaultrollback | true | 是否在接收所有 http 状态代码时默认回滚 |
defaultincrementmetrics | false | 是否在接收所有 http 状态代码时默认增加指标 |
backoff.code | - | 为个人(即 200)代码或组(即 2xx)代码配置特定退避 |
rollback.code | - | 为单个(即 200)代码或组(即 2xx)代码配置特定回滚 |
incrementmetrics.code | - | 配置单个(即 200)代码或组(即 2xx)代码的特定度量增量 |
请注意, 最具体的 http 状态代码匹配用于 backoff,rollback 和 incrementmetrics 配置选项. 如果存在 2xx 和 200 状态代码的配置值, 则 200 个 http 代码将使用 200 值, 而 201-299 范围内的所有其他 http 代码将使用 2xx 值.
消耗任何空或空 event 而不向 http 端点发出任何请求.
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = http
a1.sinks.k1.channel = c1
a1.sinks.k1.endpoint = http://localhost:8080/someuri
a1.sinks.k1.connecttimeout = 2000
a1.sinks.k1.requesttimeout = 2000
a1.sinks.k1.acceptheader = application/json
a1.sinks.k1.contenttypeheader = application/json
a1.sinks.k1.defaultbackoff = true
a1.sinks.k1.defaultrollback = true
a1.sinks.k1.defaultincrementmetrics = false
a1.sinks.k1.backoff.4xx = false
a1.sinks.k1.rollback.4xx = false
a1.sinks.k1.incrementmetrics.4xx = true
a1.sinks.k1.backoff.200 = false
a1.sinks.k1.rollback.200 = false
a1.sinks.k1.incrementmetrics.200 = true
custom sink
自定义 sink 是您自己的 sink 接口实现. 启动 flume agent 程序时, 必须在 agent 程序的类路径中包含自定义 sink 的类及其依赖项.自定义 sink 的 type 是其 fqcn. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
channel | - | |
type | - | 组件 type 名称,需要是您的 fqcn |
example for agent named a1:
a1.channels = c1
a1.sinks = k1
a1.sinks.k1.type = org.example.mysink
a1.sinks.k1.channel = c1
flume channels
channel 是 event 在 agent 上暂存的存储库. source 添加 event ,sink 删除它.
memory channel
event 存储在具有可配置最大大小的内存中队列中. 它非常适合需要更高吞吐量的流量, 并且在 agent 发生故障时准备丢失分阶段数据. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称,需要是 & nbsp;memory |
capacity | 100 | channel 中存储的最大 event 数 |
transactioncapacity | 100 | 每个事务 channel 从 source 或提供给 sink 的最大 event 数 |
keep-alive | 3 | 添加或删除 event 的超时(以秒为单位) |
bytecapacitybufferpercentage | 20 | 定义 bytecapacity 与 channel 中所有 event 的估计总大小之间的缓冲区百分比,以计算标头中的数据。见下文。 |
bytecapacity | 见说明 | 允许的最大内存总字节数,作为此 channel 中所有 event 的总和。该实现仅计算 event 主体,这也是提供 bytecapacitybufferpercentage 配置参数的原因。默认值为计算值,等于 jvm 可用的最大内存的 80%(即命令行传递的 - xmx 值的 80%)。请注意,如果在单个 jvm 上有多个内存 channel,并且它们碰巧保持相同的物理 event (即,如果您使用来自单个 source 的复制 channel 选择器),那么这些 event 大小可能会被重复计算以用于 channelbytecapacity 目的。将此值设置为 0 将导致此值回退到大约 200 gb 的内部硬限制。 |
example for agent named a1:
a1.channels = c1
a1.channels.c1.type = memory
a1.channels.c1.capacity = 10000
a1.channels.c1.transactioncapacity = 10000
a1.channels.c1.bytecapacitybufferpercentage = 20
a1.channels.c1.bytecapacity = 800000
jdbc channel
event 存储在由数据库支持的持久存储中. jdbc channel 当前支持嵌入式 derby. 这是一个持久的 channel, 非常适合可恢复性很重要的流程. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称,需要是 & nbsp; jdbc |
db.type | derby | 数据库供应商需要是 derby。 |
driver.class | org.apache.derby.jdbc.embeddeddriver | 供应商的 jdbc 驱动程序的类 |
driver.url | (由其他属性建造) | jdbc 连接 url |
db.username | “sa” | 数据库连接的用户标识 |
db.password | - | 数据库连接的密码 |
connection.properties.file | - | jdbc 连接属性文件路径 |
create.schema | true | 如果为 true,则创建 db 模式(如果不存在) |
create.index | true | 创建索引以加快查找速度 |
create.foreignkey | true | |
transaction.isolation | “read_committed” | db 会话的隔离级别 read_uncommitted,read_committed,serializable,repeatable_read |
maximum.connections | 10 | 允许 db 的最大连接数 |
最大容量 | 0(无限制) | channel 中的最大 event 数 |
sysprop。* | 数据库供应商特定属性 | |
sysprop.user.home | 存储嵌入式 derby 数据库的主路径 |
example for agent named a1:
a1.channels = c1
a1.channels.c1.type = jdbc
kafka channel
event 存储在 kafka 群集中(必须单独安装).kafka 提供高可用性和复制, 因此如果 agent 或 kafka agent 崩溃, event 可立即用于其他 sinks
kafka 频道可用于多种场景:
使用 flume source 和 sink - 它为 event 提供了可靠且高度可用的 channel
使用 flume source 和拦截器但没有 sink - 它允许将 flumeevent 写入 kafka 主题, 供其他应用程序使用
使用 flume sink, 但没有 source - 它是一种低延迟, 容错的方式将 event 从 kafka 发送到 flumesink, 如 hdfs,hbase 或 solr
这目前支持 kafka 服务器版本 0.10.1.0 或更高版本. 测试完成了 2.0.1, 这是发布时最高的可用版本.
配置参数组织如下:
通常与 channel 相关的配置值应用于 channel 配置级别, 例如: a1.channel.k1.type =
与 kafka 相关的配置值或 channel 运行的前缀以 "kafka." 为前缀(这对 commonclient configs 是有效的), 例如: a1.channel.k1.kafka.topic 和 a1.channel.k1.kafka.bootstrap.servers. 这与 hdfssink 的运行方式没有什么不同
特定于生产者 / 消费者的属性以 kafka.producer 或 kafka.consumer 为前缀
在可能的情况下, 使用 kafka 参数名称, 例如: bootstrap.servers 和 acks
此版本的 flume 与以前的版本向后兼容, 但是下表中显示了已弃用的属性, 并且在配置文件中存在时会在启动时记录警告消息.
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称,需要是 org.apache.flume.channel.kafka.kafkachannel |
kafka.bootstrap.servers | - | channel 使用的 kafka 集群中的经纪商列表这可以是经纪人的部分列表,但我们建议至少两个用于 ha。格式为逗号分隔的 hostname:port 列表 |
kafka.topic | 水槽沟道 | 频道将使用的 kafka 主题 |
kafka.consumer.group.id | 水槽 | channel 用于向 kafka 注册的消费者群组 id。多个 channel 必须使用相同的主题和组,以确保当一个 agent 程序发生故障时,另一个 agent 程序可以获取数据请注意,具有相同 id 的非 channel 使用者可能会导致数据丢失。 |
parseasflumeevent | 真正 | 期望在频道中使用 flumeevent 架构的 avro 基准。如果 flume source 写入 channel,则应该为 true; 如果其他生成器正在写入 channel 正在使用的主题,则应为 false。通过使用 flume-ng-sdk 工件提供的 org.apache.flume.source.avro.avroflumeevent,可以在 flume 之外解析到 kafka 的 flume source 消息 |
的 polltimeout | 500 | 在消费者的 “poll()” 调用中等待的时间量(以毫秒为单位)。https://kafka.apache.org/090/javadoc/org/apache/kafka/clients/consumer/kafkaconsumer.html#poll(long) |
defaultpartitionid | - | 指定要发送到此 channel 中的所有 event 的 kafka 分区 id(整数),除非被 partitionidheader 覆盖。默认情况下,如果未设置此属性,则 event 将由 kafka producer 的分区程序分发 - 包括按键(如果指定)(或由 kafka.partitioner.class 指定的分区程序)。 |
partitionidheader | - | 设置时,生产者将从 event 头中获取使用此属性的值命名的字段的值,并将消息发送到主题的指定分区。如果该值表示无效分区,则该 event 将不被接受。如果存在标头值,则此设置将覆盖 defaultpartitionid。 |
kafka.consumer.auto.offset.reset | 最新 | 当 kafka 中没有初始偏移量或服务器上当前偏移量不再存在时(例如因为该数据已被删除)该怎么办:最早:自动将偏移量重置为最早的最新偏移量:自动重置偏移量到最新的偏移量无:如果没有为消费者的组找到任何其他偏移量,则向消费者抛出异常:向消费者抛出异常。 |
kafka.producer.security.protocol | 纯文本 | 如果使用某种级别的安全性写入 kafka,则设置为 sasl_plaintext,sasl_ssl 或 ssl。有关安全设置的其他信息,请参见下文。 |
kafka.consumer.security.protocol | 纯文本 | 与 kafka.producer.security.protocol 相同,但是用于从 kafka 阅读 / 消费。 |
更多生产者 / 消费者安全道具 | 如果使用 sasl_plaintext,则 sasl_ssl 或 ssl 会引用 kafka 安全性以获取需要在生产者 / 消费者上设置的其他属性。 |
不推荐使用的属性:
属性名称 | 默认 | 描述 |
---|---|---|
brokerlist | - | channel 使用的 kafka 集群中的经纪商列表这可以是经纪人的部分列表,但我们建议至少两个用于 ha。格式为逗号分隔的 hostname:port 列表 |
话题 | 水槽沟道 | 使用 kafka.topic |
的 groupid | 水槽 | 使用 kafka.consumer.group.id |
readsmallestoffset | false | 使用 kafka.consumer.auto.offset.reset |
migratezookeeperoffsets | 真正 | 如果找不到 kafka 存储的偏移量,请在 zookeeper 中查找偏移量并将它们提交给 kafka。这应该是支持从旧版本的 flume 无缝 kafka 客户端迁移。迁移后,可以将其设置为 false,但通常不需要这样做。如果未找到 zookeeper 偏移量,则 kafka.consumer.auto.offset.reset 配置定义如何处理偏移量。 |
注意
example for agent named a1:
a1.channels.channel1.type = org.apache.flume.channel.kafka.kafkachannel
a1.channels.channel1.kafka.bootstrap.servers = kafka-1:9092,kafka-2:9092,kafka-3:9092
a1.channels.channel1.kafka.topic = channel1
a1.channels.channel1.kafka.consumer.group.id = flume-consumer
安全和 kafka 频道:
flume 和 kafka 之间的通信 channel 支持安全认证和数据加密. 对于安全身份验证, 可以使用 kafka 0.9.0 版中的 sasl / gssapi(kerberos v5)或 ssl(即使该参数名为 ssl, 实际协议是 tls 实现)
截至目前, 数据加密仅由 ssl / tls 提供
将 kafka.producer | consumer.security.protocol 设置为以下任何值意味着:
sasl_plaintext - 无数据加密的 kerberos 或纯文本身份验证
sasl_ssl - 使用数据加密的 kerberos 或纯文本身份验证
ssl - 基于 tls 的加密, 带有可选的身份验证.
警告
启用 ssl 时性能会下降, 其大小取决于 cputype 和 jvm 实现. 参考: kafka 安全概述 和跟踪此问题的 jira: https://issues/jira/browse/kafka-2561
** tls 和 kafka 频道:**
请阅读配置 kafka 客户端 ssl 中描述的步骤 以了解用于微调的其他配置设置, 例如以下任何一项: 安全提供程序, 密码套件, 启用的协议, 信任库或密钥库 type.
配置服务器端身份验证和数据加密的示例.
a1.channels.channel1.type = org.apache.flume.channel.kafka.kafkachannel
a1.channels.channel1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.channels.channel1.kafka.topic = channel1
a1.channels.channel1.kafka.consumer.group.id = flume-consumer
a1.channels.channel1.kafka.producer.security.protocol = ssl
# optional, the global truststore can be used alternatively
a1.channels.channel1.kafka.producer.ssl.truststore.location = /path/to/truststore.jks
a1.channels.channel1.kafka.producer.ssl.truststore.password = <password to access the truststore>
a1.channels.channel1.kafka.consumer.security.protocol = ssl
# optional, the global truststore can be used alternatively
a1.channels.channel1.kafka.consumer.ssl.truststore.location = /path/to/truststore.jks
a1.channels.channel1.kafka.consumer.ssl.truststore.password = <password to access the truststore>
在此处指定信任库是可选的, 可以使用全局信任库. 有关全局 ssl 设置的更多详细信息, 请参阅 ssl / tls 支持部分.
注意: 默认情况下, 未定义属性 ssl.endpoint.identification.algorithm, 因此不会执行 hostname 验证. 要启用 hostname 验证, 请设置以下属性
- a1.channels.channel1.kafka.producer.ssl.endpoint.identification.algorithm = https
- a1.channels.channel1.kafka.consumer.ssl.endpoint.identification.algorithm = https
启用后, 客户端将根据以下两个字段之一验证服务器的完全限定域名(fqdn):
通用名称(cn) https://tools.ietf.org/html/rfc6125#section-2.3 https://tools.ietf.org/html/rfc6125#section-2.3
主题备选名称(san)
如果还需要客户端身份验证, 则还需要将以下内容添加到 flume agent 配置中, 或者可以使用全局 ssl 设置(请参阅 ssl / tls 支持部分). 每个 flume agent 都必须拥有其客户证书, kafka 经纪人必须单独或通过其签名链来信任. 常见示例是由单个根 ca 签署每个客户端证书, 而后者又由 kafka 经纪人信任.
# optional, the global keystore can be used alternatively
a1.channels.channel1.kafka.producer.ssl.keystore.location = /path/to/client.keystore.jks
a1.channels.channel1.kafka.producer.ssl.keystore.password = <password to access the keystore>
# optional, the global keystore can be used alternatively
a1.channels.channel1.kafka.consumer.ssl.keystore.location = /path/to/client.keystore.jks
a1.channels.channel1.kafka.consumer.ssl.keystore.password = <password to access the keystore>
如果密钥库和密钥使用不同的密码保护, 则 ssl.key.password 属性将为使用者和生产者密钥库提供所需的额外密钥:
a1.channels.channel1.kafka.producer.ssl.key.password = <password to access the key>
a1.channels.channel1.kafka.consumer.ssl.key.password = <password to access the key>
** kerberos 和 kafka 频道:**
要将 kafkachannel 与使用 kerberos 保护的 kafka 群集一起使用, 请为生产者和 / 或使用者设置上面提到的 producer / consumer.security.protocol 属性. 与 kafka agent 一起使用的 kerberos 密钥表和主体在 jaas 文件的 "kafkaclient" 部分中指定."客户端" 部分描述了 zookeeper 连接(如果需要). 有关 jaas 文件内容的信息, 请参阅 kafka doc. 可以通过 flume-env.sh 中的 java_opts 指定此 jaas 文件的位置以及可选的系统范围的 kerberos 配置:
java_opts="$java_opts -djava.security.krb5.conf=/path/to/krb5.conf" java_opts="$java_opts -djava.security.auth.login.config=/path/to/flume_jaas.conf"
使用 sasl_plaintext 的示例安全配置:
a1.channels.channel1.type = org.apache.flume.channel.kafka.kafkachannel
a1.channels.channel1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.channels.channel1.kafka.topic = channel1
a1.channels.channel1.kafka.consumer.group.id = flume-consumer
a1.channels.channel1.kafka.producer.security.protocol = sasl_plaintext
a1.channels.channel1.kafka.producer.sasl.mechanism = gssapi
a1.channels.channel1.kafka.producer.sasl.kerberos.service.name = kafka
a1.channels.channel1.kafka.consumer.security.protocol = sasl_plaintext
a1.channels.channel1.kafka.consumer.sasl.mechanism = gssapi
a1.channels.channel1.kafka.consumer.sasl.kerberos.service.name = kafka
使用 sasl_ssl 的安全配置示例:
a1.channels.channel1.type = org.apache.flume.channel.kafka.kafkachannel
a1.channels.channel1.kafka.bootstrap.servers = kafka-1:9093,kafka-2:9093,kafka-3:9093
a1.channels.channel1.kafka.topic = channel1
a1.channels.channel1.kafka.consumer.group.id = flume-consumer
a1.channels.channel1.kafka.producer.security.protocol = sasl_ssl
a1.channels.channel1.kafka.producer.sasl.mechanism = gssapi
a1.channels.channel1.kafka.producer.sasl.kerberos.service.name = kafka
# optional, the global truststore can be used alternatively
a1.channels.channel1.kafka.producer.ssl.truststore.location = /path/to/truststore.jks
a1.channels.channel1.kafka.producer.ssl.truststore.password = <password to access the truststore>
a1.channels.channel1.kafka.consumer.security.protocol = sasl_ssl
a1.channels.channel1.kafka.consumer.sasl.mechanism = gssapi
a1.channels.channel1.kafka.consumer.sasl.kerberos.service.name = kafka
# optional, the global truststore can be used alternatively
a1.channels.channel1.kafka.consumer.ssl.truststore.location = /path/to/truststore.jks
a1.channels.channel1.kafka.consumer.ssl.truststore.password = <password to access the truststore>
示例 jaas 文件. 有关其内容的参考, 请参阅 sasl 配置的 kafka 文档中所需认证机制 (gssapi / plain) 的客户端配置部分. 由于 kafka source 也可能连接到 zookeeper 以进行偏移迁移, 因此 "client" 部分也添加到此示例中. 除非您需要偏移迁移, 否则不需要这样做, 或者您需要此部分用于其他安全组件. 另外, 请确保 flume 进程的操作系统用户对 jaas 和 keytab 文件具有读权限.
client {
com.sun.security.auth.module.krb5loginmodule required
usekeytab=true
storekey=true
keytab="/path/to/keytabs/flume.keytab"
principal="flume/flumehost1.example.com@yourkerberosrealm";
};
kafkaclient {
com.sun.security.auth.module.krb5loginmodule required
usekeytab=true
storekey=true
keytab="/path/to/keytabs/flume.keytab"
principal="flume/flumehost1.example.com@yourkerberosrealm";
};
file channel
必需属性以粗体显示
属性名称默认值 | 描述 | |
---|---|---|
type | - | 组件 type 名称,需要是 & nbsp; file 。 |
checkpointdir | ~/.flume/file-channel/checkpoint | 将存储检查点文件的目录 |
usedualcheckpoints | false | 备份检查点。如果将其设置为 true,则 & nbsp; 必须设置 backupcheckpointdir |
backupcheckpointdir | - | 备份检查点的目录。此目录不能与数据目录或检查点目录相同 |
datadirs | ~/.flume/file-channel/data | 逗号分隔的目录列表,用于存储日志文件。在不同磁盘上使用多个目录可以提高文件 channel 的性能 |
transactioncapacity | 10000 | channel 支持的最大事务大小 |
checkpointinterval | 30000 | 检查点之间的时间量(以毫秒为单位) |
maxfilesize 为 | 2146435071 | 单个日志文件的最大大小(以字节为单位) 2g |
minimumrequiredspace | 524288000 | 最小所需可用空间(以字节为单位)。为避免数据损坏,当可用空间低于此值时,文件 channel 将停止接受接收 / 放置请求 500m |
capacity | 1000000 | channel 的最大容量 & nbsp; 100 万 |
keep-alive | 3 | 等待放置操作的时间量(以秒为单位) |
use-log-replay-v1 | false | 推荐:使用原有的重播逻辑 |
use-fast-replay | false | 推荐:不使用队列重播 |
checkpointonclose | true | 控制是否在关闭 channel 时创建检查点。通过避免重放,在关闭时创建检查点可以提高文件 channel 的后续启动速度。 |
encryption.activekey | - | 用于加密新数据的密钥名称 |
encryption.cipherprovider | - | 密码提供程序 type,支持的 type:aesctrnopadding |
encryption.keyprovider | - | 密钥提供程序 type,支持的 type:jceksfile |
encryption.keyprovider.keystorefile | - | 密钥库文件的路径 |
encrpytion.keyprovider.keystorepasswordfile | - | 密钥库密码文件的路径 |
encryption.keyprovider.keys | - | 所有键的列表(例如 activekey 设置的历史记录) |
encyption.keyprovider.keys.*.passwordfile | - | 可选密钥密码文件的路径 |
注意
默认情况下, 文件 channel 使用上面指定的用户主目录内的检查点和数据目录的路径. 因此, 如果 agent 中有多个活动的文件 channel 实例, 则只有一个实例可以锁定目录并导致其他 channel 初始化失败.
因此, 有必要为所有已配置的 channel 提供显式路径, 最好是在不同的磁盘上
此外, 由于文件 channel 将在每次提交后同步到磁盘, 因此将其与将 event 一起批处理的 sink/source 耦合可能是必要的, 以便在多个磁盘不可用于检查点和数据目录时提供良好的性能.
example for agent named a1:
a1.channels = c1
a1.channels.c1.type = file
a1.channels.c1.checkpointdir = /mnt/flume/checkpoint
a1.channels.c1.datadirs = /mnt/flume/data
加密
以下是一些示例配置:
使用密钥存储密码分隔生成密码密钥:
keytool -genseckey -alias key-0 -keypass keypassword -keyalg aes \ -keysize 128 -validity 9000 -keystore test.keystore \ -storetype jceks -storepass keystorepassword
使用与密钥库密码相同的密码生成密钥:
keytool -genseckey -alias key-1 -keyalg aes -keysize 128 -validity 9000 \
-keystore src/test/resources/test.keystore -storetype jceks \
-storepass keystorepassword
a1.channels.c1.encryption.activekey = key-0
a1.channels.c1.encryption.cipherprovider = aesctrnopadding
a1.channels.c1.encryption.keyprovider = key-provider-0
a1.channels.c1.encryption.keyprovider = jceksfile
a1.channels.c1.encryption.keyprovider.keystorefile = /path/to/my.keystore
a1.channels.c1.encryption.keyprovider.keystorepasswordfile = /path/to/my.keystore.password
a1.channels.c1.encryption.keyprovider.keys = key-0
false 设您已使用密钥 0 输出密钥, 并且应使用密钥 1 加密新文件:
a1.channels.c1.encryption.activekey = key-1
a1.channels.c1.encryption.cipherprovider = aesctrnopadding
a1.channels.c1.encryption.keyprovider = jceksfile
a1.channels.c1.encryption.keyprovider.keystorefile = /path/to/my.keystore
a1.channels.c1.encryption.keyprovider.keystorepasswordfile = /path/to/my.keystore.password
a1.channels.c1.encryption.keyprovider.keys = key-0 key-1
与上面相同的场景, 但 key-0 有自己的密码:
a1.channels.c1.encryption.activekey = key-1
a1.channels.c1.encryption.cipherprovider = aesctrnopadding
a1.channels.c1.encryption.keyprovider = jceksfile
a1.channels.c1.encryption.keyprovider.keystorefile = /path/to/my.keystore
a1.channels.c1.encryption.keyprovider.keystorepasswordfile = /path/to/my.keystore.password
a1.channels.c1.encryption.keyprovider.keys = key-0 key-1
a1.channels.c1.encryption.keyprovider.keys.key-0.passwordfile = /path/to/key-0.password
custom channel
自定义 channel 是您自己的 channel 接口实现. 启动 flume agent 程序时, 必须在 agent 程序的类路径中包含自定义 channel 的类及其依赖项. 自定义 channel 的 type 是其 fqcn. 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称需要是 fqcn |
example for agent named a1:
a1.channels = c1
a1.channels.c1.type = org.example.mychannel
flume channel selectors
如果未指定 type, 则默认为 "replicating"
replicating channel selector (default)
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
selector.type | replicating | 组件 type 名称需要 & nbsp; replicating |
selector.optional | - | 要标记为可选的 channel 集 |
example for agent named a1 and it's source called r1:
a1.sources = r1
a1.channels = c1 c2 c3
a1.sources.r1.selector.type = replicating
a1.sources.r1.channels = c1 c2 c3
a1.sources.r1.selector.optional = c3
在上面的配置中, c3 是可选的 channel.
无法写入 c3 只是被忽略了. 由于 c1 和 c2 未标记为可选, 因此无法写入这些 channel 将导致事务失败.
multiplexing channel selector (多路复用)
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
selector.type | replicating | 组件 type 名称需要进行多路复用 (multiplexing) |
selector.header | flume.selector.header | |
selector.default | - | |
selector.mapping。* | - |
example for agent named a1 and it's source called r1:
a1.sources = r1
a1.channels = c1 c2 c3 c4
a1.sources.r1.selector.type = multiplexing
a1.sources.r1.selector.header = state
a1.sources.r1.selector.mapping.cz = c1
a1.sources.r1.selector.mapping.us = c2 c3
a1.sources.r1.selector.default = c4
custom channel selector
自定义 channel 选择器是您自己的 channelelector 接口实现. 启动 flume agent 程序时, 自定义 channel 选择器的类及其依赖项必须包含在 agent 程序的类路径中. 自定义 channel 选择器的 type 是其 fqcn.
属性名称 | 默认 | 描述 |
---|---|---|
selector.type | - | 组件 type 名称,需要是您的 fqcn |
example for agent named a1 and its source called r1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.selector.type = org.example.mychannelselector
flume sink processors
接收组允许用户将多个 sink 分组到一个实体中. sink 处理器可用于在组内的所有 sink 上提供负载平衡功能, 或在时间故障的情况下实现从一个 sink 到另一个 sink 的故障转移.
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
sinks | - | 以空格分隔的参与组的 sink 列表 |
processor.type | default | 组件 type 名称需要是 default,failover 或 load_balance |
example for agent named a1:
a1.sinkgroups = g1
a1.sinkgroups.g1.sinks = k1 k2
a1.sinkgroups.g1.processor.type = load_balance
default sink processor
默认 sink 只接受一个 sink. 用户不必为单个 sink 创建处理器(sink 组). 相反, 用户可以遵循本用户指南中上面解释的 source - channel - sink 模式
failover sink processor
故障转移 sink 维护一个优先级的 sink 列表, 保证只要有一个可用的 event 将被处理(传递)
故障转移机制的工作原理是将故障 sink 降级到池中, 在池中为它们分配一个冷却期, 在重试之前随顺序故障而增加. sink 成功发送 event 后, 它将恢复到实时池. sink 具有与之相关的优先级, 数量越大, 优先级越高. 如果在发送 event 时 sink 发生故障, 则接下来将尝试下一个具有最高优先级的 sink 以发送 event . 例如, 在优先级为 80 的 sink 之前激活优先级为 100 的 sink. 如果未指定优先级, 则根据配置中指定 sink 的顺序确定 sinks 优先级.
要进行配置, 请将 sink 组处理器设置为故障转移并为所有单个 sink 设置优先级. 所有指定的优先级必须是唯一的 此外, 可以使用 maxpenalty 属性设置故障转移时间的上限(以毫秒为单位)
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
sinks | - | 以空格分隔的参与组的 sink 列表 |
processor.type | default | 组件 type 名称需要进行故障转移 & nbsp; failover |
processor.priority | - | 优先价值。 必须是与当前 sink 组关联的 sink 实例之一。较高优先级值 sink 较早被激活。绝对值越大表示优先级越高 |
processor.maxpenalty | 30000 | 失败的 sink 的最大退避时间(以毫秒为单位) |
example for agent named a1:
a1.sinkgroups = g1
a1.sinkgroups.g1.sinks = k1 k2
a1.sinkgroups.g1.processor.type = failover
a1.sinkgroups.g1.processor.priority.k1 = 5
a1.sinkgroups.g1.processor.priority.k2 = 10
a1.sinkgroups.g1.processor.maxpenalty = 10000
load balancing sink processor(负载均衡接收处理器)
负载平衡 sink 处理器提供了在多个 sink 上进行负载均衡流量的功能. 它维护一个索引的活动 sink 列表, 必须在其上分配负载. 实现支持使用 round_robin 或 random 机制分配负载. 选择机制的选择默认为 round_robin 类型, 但可以通过配置覆盖. 通过从 abstractsinkselector 继承的自定义类支持自定义选择机制.
调用时, 此选择器使用其配置的选择机制选择下一个 sink 并调用它. 对于 round_robin 和 random 如果所选的 sink 无法传递 event , 则处理器通过其配置的选择机制选择下一个可用的 sink. 此实现不会将失败的 sink 列入黑名单, 而是继续乐观地尝试每个可用的 sink. 如果所有 sink 调用都导致失败, 则选择器将故障传播到 sink 运行器.
如果启用了 backoff , 则 sink 处理器会将失败的 sink 列入黑名单, 将其删除以供给定超时的选择. 当超时结束时, 如果 sink 仍然没有响应, 则超时会以指数方式增加, 以避免在无响应的 sink 上长时间等待时卡住. 在禁用此功能的情况下, 在循环中, 所有失败的 sink 负载将被传递到下一个 sink, 因此不均衡
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
processor.sink | - | 以空格分隔的参与组的 sink 列表 |
processor.type | default | 组件 type 名称需要是 load_balance |
processor.backoff | false | 失败的 sink 是否会以指数方式退回。 |
processor.selector | round_robin | 选择机制。必须是 round_robin,random 或自定义类的 fqcn,它继承自 abstractsinkelector |
processor.selector.maxtimeout | 30000 | 由退避选择器用于限制指数 backoff (以毫秒为单位) |
example for agent named a1:
a1.sinkgroups = g1
a1.sinkgroups.g1.sinks = k1 k2
a1.sinkgroups.g1.processor.type = load_balance
a1.sinkgroups.g1.processor.backoff = true
a1.sinkgroups.g1.processor.selector = random
custom sink processor
目前不支持自定义 sink 处理器
event serializers
该 file_roll sink 和 hdfs sink 都支持 eventserializer 接口. 下面提供了随 flume 一起提供的 event serializer 的详细信息.
body text serializer
别名: text . 此拦截器将 event 的主体写入输出流, 而不进行任何转换或修改. event 标题将被忽略. 配置选项如下:
属性名称 | 默认 | 描述 |
---|---|---|
appendnewline | 真正 | 是否在写入时将换行符附加到每个 event 。由于遗留原因,默认值为 truefalse 定 event 不包含换行符。 |
example for agent named a1:
a1.sinks = k1
a1.sinks.k1.type = file_roll
a1.sinks.k1.channel = c1
a1.sinks.k1.sink.directory = /var/log/flume
a1.sinks.k1.sink.serializer = text
a1.sinks.k1.sink.serializer.appendnewline = false
"flume event" avro event serializer
alias: avro_event.
此拦截器将 flumeevent 序列化为 avro 容器文件. 使用的模式与 avro rpc 机制中用于 flumeevent 的模式相同.
此序列化程序继承自 abstractavroeventserializer 类
配置选项如下:
属性名称 | 默认 | 描述 |
---|---|---|
syncintervalbytes | 2048000 | avro 同步间隔,大约为字节。 2m ??? |
compressioncodec | null | avro 压缩编解码器。有关受支持的编解码器,请参阅 avro 的 codecfactory 文档。 |
example for agent named a1:
a1.sinks.k1.type = hdfs
a1.sinks.k1.channel = c1
a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%h%m/%s
a1.sinks.k1.serializer = avro_event
a1.sinks.k1.serializer.compressioncodec = snappy
avro event 序列化器
别名: 此序列化程序没有别名, 必须使用完全限定的类名类名指定.
这将 flume event 序列化为 avro 容器文件, 如 "flume event" avro event serializer, 但记录模式是可配置的. 记录模式可以指定为 flume 配置属性, 也可以在 event 头中传递.
要将记录模式作为 flume 配置的一部分传递, 请使用下面列出的属性 schemaurl.
要在 event 标头中传递记录模式, 请指定 包含模式的 json 格式表示的 event 标头 flume.avro.schema.literal 或包含可以找到模式的 url 的 flume.avro.schema.url( hdfs:/... uris are supported i)
此序列化程序继承自 abstractavroeventserializer 类.
配置选项如下:
属性名称 | 默认 | 描述 |
---|---|---|
syncintervalbytes | 2048000 | avro 同步间隔,大约为字节。 |
compressioncodec | null | avro 压缩编解码器。有关受支持的编解码器,请参阅 avro 的 codecfactory 文档。 |
schemaurl | avro 架构 url。标题中指定的模式 ovverride 此选项。 |
example for agent named a1:
a1.sinks.k1.type = hdfs
a1.sinks.k1.channel = c1
a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%h%m/%s
a1.sinks.k1.serializer = org.apache.flume.sink.hdfs.avroeventserializer$builder
a1.sinks.k1.serializer.compressioncodec = snappy
a1.sinks.k1.serializer.schemaurl = hdfs://namenode/path/to/schema.avsc
flume interceptors
flume 具有在运行中修改 / 删除 event 的能力. 这是在拦截器的帮助下完成的. 拦截器是实现 org.apache.flume.interceptor.interceptor 的类接口. 拦截器可以根据拦截器开发者选择的任何标准修改甚至删除 event .flume 支持拦截器的链接. 通过在配置中指定拦截器构建器类名列表, 可以实现此目的. 拦截器在 source 配置中指定为以空格分隔的列表. 指定拦截器的顺序是它们被调用的顺序. 一个拦截器返回的 event 列表将传递给链中的下一个拦截器. 拦截器可以修改或删除 event . 如果拦截器需要删除 event , 它就不会在它返回的列表中返回该 event . 如果要删除所有 event , 则只返回一个空列表. 拦截器是命名组件, 下面是它们如何通过配置创建的示例:
a1.sources = r1
a1.sinks = k1
a1.channels = c1
a1.sources.r1.interceptors = i1 i2
a1.sources.r1.interceptors.i1.type = org.apache.flume.interceptor.hostinterceptor$builder
a1.sources.r1.interceptors.i1.preserveexisting = false
a1.sources.r1.interceptors.i1.hostheader = hostname
a1.sources.r1.interceptors.i2.type = org.apache.flume.interceptor.timestampinterceptor$builder
a1.sinks.k1.fileprefix = flumedata.%{
collectorhost
}.%y-%m-%d
a1.sinks.k1.channel = c1
请注意, 拦截器构建器将传递给 type config 参数. 拦截器本身是可配置的, 可以传递配置值, 就像传递给任何其他可配置组件一样. 在上面的示例中, event 首先传递给 hostinterceptor, 然后 hostinterceptor 返回的 event 传递给 timestampinterceptor. 您可以指定完全限定的类名 (fqcn) 或别名时间戳. 如果您有多个收集器写入相同的 hdfs 路径, 那么您也可以使用 hostinterceptor
时间戳拦截器 (timestamp interceptor)
此拦截器将 event 标头插入到 event 标头中, 以毫秒为单位处理 event . 此拦截器插入带有键时间戳 (或由 header 属性指定) 的标头, 其值为相关时间戳. 如果已在配置中存在, 则此拦截器可以保留现有时间戳
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是时间戳或 fqcn |
headername | timestamp | 用于放置生成的时间戳的标头的名称。 |
preserveexisting | false | 如果时间戳已存在,是否应保留 - true 或 false |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.channels = c1
a1.sources.r1.type = seq
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = timestamp
主机拦截器(host interceptor)
此拦截器插入运行此 agent 程序的主机的 hostname 或 ip 地址. 它根据配置插入带有密钥主机或已配置密钥的标头, 其值为主机的 hostname 或 ip 地址.
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 & nbsp;host |
preserveexisting | false | 如果主机头已存在,是否应保留 - true 或 false |
useip | true | 如果为 true,请使用 ip 地址,否则使用 hostname。 |
hostheader | host | 要使用的标头密钥。 |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = host
静态拦截器 (static interceptor)
静态拦截器允许用户将具有静态值的静态头附加到所有 event
当前实现不允许一次指定多个标头. 相反, 用户可能会链接多个静态拦截器, 每个静态拦截器定义一个
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 & nbsp;static |
preserveexisting | true | 如果已配置的标头已存在,则应保留它 - true 或 false |
key | key | 应创建的标头的名称 |
value | value | 应该创建的静态值 |
example for agent named a1:
a1.sources = r1
a1.channels = c1
a1.sources.r1.channels = c1
a1.sources.r1.type = seq
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = static
a1.sources.r1.interceptors.i1.key = datacenter
a1.sources.r1.interceptors.i1.value = new_york
remove header interceptor (删除标题拦截器)
此拦截器通过删除一个或多个 headers 来操纵 flume event headers. 它可以删除静态定义的 headers, 基于正则表达式的 headers 或列表中的 headers. 如果这些都没有定义, 或者没有符合条件的 headers, 则不会修改 flume 事件.
请注意, 如果只需要删除一个 headers, 则按名称指指定 header 可提供相对于其他两种方法的性能优势.
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 remove_header |
withname | - | 要删除的 header 的名称 |
fromlist | - | 要删除的 header 列表,使用 fromlistseparator 指定的分隔符分隔 |
fromlistseparator | \ s * \ s * | 正则表达式,用于分隔 fromlist 指定的列表中的多个 header 名称。默认值是由任意数量的空白字符包围的逗号 |
matching | - | 将删除名称与此正则表达式匹配的所有 header |
uuid 拦截器 (uuid interceptor)
此拦截器在所有截获的 event 上设置通用唯一标识符. 示例 uuid 是 b5755073-77a9-43c1-8fad-b7a586fc1b97, 表示 128 位值.
如果 event 的应用程序级别唯一键不可用, 请考虑使用 uuidinterceptor 自动为 event 分配 uuid. 一旦 uuid 进入 flume 网络就将其分配给 event 非常重要; 也就是说, 在流量的第一个 flume source 中. 这使得在 flume 网络中面对复制和重新发送时 event 的后续重复数据删除可以实现高可用性和高性能. 如果应用程序级别密钥可用, 则优于自动生成的 uuid, 因为它使用所述公知的应用程序级别密钥在数据存储中启用后续更新和 event 删除.
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 org.apache.flume.sink.solr.morphline.uuidinterceptor $ builder |
headername | id | 要修改的 flume header 的名称 |
preserveexisting | true | 如果 uuid 标头已存在,是否应保留 - true 或 false |
prefix | “” | 前缀字符串常量,用于预先添加到每个生成的 uuid |
morphline interceptor (形态拦截器)
此拦截器通过 morphline 配置文件过滤 event , 该文件定义了一系列转换命令, 用于将记录从一个命令传递到另一个命令. 例如, morphline 可以忽略某些 event 或通过基于正则表达式的模式匹配来更改或插入某些 event 头, 或者它可以通过 apache tika 在截获的 event 上自动检测和设置 mimetype. 例如, 这种数据包嗅探可用于 flume 拓扑中基于内容的动态路由. morphlineinterceptor 还可以帮助实现到多个 apache solr 集合的动态路由(例如, 用于多租户)
目前, 存在一个限制, 即拦截器的形态线不能为每个输入 event 生成多个输出记录. 此拦截器不适用于重型 etl 处理 - 如果需要, 请考虑将 etl 处理从 flume source 移至 flume sink, 例如移至 morphlinesolrsink.
必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 org.apache.flume.sink.solr.morphline.morphlineinterceptor $ builder |
morphlinefile | - | 本地文件系统与 morphline 配置文件的相对或绝对路径。示例:/etc/flume-ng/conf/morphline.conf |
morphlineid | null | 如果 morphline 配置文件中有多个 morphlines,则用于标识 morphline 的可选名称 |
sample flume.conf file:
a1.sources.avrosrc.interceptors = morphlineinterceptor
a1.sources.avrosrc.interceptors.morphlineinterceptor.type = org.apache.flume.sink.solr.morphline.morphlineinterceptor$builder
a1.sources.avrosrc.interceptors.morphlineinterceptor.morphlinefile = /etc/flume-ng/conf/morphline.conf
a1.sources.avrosrc.interceptors.morphlineinterceptor.morphlineid = morphline1
搜索和替换拦截器 (search and replace interceptor)
此拦截器基于 java 正则表达式提供简单的基于字符串的搜索和替换功能. 还可以进行回溯 / 群组捕捉. 此拦截器使用与 java matcher.replaceall()方法中相同的规则
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 search_replace |
searchpattern | - | 要搜索和替换的模式。 |
replacestring | - | 替换字符串。 |
charset | utf-8 | event 正文的字符集。默认 false 设为 utf-8。 |
example configuration:
a1.sources.avrosrc.interceptors = search-replace
a1.sources.avrosrc.interceptors.search-replace.type = search_replace
# remove leading alphanumeric characters in an event body.
a1.sources.avrosrc.interceptors.search-replace.searchpattern = ^[a-za-z0-9_]+
a1.sources.avrosrc.interceptors.search-replace.replacestring =
another example:
a1.sources.avrosrc.interceptors = search-replace
a1.sources.avrosrc.interceptors.search-replace.type = search_replace
# use grouping operators to reorder and munge words on a line.
a1.sources.avrosrc.interceptors.search-replace.searchpattern = the quick brown ([a-z]+) jumped over the lazy ([a-z]+)
a1.sources.avrosrc.interceptors.search-replace.replacestring = the hungry $2 ate the careless $1
正则表达式过滤拦截器 (regex filtering interceptor)
此拦截器通过将 event 主体解释为文本并将文本与配置的正则表达式进行匹配来有选择地过滤 event . 提供的正则表达式可用于包括 event 或排除 event
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 regex_filter |
regex | ".*" | 用于匹配 event 的正则表达式 |
excludeevents | false | 如果为 true,则 regex 确定要排除的 event ,否则 regex 确定要包括的 event 。 |
正则表达式提取器拦截器(regex extractor interceptor)
此拦截器使用指定的正则表达式提取正则表达式匹配组, 并将匹配组作为标题附加到 event 上. 它还支持可插入序列化程序, 用于在将匹配组添加为 event 标头之前对其进行格式化.
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 regex_extractor |
regex | - | 用于匹配 event 的正则表达式 |
serializer | - | 以空格分隔的序列化程序列表,用于映射与标题名称匹配并序列化其值。(参见下面的示例)flume 为以下序列化程序提供内置支持: org.apache.flume.interceptor.regexextractorinterceptorpassthroughserializer org.apache.flume.interceptor.regexextractorinterceptormillisserializer |
serializer 器。.type | default | 必须是 default (org.apache.flume.interceptor.regexextractorinterceptorpassthroughserializer),org.apache.flume.interceptor.regexextractorinterceptormillisserializer,或实现 org.apache.flume.interceptor.regexextractorinterceptorserializer 的自定义类的 fqcn |
serializers..name | - | |
serializers.* | - | serializer-specific properties |
序列化器用于将匹配映射到标题名称和格式化标题值; 默认情况下, 您只需指定标题名称, 将使用默认的 org.apache.flume.interceptor.regexextractorinterceptorpassthroughserializer. 此序列化程序只是将匹配映射到指定的标题名称, 并在正则表达式提取时传递值. 您可以使用完全限定的类名 (fqcn) 将自定义序列化程序实现插入到提取器中, 以便以您喜欢的方式格式化匹配.
例 1:
如果 flumeevent 主体包含 1:2:3.4foobar5 , 则使用以下配置
a1.sources.r1.interceptors.i1.regex = (\\d):(\\d):(\\d)
a1.sources.r1.interceptors.i1.serializers = s1 s2 s3
a1.sources.r1.interceptors.i1.serializers.s1.name = one
a1.sources.r1.interceptors.i1.serializers.s2.name = two
a1.sources.r1.interceptors.i1.serializers.s3.name = three
提取的 event 将包含相同的主体, 但后面的标题将添加一个 => 1, 两个 => 2, 三个 => 3
例 2:
如果 flumeevent 正文包含 2012-10-18 18:47:57,614 某些 日志 行, 则使用以下配置
a1.sources.r1.interceptors.i1.regex = ^(?:\\n)?(\\d\\d\\d\\d-\\d\\d-\\d\\d\\s\\d\\d:\\d\\d)
a1.sources.r1.interceptors.i1.serializers = s1
a1.sources.r1.interceptors.i1.serializers.s1.type = org.apache.flume.interceptor.regexextractorinterceptormillisserializer
a1.sources.r1.interceptors.i1.serializers.s1.name = timestamp
a1.sources.r1.interceptors.i1.serializers.s1.pattern = yyyy-mm-dd hh:mm
提取的 event 将包含相同的主体, 但后面的标题将添加 timestamp => 1350611220000
flume 属性
属性名称 | 默认 | 描述 |
---|---|---|
flume.called.from.service | - | 如果指定了此属性,则 flume agent 将继续轮询配置文件,即使在预期位置找不到配置文件也是如此。否则,如果配置在预期位置不存在,flume agent 将终止。设置此属性时不需要属性值(例如,只需指定 - dflume.called.from.service 即可) |
属性: flume.called.from.service
flume 每隔 30 秒定期轮询一次指定配置文件的更改. 如果首次轮询现有文件, 或者自上次轮询以来现有文件的修改日期发生更改, flume agent 将从配置文件加载新配置. 重命名或移动文件不会更改其修改时间. 当 flume agent 轮询一个不存在的文件时, 会发生以下两种情况之一:
当 agent 首次轮询不存在的配置文件时, agent 将根据 flume.called.from.service 属性执行操作. 如果设置了属性, 则 agent 将继续轮询(始终在同一时间 - 每 30 秒). 如果未设置该属性, 则 agent 会立即终止
当 agent 轮询一个不存在的配置文件并且这不是第一次轮询文件时, agent 不会对此轮询周期进行配置更改. agent 继续轮询而不是终止.
配置过滤器
flume 提供了一种工具, 用于以配置过滤器的形式将敏感或生成的数据注入配置. 配置密钥可以设置为配置属性的值, 它将由配置过滤器替换为它所代表的值
配置过滤器的常见用法
格式类似于 java 表达式语言, 但它目前不是一个完全有效的 el 表达式解析器, 只是一种看起来像它的格式
<agent_name>
.configfilters =
<filter_name>
<agent_name>
.configfilters.
<filter_name>
.type =
<filter_type>
<agent_name>
.sources.
<source_name>
.parameter = ${
<filter_name>
['
<key_for_sensitive_or_generated_data>
']}
<agent_name>
.sinks.
<sink_name>
.parameter = ${
<filter_name>
['
<key_for_sensitive_or_generated_data>
']}
<agent_name>
.
<component_type>
.
<component_name>
.parameter = ${
<filter_name>
['
<key_for_sensitive_or_generated_data>
']} #or
<agent_name>
.
<component_type>
.
<component_name>
.parameter = ${
<filter_name>
["
<key_for_sensitive_or_generated_data>
"]} #or
<agent_name>
.
<component_type>
.
<component_name>
.parameter = ${
<filter_name>
[
<key_for_sensitive_or_generated_data>
]} #or
<agent_name>
.
<component_type>
.
<component_name>
.parameter = some_constant_data${
<filter_name>
[
<key_for_sensitive_or_generated_data>
]}
环境变量配置过滤器
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 env |
示例, 要在配置中隐藏密码, 请设置其值, 如以下示例所示
a1.sources = r1
a1.channels = c1
a1.configfilters = f1
a1.configfilters.f1.type = env
a1.sources.r1.channels = c1
a1.sources.r1.type = http
a1.sources.r1.keystorepassword = ${
f1['my_keystore_password']
}
这里 a1.source.r1.keystorepassword 配置属性将获取 my_keystore_password 环境变量的值. 设置环境变量的一种方法是运行如下所示的 flume agent:
$ my_keystore_password = secret123 bin / flume -ng agent --conf conf --conf-file example.conf ...
外部处理配置过滤器(external process config filter)
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是外部的 |
command | - |
将执行以获取给定键的值的命令。该命令将被调用为:
并且预期返回单行值,退出代码为 0。 |
charset | utf-8 | 返回字符串的字符集。 |
示例, 要在配置中隐藏密码, 请设置其值, 如以下示例所示:
a1.sources = r1
a1.channels = c1
a1.configfilters = f1
a1.configfilters.f1.type = external
a1.configfilters.f1.command = /usr/bin/passwordresolver.sh
a1.configfilters.f1.charset = utf-8
a1.sources.r1.channels = c1
a1.sources.r1.type = http
a1.sources.r1.keystorepassword = ${
f1['my_keystore_password']
}
在此示例中, flume 将运行以下命令以获取值
$ /usr/bin/passwordresolver.sh my_keystore_password
该 passwordresolver.sh 将返回 secret123 与退出代码 0.
示例, 要生成滚动文件 sink 的目录的一部分, 请设置其值, 如以下示例所示:
a1.sources = r1
a1.channels = c1
a1.configfilters = f1
a1.configfilters.f1.type = external
a1.configfilters.f1.command = /usr/bin/generateuniqid.sh
a1.configfilters.f1.charset = utf-8
a1.sinks = k1
a1.sinks.k1.type = file_roll
a1.sinks.k1.channel = c1
a1.sinks.k1.sink.directory = /var/log/flume/agent_${
f1['agent_name']
}
在此示例中, flume 将运行以下命令以获取值
$ /usr/bin/generateuniqid.sh agent_name
该 generateuniqid.sh 将返回 1234 与退出代码 0.
hadoop 凭据存储配置过滤器
此功能的类路径上需要一个 hadoop-common 库(2.6 + 版本). 如果安装了 hadoop, 则 agent 会自动将其添加到类路径中
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 hadoop |
credential.provider.path | - | 提供者路径。请参阅 hadoop 文档_here:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/credentialproviderapi.html#configuring_the_provider_path |
credstore.java-keystore-provider.password-file | - | 如果文件用于存储密码,则为密码文件的名称。该文件必须在类路径上。可以使用 hadoop_credstore_password 环境变量设置提供程序密码,也可以将其设置为空。 |
示例, 要在配置中隐藏密码, 请设置其值, 如以下示例所示:
a1.sources = r1
a1.channels = c1
a1.configfilters = f1
a1.configfilters.f1.type = hadoop
a1.configfilters.f1.credential.provider.path = jceks://file/<path_to_jceks file>
a1.sources.r1.channels = c1
a1.sources.r1.type = http
a1.sources.r1.keystorepassword = ${
f1['my_keystore_password']
}
log4j 追加 (log4j appender)
将 log4jevent 附加到 flume agent 的 avrosource. 使用此 appender 的客户端必须在类路径中包含 flume-ng-sdk(例如, flume-ng-sdk-1.9.0.jar). 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
hostname | - | 使用 avrosource 运行远程 flume agent 的 hostname。 |
port | - | 远程 flume agent 的 avrosource 正在侦听的端口。 |
unsafemode | false | 如果为 true,则 appender 将不会在发送 event 失败时抛出异常。 |
avroreflectionenabled | false | 使用 avro reflection 来序列化 log4jevent 。(当用户记录字符串时不要使用) |
avroschemaurl | - | 可从中检索 avro 架构的 url。 |
示例 log4j.properties 文件:
#...
log4j.appender.flume = org.apache.flume.clients.log4jappender.log4jappender
log4j.appender.flume.hostname = example.com
log4j.appender.flume.port = 41414
log4j.appender.flume.unsafemode = true
# configure a class's logger to output to the flume appender
log4j.logger.org.example.myclass = debug,flume
#...
默认情况下, 通过调用 tostring()或使用 log4j 布局 (如果指定) 将每个 event 转换为字符串.
如果 event 是 org.apache.avro.generic.genericrecord,org.apache.avro.specific.specificrecord 的实例 , 或者属性 avroreflectionenabled 设置为 true, 则将使用 avro 序列化序列化 event .
使用 avro 架构序列化每个 event 效率很低, 因此最好提供一个架构 url, 下游 sink(通常是 hdfssink)可以从该架构 url 检索架构.如果未指定 avroschemaurl, 则架构将作为 flume 标头包含在内.
示例 log4j.properties 文件配置为使用 avro 序列化:
#...
log4j.appender.flume = org.apache.flume.clients.log4jappender.log4jappender
log4j.appender.flume.hostname = example.com
log4j.appender.flume.port = 41414
log4j.appender.flume.avroreflectionenabled = true
log4j.appender.flume.avroschemaurl = hdfs://namenode/path/to/schema.avsc
# configure a class's logger to output to the flume appender
log4j.logger.org.example.myclass = debug,flume
#...
负载均衡 log4j 追加 (load balancing log4j appender)
将 log4jevent 追加到 flume agent 的 avrosource 列表中. 使用此 appender 的客户端必须在类路径中包含 flume-ng-sdk(例如, flume-ng-sdk-1.9.0.jar). 该 appender 支持循环和随机方案, 用于执行负载平衡. 它还支持可配置的退避超时, 以便从主机集临时删除向下 agent . 必需属性以粗体显示
属性名称 | 默认 | 描述 |
---|---|---|
hosts | - | 一个以空格分隔的 host:port 列表,flume(通过 avrosource)正在侦听 event |
selector | round_robin | 选择机制。必须是 round_robin,random 或自定义 fqdn 到继承自 loadbalancingselector 的类。 |
maxbackoff | - | 一个 long 值,表示负载平衡客户端将从无法使用 event 的节点退回的最长时间(以毫秒为单位)。默认为无退避 |
unsafemode | false | 如果为 true,则 appender 将不会在发送 event 失败时抛出异常。 |
avroreflectionenabled | false | 使用 avro reflection 来序列化 log4jevent 。 |
avroschemaurl | - | 可从中检索 avro 架构的 url。 |
使用默认值配置的示例 log4j.properties 文件:
#...
log4j.appender.out2 = org.apache.flume.clients.log4jappender.loadbalancinglog4jappender
log4j.appender.out2.hosts = localhost:25430 localhost:25431
# configure a class's logger to output to the flume appender
log4j.logger.org.example.myclass = debug,flume
#...
使用 random 负载平衡配置的示例 log4j.properties 文件:
#... log4j.appender.out2 = org.apache.flume.clients.log4jappender.loadbalancinglog4jappender log4j.appender.out2.hosts = localhost:25430 localhost:25431 log4j.appender.out2.selector = random # configure a class's logger to output to the flume appender log4j.logger.org.example.myclass = debug,flume #...
使用退避配置的示例 log4j.properties 文件:
#...
log4j.appender.out2 = org.apache.flume.clients.log4jappender.loadbalancinglog4jappender
log4j.appender.out2.hosts = localhost:25430 localhost:25431 localhost:25432
log4j.appender.out2.selector = round_robin
log4j.appender.out2.maxbackoff = 30000
# configure a class's logger to output to the flume appender
log4j.logger.org.example.myclass = debug,flume
#...
安全
hdfssink,hbasesink,thriftsource,thriftsink 和 kite datasetsink 都支持 kerberos 身份验证. 请参阅相应的部分以配置与 kerberos 相关的选项.
flume agent 将作为单个主体对 kerberos kdc 进行身份验证, 这将由需要进行 kerberos 身份验证的不同组件使用. 为 thriftsource,thriftsink,hdfssink,hbasesink 和 datasetsink 配置的主体和 keytab 应该相同, 否则组件将无法启动.
监控
flume 中的监控仍在进行中. 变化可能经常发生. 几个 flume 组件向 jmx 平台 mbean 服务器报告度量标准. 可以使用 jconsole 查询这些指标.
可用的组件指标
下表显示了可用于组件的度量标准. 每个组件仅维护一组度量, 由 "x" 表示, 未维护的值显示默认值, 即 0. 这些表告诉您可以在何处获得有意义的数据. 度量标准的名称应该足够描述, 有关更多信息, 您必须深入了解组件的 source 代码.
sources1
avro | exec | http | jms | kafka | multiportsyslogtcp | scribe | |
---|---|---|---|---|---|---|---|
appendacceptedcount | x | ||||||
appendbatchacceptedcount | x | x | x | ||||
appendbatchreceivedcount | x | x | x | ||||
appendreceivedcount | x | ||||||
channelwritefail | x | x | x | x | x | x | |
eventacceptedcount | x | x | x | x | x | x | x |
eventreadfail | x | x | x | x | x | ||
eventreceivedcount | x | x | x | x | x | x | x |
genericprocessingfail | x | x | |||||
kafkacommittimer | x | ||||||
kafkaemptycount | x | ||||||
kafkaeventgettimer | x | ||||||
openconnectioncount | x |
sources 2
sequencegenerator | spooldirectory | syslogtcp | syslogudp | taildir | thrift | |
---|---|---|---|---|---|---|
appendacceptedcount | x | |||||
appendbatchacceptedcount | x | x | x | x | ||
appendbatchreceivedcount | x | x | x | |||
appendreceivedcount | x | |||||
channelwritefail | x | x | x | x | x | x |
eventacceptedcount | x | x | x | x | x | x |
eventreadfail | x | x | x | x | ||
eventreceivedcount | x | x | x | x | x | |
genericprocessingfail | x | x | ||||
kafkacommittimer | ||||||
kafkaemptycount | ||||||
kafkaeventgettimer | ||||||
openconnectioncount |
sinks 1
avro/thrift | asynchbase | elasticsearch | hbase 的 | hbase2 | |
---|---|---|---|---|---|
batchcompletecount | x | x | x | x | x |
batchemptycount | x | x | x | x | x |
batchunderflowcount | x | x | x | x | x |
channelreadfail | x | x | |||
connectionclosedcount | x | x | x | x | x |
connectioncreatedcount | x | x | x | x | x |
connectionfailedcount | x | x | x | x | x |
eventdrainattemptcount | x | x | x | x | x |
eventdrainsuccesscount | x | x | x | x | x |
eventwritefail | x | x | |||
kafkaeventsendtimer | |||||
rollbackcount |
sinks 2
hdfsevent | hive | http | kafka | morphline | rollingfile | |
---|---|---|---|---|---|---|
batchcompletecount | x | x | x | |||
batchemptycount | x | x | x | x | ||
batchunderflowcount | x | x | x | x | ||
channelreadfail | x | x | x | x | x | x |
connectionclosedcount | x | x | x | |||
connectioncreatedcount | x | x | x | |||
connectionfailedcount | x | x | x | |||
eventdrainattemptcount | x | x | x | x | x | |
eventdrainsuccesscount | x | x | x | x | x | x |
eventwritefail | x | x | x | x | x | x |
kafkaeventsendtimer | x | |||||
rollbackcount | x |
channels
file | kafka | memory | pseudotxnmemory | spillablememory | |
---|---|---|---|---|---|
channelcapacity | x | x | x | ||
channelize | x | x | x | x | |
checkpointbackupwriteerrorcount | x | ||||
checkpointwriteerrorcount | x | ||||
eventputattemptcount | x | x | x | x | x |
eventputerrorcount | x | ||||
eventputsuccesscount | x | x | x | x | x |
eventtakeattemptcount | x | x | x | x | x |
eventtakeerrorcount | x | ||||
eventtakesuccesscount | x | x | x | x | x |
kafkacommittimer | x | ||||
kafkaeventgettimer | x | ||||
kafkaeventsendtimer | x | ||||
open | x | ||||
rollbackcounter | x | ||||
unhealthy | x |
jmx 报告
可以通过使用 flume-env.sh 在 java_opts 环境变量中指定 jmx 参数来启用 jmx 报告, 如
export java_opts ="- dcom.sun.management.jmxremote -dcom.sun.management.jmxremote.port = 5445 -dcom.sun.management.jmxremote.authenticate = false -dcom.sun.management.jmxremote.ssl = false"
注意: 上面的示例禁用安全性. 要启用安全性, 请参阅
ganglia 报告
flume 还可以将这些指标报告给 ganglia 3 或 ganglia 3.1 元节点. 要向 ganglia 报告指标, 必须使用此支持启动水槽 agent . 必须通过传递以下参数来启动 flume agent , 作为以 flume.monitoring 为前缀的系统属性., 可以在 flume-env.sh 中指定:
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 ganglia |
hosts | - | 逗号分隔的 hostname 列表: ganglia 服务器的端口 |
pollfrequency | 60 | 连续向 ganglia 服务器报告之间的时间(以秒为单位) |
isganglia3 | false | ganglia 服务器版本为 3. 默认情况下,flume 以 ganglia 3.1 格式发送 |
我们可以通过 ganglia 支持启动 flume, 如下所示:
$ bin/flume-ng agent --conf-file example.conf --name a1 -dflume.monitoring.type=ganglia -dflume.monitoring.hosts=com.example:1234,com.example2:5455
json 报告
flume 还可以以 json 格式报告指标. 为了以 json 格式启用报告, flume 在可配置端口上托管 web 服务器. flume 以以下 json 格式报告指标:
{
"typename1.componentname1" : {
"metric1" : "metricvalue1", "metric2" : "metricvalue2"
},
"typename2.componentname2" : {
"metric3" : "metricvalue3", "metric4" : "metricvalue4"
}
}
这是一个例子:
{
"channel.filechannel":{"eventputsuccesscount":"468085",
"type":"channel",
"stoptime":"0",
"eventputattemptcount":"468086",
"channelsize":"233428",
"starttime":"1344882233070",
"eventtakesuccesscount":"458200",
"channelcapacity":"600000",
"eventtakeattemptcount":"458288"},
"channel.memchannel":{"eventputsuccesscount":"22948908",
"type":"channel",
"stoptime":"0",
"eventputattemptcount":"22948908",
"channelsize":"5",
"starttime":"1344882209413",
"eventtakesuccesscount":"22948900",
"channelcapacity":"100",
"eventtakeattemptcount":"22948908"}
}
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 http |
port | 41414 | 启动服务器的端口。 |
$ bin/flume-ng agent --conf-file example.conf --name a1 -dflume.monitoring.type=http -dflume.monitoring.port=34545
然后, 可以在 http://<hostname>:<port>/metrics 网页上获得度量标准. 自定义组件可以报告上面 ganglia 部分中提到的指标.
自定义报告
可以通过编写执行报告的服务器向其他系统报告指标. 任何报告类都必须实现 org.apache.flume.instrumentation.monitorservice 接口 . 这样的类可以与 gangliaserver 用于报告的方式相同. 他们可以轮询平台 mbean 服务器以轮询 mbeans 以获取指标. 例如, 如果可以使用名为 httpreporting 的 http 监视服务, 如下所示:
$ bin/flume-ng agent --conf-file example.conf --name a1 -dflume.monitoring.type=com.example.reporting.httpreporting -dflume.monitoring.node=com.example:332
属性名称 | 默认 | 描述 |
---|---|---|
type | - | 组件 type 名称必须是 fqcn |
从自定义组件报告指标
任何自定义 flume 组件都应继承自 org.apache.flume.instrumentation.monitoredcountergroup 类. 然后, 该类应为其公开的每个度量标准提供 getter 方法. 请参阅下面的代码. monitoredcountergroup 需要一个属性列表, 其度量由此类公开. 截至目前, 此类仅支持将度量标准公开为长值.
public class sinkcounter extends monitoredcountergroup implements
sinkcountermbean {
private static final string counter_connection_created =
"sink.connection.creation.count";
private static final string counter_connection_closed =
"sink.connection.closed.count";
private static final string counter_connection_failed =
"sink.connection.failed.count";
private static final string counter_batch_empty =
"sink.batch.empty";
private static final string counter_batch_underflow =
"sink.batch.underflow";
private static final string counter_batch_complete =
"sink.batch.complete";
private static final string counter_event_drain_attempt =
"sink.event.drain.attempt";
private static final string counter_event_drain_success =
"sink.event.drain.sucess";
private static final string[] attributes = {
counter_connection_created, counter_connection_closed,
counter_connection_failed, counter_batch_empty,
counter_batch_underflow, counter_batch_complete,
counter_event_drain_attempt, counter_event_drain_success
};
public sinkcounter(string name) {
super(monitoredcountergroup.type.sink, name, attributes);
}
@override
public long getconnectioncreatedcount() {
return get(counter_connection_created);
}
public long incrementconnectioncreatedcount() {
return increment(counter_connection_created);
}
}
工具
文件 channel 完整性工具
文件 channel 完整性工具可验证文件 channel 中各个 event 的完整性, 并删除损坏的 event
这些工具可以按如下方式运行:
$bin/flume-ng tool --conf ./conf fcintegritytool -l ./datadir -e org.apache.flume.myeventvalidator -dmaxsize 2000
其中 datadir 是要验证的数据目录的逗号分隔列表.
以下是可用选项
选项名称 | 描述 |
---|---|
h/help | 显示帮助 |
l/datadirs | 以逗号分隔的工具必须验证的数据目录列表 |
event 验证工具
event 验证器工具可用于以特定于应用程序的方式验证文件 channelevent . 该工具在每个 event 上应用用户提供程序验证登录, 并删除未向逻辑确认的 event
这些工具可以按如下方式运行:
$bin/flume-ng tool --conf ./conf fcintegritytool -l ./datadir -e org.apache.flume.myeventvalidator -dmaxsize 2000
其中 datadir 是要验证的数据目录的逗号分隔列表.
以下是可用选项
选项名称 | 描述 |
---|---|
h/help | 显示帮助 |
l/datadirs | 以逗号分隔的工具必须验证的数据目录列表 |
e/eventvalidator | 完全合格的 event 验证器实现名称。jar 必须在 flume 类路径上 |
event 验证器实现必须实现 eventvalidator 接口. 建议不要从实现中抛出任何异常, 因为它们被视为无效 event . 其他参数可以通过 - d 选项传递给 eventvalitor 实现.
让我们看一个基于简单大小的 event 验证器的示例, 它将拒绝大于指定的最大大小的 event
public static class myeventvalidator implements eventvalidator {
private int value = 0;
private myeventvalidator(int val) {
value = val;
}
@override
public boolean validateevent(event event) {
return event.getbody() <= value;
}
public static class builder implements eventvalidator.builder {
private int sizevalidator = 0;
@override
public eventvalidator build() {
return new dummyeventverifier(sizevalidator);
}
@override
public void configure(context context) {
binaryvalidator = context.getinteger("maxsize");
}
}
}
拓扑设计注意事项
flume 非常灵活, 允许大量可能的部署方案. 如果您计划在大型生产部署中使用 flume, 那么花一些时间考虑如何根据 flume 拓扑来表达您的问题是明智的. 本节介绍一些注意事项
flume 是否适合您的问题?
如果您需要将文本日志数据提取到 hadoop / hdfs 中, 那么 flume 最适合您的问题, 完全停止. 对于其他用例, 以下是一些指导原则:
flume 旨在通过相对稳定, 可能复杂的拓扑来传输和摄取定期生成的 event 数据."event 数据" 的概念定义非常广泛. 对 flume 来说, event 只是一个普通的字节. event 的大小有一些限制 - 例如, 它不能大于您可以存储在内存中或单个机器上的磁盘上 - 但实际上, 水槽 event 可以是从文本日志条目到图像文件的所有内容. event 的关键属性是它们以连续的流式方式生成. 如果您的数据没有定期生成(即您尝试将大量数据批量加载到 hadoop 集群中), 那么 flume 仍然可以正常工作, 但对您的情况来说可能有点过头了. flume 喜欢相对稳定的拓扑结构. 您的拓扑不需要是不可变的, 因为 flume 可以处理拓扑中的更改而不会丢失数据, 并且还可以容忍由于故障转移或配置而定期重新配置. 如果您每天都要更改拓扑结构, 那么它可能无法正常工作, 因为重新配置需要一些思考和开销.
flume 中的流量可靠性
flume 流的可靠性取决于几个因素. 通过调整这些因素, 您可以使用 flume 实现各种可靠性选项.
您使用什么 type 的 channel .flume 具有持久的 channel(将数据保存到磁盘的 channel)和非持久 channel(如果机器出现故障将丢失数据). 持久 channel 使用基于磁盘的存储, 存储在此类 channel 中的数据将在机器重启或非磁盘相关故障中持续存在.
您的 channel 是否已为工作量充分配置. flume 中的 channel 充当各种跳跃的缓冲区. 这些缓冲区具有固定容量, 一旦该容量已满, 您将在流中的早期点创建背压. 如果此压力传播到流量 source,flume 将变得不可用并可能丢失数据.
您是否使用冗余拓扑. flume 让你在冗余拓扑中复制流. 这可以提供非常容易的容错 source, 并且可以克服磁盘或机器故障.
考虑 flume 拓扑结构中可靠性的最佳方法是考虑各种故障情况及其结果. 如果磁盘发生故障会怎么样? 如果机器出现故障会怎样? 如果您的终端 sink(例如 hdfs)停机一段时间并且您有背压, 会发生什么? 可能的设计空间巨大, 但您需要提出的基本问题只是极少数.
flow 拓扑设计
设计 flume 拓扑的第一步是枚举数据的所有 source 和目标(终端 sink). 这些将定义拓扑的边缘点. 下一个考虑因素是是否引入中间聚合层或 event 路由. 如果要从大量 source 中收集数据, 则聚合数据以简化终端 sink 的提取可能会有所帮助. 聚合层还可以通过充当缓冲区来消除 source 的突发性或 sink 的不可用性. 如果要在不同位置之间路由数据, 您可能还希望在不同点分割流: 这会创建可能本身包含聚合点的子拓扑.
调整 flume 部署的大小
一旦了解了拓扑的外观, 下一个问题就是需要多少硬件和网络容量. 首先, 量化您生成的数据量. 这并不总是一项简单的任务! 大多数数据流是突发性的 (例如, 由于昼夜模式) 并且可能是不可预测的. 一个好的起点是考虑每个拓扑层中的最大吞吐量, 包括每秒 event 数和每秒字节数. 一旦知道给定层的所需吞吐量, 就可以计算该层所需节点数的下限. 要确定可达到的吞吐量, 最好使用合成或采样 event 数据在硬件上试验 flume. 通常, 基于磁盘的 channel 应该获得 10 的 mb / s, 而基于内存的 channel 应该达到 100 的 mb / s 或更多. 但性能会有很大差异, 具体取决于硬件和操作环境.
调整聚合吞吐量可以为每层提供所需节点数量的下限. 有几个原因需要额外的节点, 例如增加冗余和更好地吸收负载中的突发.
故障排除
处理 agent 失败
如果 flume agent 程序关闭, 则该 agent 程序上托管的所有流程都将中止. 重新启动 agent 后, 将恢复流程. 使用文件 channel 或其他稳定 channel 的流将从中断处继续处理 event . 如果无法在同一硬件上重新启动 agent , 则可以选择将数据库迁移到另一个硬件并设置新的 flume agent , 该 agent 可以继续处理 db 中保存的 event . 可以利用数据库 ha 期货将 flume agent 移动到另一个主机.
兼容性
hdfs
目前 flume 支持 hdfs 0.20.2 和 0.23.
组件摘要
component interface | type alias | implementation class |
---|---|---|
org.apache.flume.channel | memory | org.apache.flume.channel.memorychannel |
org.apache.flume.channel | jdbc | org.apache.flume.channel.jdbc.jdbcchannel |
org.apache.flume.channel | file | org.apache.flume.channel.file.filechannel |
org.apache.flume.channel | – | org.apache.flume.channel.pseudotxnmemorychannel |
org.apache.flume.channel | – | org.example.mychannel |
org.apache.flume.source | avro | org.apache.flume.source.avrosource |
org.apache.flume.source | netcat | org.apache.flume.source.netcatsource |
org.apache.flume.source | seq | org.apache.flume.source.sequencegeneratorsource |
org.apache.flume.source | exec | org.apache.flume.source.execsource |
org.apache.flume.source | syslogtcp | org.apache.flume.source.syslogtcpsource |
org.apache.flume.source | multiport_syslogtcp | org.apache.flume.source.multiportsyslogtcpsource |
org.apache.flume.source | syslogudp | org.apache.flume.source.syslogudpsource |
org.apache.flume.source | spooldir | org.apache.flume.source.spooldirectorysource |
org.apache.flume.source | http | org.apache.flume.source.http.httpsource |
org.apache.flume.source | thrift | org.apache.flume.source.thriftsource |
org.apache.flume.source | jms | org.apache.flume.source.jms.jmssource |
org.apache.flume.source | – | org.apache.flume.source.avrolegacy.avrolegacysource |
org.apache.flume.source | – | org.apache.flume.source.thriftlegacy.thriftlegacysource |
org.apache.flume.source | – | org.example.mysource |
org.apache.flume.sink | null | org.apache.flume.sink.nullsink |
org.apache.flume.sink | logger | org.apache.flume.sink.loggersink |
org.apache.flume.sink | avro | org.apache.flume.sink.avrosink |
org.apache.flume.sink | hdfs | org.apache.flume.sink.hdfs.hdfseventsink |
org.apache.flume.sink | hbase | org.apache.flume.sink.hbase.hbasesink |
org.apache.flume.sink | hbase2 | org.apache.flume.sink.hbase2.hbase2sink |
org.apache.flume.sink | asynchbase | org.apache.flume.sink.hbase.asynchbasesink |
org.apache.flume.sink | elasticsearch | org.apache.flume.sink.elasticsearch.elasticsearchsink |
org.apache.flume.sink | file_roll | org.apache.flume.sink.rollingfilesink |
org.apache.flume.sink | irc | org.apache.flume.sink.irc.ircsink |
org.apache.flume.sink | thrift | org.apache.flume.sink.thriftsink |
org.apache.flume.sink | – | org.example.mysink |
org.apache.flume.channelselector | replicating | org.apache.flume.channel.replicatingchannelselector |
org.apache.flume.channelselector | multiplexing | org.apache.flume.channel.multiplexingchannelselector |
org.apache.flume.channelselector | – | org.example.mychannelselector |
org.apache.flume.sinkprocessor | default | org.apache.flume.sink.defaultsinkprocessor |
org.apache.flume.sinkprocessor | failover | org.apache.flume.sink.failoversinkprocessor |
org.apache.flume.sinkprocessor | load_balance | org.apache.flume.sink.loadbalancingsinkprocessor |
org.apache.flume.sinkprocessor | – | |
org.apache.flume.interceptor.interceptor | timestamp | org.apache.flume.interceptor.timestampinterceptor$builder |
org.apache.flume.interceptor.interceptor | host | org.apache.flume.interceptor.hostinterceptor$builder |
org.apache.flume.interceptor.interceptor | static | org.apache.flume.interceptor.staticinterceptor$builder |
org.apache.flume.interceptor.interceptor | regex_filter | org.apache.flume.interceptor.regexfilteringinterceptor$builder |
org.apache.flume.interceptor.interceptor | regex_extractor | org.apache.flume.interceptor.regexfilteringinterceptor$builder |
org.apache.flume.channel.file.encryption.keyprovider$builder | jceksfile | org.apache.flume.channel.file.encryption.jcefilekeyprovider |
org.apache.flume.channel.file.encryption.keyprovider$builder | – | org.example.mykeyprovider |
org.apache.flume.channel.file.encryption.cipherprovider | aesctrnopadding | org.apache.flume.channel.file.encryption.aesctrnopaddingprovider |
org.apache.flume.channel.file.encryption.cipherprovider | – | org.example.mycipherprovider |
org.apache.flume.serialization.eventserializer$builder | text | org.apache.flume.serialization.bodytexteventserializer$builder |
org.apache.flume.serialization.eventserializer$builder | avro_event | org.apache.flume.serialization.flumeeventavroeventserializer$builder |
org.apache.flume.serialization.eventserializer$builder | – | org.example.myeventserializer$builder |
别名约定
这些别名的约定在上面的组件特定示例中使用, 以使所有示例中的名称保持简短和一致.
alias name | alias type |
---|---|
a | agent |
c | channel |
r | source |
k | sink |
g | sink group |
i | interceptor |
y | key |
h | host |
s | serializer |
上一篇: ubuntu 用户名配置及磁盘挂载
下一篇: 比梦里找厕所更上一层楼