为了账号安全,请及时绑定邮箱和手机立即绑定

大数据01-Flume 日志收集

标签:
Spark

作为大数据,我们需要获取大数据来源,今天把日志收集这块整理下,采用 Apache 的 开源技术 Flume 作为日志收集的工具。接下来根据官方文档按照自己的理解进行梳理。

1、理论理解

Flume 是一个日志采集模块,需要根据源、通道、目的地三个组件来完成把源的日志或者信息通过这个管道运输到另外一个地方,如下图


webp

官方数据流模型-单个代理


当然管道的目的地(Sink)也可以是下一个模块的源,如下图


webp

官方数据流模型-多代理


一个管道可以有多个源,如下图

webp

官方数据流模型-多源

一旦有多个代理进行嵌套,他们之间基本是采用 avro 这样的source和sink。

2、搭建环境

环境搭建非常简单,首先是基于 java,所以需要 JDK 支持,这里使用目前最新的 Flume 1.8.0,官方说明需要至少 JDK1.8以上。
按照 JDK 不再描述,装完之后,我们需要下载最新的 Flume 安装包
链接地址
为了使用方便,解压该包之后,配置下环境变量

webp

环境变量


之后再新开命令窗口,输入

flume-ng help

webp

测试命令

可以看到基本信息内容,其中包括命令和参数,其中命令如下

help                      display this help text,显示帮助信息
agent                     run a Flume agent ,运行一个 flume 代理
avro-client               run an avro Flume client 运行一个 avro 客户端
version                   show Flume version info
参数部分较多,常用的是
--conf,-c <conf>          use configs in <conf> directory
--name,-n <name>          the name of this agent (required)
--conf-file,-f <file>     specify a config file (required if -z missing)
还是比较好理解的。接下来我们来运行官方的一个例子

3、从指定网络端口采集数据到控制台

官方有个例子的配置文件,其实 flume 大部分功能只需要配置就可以搞定,特殊的需要额外的第三方包,或者自行定义 Source、Channel 和 Sink 组件。这里我们进行简单的配置,能够入门即可。

为了方便,把配置文件统一放在 $FLUME_HOME/conf/目录下,我们在该目录下建立一个配置文件叫 example.conf,内容如下,说明非常细致了。

#使用 Flume 的关键就是写配置文件# A)配置 Source# B) 配置 Channel# C) 配置 Sink# D) 配置 把三组件串起来#下面是在这个 agent 上命名组件# a1 是 agent的名称# r1是数据源的名称,a1可能有多个数据源,这里是复数# k1是sink 的名称# c1是 channel 的名称a1.sources = r1
a1.sinks = k1
a1.channels = c1#配置 source# a1的数据源,其中叫 r1的进行配置# https://flume.apache.org/FlumeUserGuide.html#netcat-tcp-sourcea1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444# a1的 sinks 中叫 k1的进行配置# https://flume.apache.org/FlumeUserGuide.html#logger-sinka1.sinks.k1.type = logger# 使用一个带有 buffer 的内存式的 channel# https://flume.apache.org/FlumeUserGuide.html#memory-channela1.channels.c1.type = memory#a1.channels.c1.capacity = 1000#a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel# 配置源到 channel 注意复数,一个 source 可以输出到多个 channel# 配置 sink 和 channel,一个 channel 可以输出到的 sink 只有1个a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

有了上面的配置文件,就需要运行他了,根据官方的提示,我们得知

#运行 $ bin/flume-ng agent \ 表示运行代理--conf $FLUME_HOME/conf \ 表示配置文件的目录
--conf-file $FLUME_HOME/conf/example.conf \ 指定配置文件
--name a1 \ 指定运行的代理名称
-Dflume.root.logger=DEBUG,console
-Dorg.apache.flume.log.printconfig=true
-Dorg.apache.flume.log.rawdata=true

然后我们telnet 到本地44444端口,进行消息发送,看看控制台有什么变化


image


接收到的数据

Event: { headers:{} body: 68 61 68 61 61 68 0D                            hahaah. }

一个 Event 就是 Flume 的一个最小单元,包括可选 headers 和 body。

4、监控文件实时采集到控制台输出

一般我们的项目都是把日志通过 logback 输出到文件,然后需要把这些文件迁移到另外个地方进行分析处理,现在我们使用 Flume 进行日志移动。

先分析下 Source,Channel 和 Sink 和上一个类似
Source 我们需要使用一个Exec Source,他可以执行一个命令,比如 tail ....

#下面是在这个 agent 上命名组件# a1 是 agent的名称# r1是数据源的名称,a1可能有多个数据源,这里是复数# k1是sink 的名称# c1是 channel 的名称a1.sources = r1
a1.sinks = k1
a1.channels = c1#配置 source# a1的数据源,其中叫 r1的进行配置# https://flume.apache.org/FlumeUserGuide.html#exec-sourcea1.sources.r1.type = execa1.sources.r1.command = tail -F /tmp/log/log.log# a1的 sinks 中叫 k1的进行配置# https://flume.apache.org/FlumeUserGuide.html#logger-sinka1.sinks.k1.type = logger# 使用一个带有 buffer 的内存式的 channel# https://flume.apache.org/FlumeUserGuide.html#memory-channela1.channels.c1.type = memory#a1.channels.c1.capacity = 1000#a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel# 配置源到 channel 注意复数,一个 source 可以输出到多个 channel# 配置 sink 和 channel,一个 channel 可以输出到的 sink 只有1个a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

配置完成之后,我们开始测试
先启动整个配置文件example01.conf

$ bin/flume-ng agent \ 表示运行代理--conf $FLUME_HOME/conf \ 表示配置文件的目录
--conf-file $FLUME_HOME/conf/example01.conf \ 指定配置文件
--name a1 \ 指定运行的代理名称
-Dflume.root.logger=DEBUG,console
-Dorg.apache.flume.log.printconfig=true
-Dorg.apache.flume.log.rawdata=true

启动之后,我们现在追加日志到/tmp/log/log.log 文件,就可以看到控制台输出日志。

5、将一个服务器的内容迁移到另外一个服务器

需要2台机器进行模拟


webp

机器间日志迁移模型


webp

技术选型


根据这个示意图,我们开始编写配置文件

############  exec-mem-avro.conf  ############# Baseexec-mem-avro.sources = exec-sourceexec-mem-avro.sinks = avro-sinkexec-mem-avro.channels = mem-channel# Sourceexec-mem-avro.sources.exec-source.type = execexec-mem-avro.sources.exec-source.command = tail -F /tmp/log/log.log# Sink  这里修改为 avro Sinkexec-mem-avro.sinks.avro-sink.type = avroexec-mem-avro.sinks.avro-sink.hostname = localhost 
exec-mem-avro.sinks.avro-sink.port = 44444# Channelexec-mem-avro.channels.mem-channel.type = memory# Linkexec-mem-avro.sources.exec-source.channels = mem-channelexec-mem-avro.sinks.avro-sink.channel = mem-channel############  avro-mem-log.conf  ############# Baseavro-mem-log.sources = avro-source
avro-mem-log.sinks = log-sink
avro-mem-log.channels = mem-channel# Sourceavro-mem-log.sources.avro-source.type = avro
avro-mem-log.sources.avro-source.bind = localhost 
avro-mem-log.sources.avro-source.port = 44444# Sink  avro-mem-log.sinks.log-sink.type = logger# Channelavro-mem-log.channels.mem-channel.type = memory# Linkavro-mem-log.sources.avro-source.channels = mem-channel
avro-mem-log.sinks.log-sink.channel = mem-channel

需要先在第二机器上启动 avro-mem-log.conf
然后在第一个机器上启动 exec-mem-avro.conf

#第二个机器运行$ bin/flume-ng agent \--conf $FLUME_HOME/conf \
--conf-file $FLUME_HOME/conf/avro-mem-log.conf \
--name avro-mem-log \
-Dflume.root.logger=DEBUG,console 
-Dorg.apache.flume.log.printconfig=true 
-Dorg.apache.flume.log.rawdata=true#第一个机器运行$ bin/flume-ng agent \--conf $FLUME_HOME/conf \
--conf-file $FLUME_HOME/conf/exec-mem-avro.conf \
--name exec-mem-avro \
-Dflume.root.logger=DEBUG,console 
-Dorg.apache.flume.log.printconfig=true 
-Dorg.apache.flume.log.rawdata=true

在第一个机器输入日志到/tmp/log/log.log 在第二个机器就会收集到,到此,我们的 Flume 的基本入门告一段落



作者:breezedancer
链接:https://www.jianshu.com/p/79bf86c42811


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 1
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消