解压flume包 到/usr/local/src/目录下 

[root@hadoopha01 pack]# tar -zxvf apache-flume-1.7.0-bin.tar.gz -C /usr/local/src/

配置flume环境变量

#FLUME_HOME
export FLUME_HOME=/usr/local/src/flume
export PATH=$PATH:$FLUME_HOME/bin

修改flume中flume-env.sh文件,先将修改名称为flume-env.sh,或者直接新建一个

其中配置jdk

export JAVA_HOME=/usr/local/src/jdk

flume,安装成功

查看版本

[root@hadoopha01 conf]# flume-ng version

flume的基本使用

使用flume传输数据至hdfs中

查询dfs中有那些文件

[root@hadoopha01 conf]# hdfs dfs -ls /

创建一个flume文件夹

[root@hadoopha01 conf]# hdfs dfs -mkdir  /flume

创建一个job目录用于存放flume配置文件

mkdir job
[root@hadoopha01 job]# vi hdfs_k.conf 

文件内容

a1.sources = r1
a1.channels = c1
a1.sinks = k1

a1.sources.r1.type = netcat
a1.sources.r1.bind = 主机名
a1.sources.r1.port = 自己设置端口号

a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://主机名称+hdfs端口号/flume/events/%y-%m-%d/%H/%M/%S
a1.sinks.k1.hdfs.filePrefix = events-

#是否是产生新目录,每十分钟产生一个新目录,一般控制的目录方面。
#2017-12-12 -->
#2017-12-12 -->%H%M%S

a1.sinks.k1.hdfs.round = true
a1.sinks.k1.hdfs.roundValue = 10
a1.sinks.k1.hdfs.roundUnit = second

a1.sinks.k1.hdfs.useLocalTimeStamp=true

#是否产生新文件。
a1.sinks.k1.hdfs.rollInterval=10
a1.sinks.k1.hdfs.rollSize=10
a1.sinks.k1.hdfs.rollCount=3

a1.channels.c1.type=memory

a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

一个终端启用文件

[root@hadoopha01 job]# flume-ng agent  -f hdfs_k.conf  -n a1

另一个终端传输文件

[root@hadoopha01 job]# nc 主机名 自己设置端口号

 

内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/gudeman/p/17307640.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!