介绍
Flume是什么?
Flume 是一个分布式、可靠且高可用的服务,用于有效地收集,聚合和移动大量日志数据。它具有基于流数据的简单灵活架构,良好的可靠性机制、故障转移和恢复机制,具有强大的容错性。它支持在系统中定制各类数据发送方,用于收集数据;同时Flume 提供对数据的简单处理,并具有写到各种数据接收方的能力。
Flume三大框架
Source 负责读取数据并写入Channel, Channel 负责存储临时存储数据,起到缓冲的作用,等待Sink读取。 Sink会从Channel拿去数据,并写入目的地(控制台、文件、hdfs、数据库等)
Flume流程事务图
整个流程总共有两处会操作Channel,一次写入(source),一次读取(sink)。这两处的操作都可能造成丢数据的风险,Flume也考虑到了这一点,在Flume引入了事务。 Flume中共有两个事务, 第一个:source-channel 会有一个事务(put事务)。 第二个:channel-sink 也有一处事务(take事务)。
Flume 中的 put事务
-
source
负责数据的读取,并把封装一个接收事件(就是一条一条的数据),所谓的接收事件就是一个Event
对象。 - 并不会将
Event
对象直接给Channel
,而是先存放起来,批量(batch data
)提交给Transaction
,此时进行Put事务流程。数据批的大小取决于配置参数batch size
的值;。 如:Exec Source的batchSize默认值为20,各个source
可能 batchSize 默认值可能不同。 - doPut:事务开始的时候会调用一个
doPut
方法,doPut
方法将一批数据放在putList
中。putList
大小由transaction capacity
参数控制。 - doCommit :准备提交数据到
channel
,但是再提交前会去检查channel 内存队列是否够用。 - doRollback:若
channel
内存队列空间不足便回滚数据。doRollback
方法会进行两项操作:将putList
清空; 抛出 ChannelException异常。source会捕捉到doRollback抛出的异常,然后source就将刚才的一批数据重新采集,然后重新开始一个新的事务,这就是事务的回滚。 - 若
channel
内存队列够用,那么会将这一批Event
合并到队列后。
Flume Take 事务
- 事务开始前,会调用doTake方法拉取数据到takList临时缓冲区中。在sink中也有batchSize 用于定义临时缓冲区(takeList)大小。如Avro Sink的batchSize默认大小为100。
- doCommit():会做两个操作: -针对HDFS Sink,手动调用IO流的flush方法,将IO流缓冲区的数据写入到HDFS磁盘中; -清空takeList中的数据
flush到HDFS的时候组容易出问题。flush到HDFS的时候,可能由于网络原因超时导致数据传输失败,这个时候调用doRollback方法来进行回滚,回滚的时候由于takeList中还有备份数据,所以将takeList中的数据原封不动地还给channel,这时候就完成了事务的回滚。
但是,如果flush到HDFS的时候,数据flush了一半之后出问题了,这意味着已经有一半的数据已经发送到HDFS上面了,现在出了问题,同样需要调用doRollback方法来进行回滚,回滚并没有“一半”之说,它只会把整个takeList中的数据返回给 channel,然后继续进行数据的读写。这样开启下一个事务的时候容易造成数据重复的问题。
对于channel来说,无论是source 还 sink ,它都是属于被动的一方。