本文使用 Flink 的两种方式实现 WordCount
- 基于流计算
- 基于批计算
文章目录- 1. Idea 新建 Maven 项目并配置以下依赖
- 2. 实现代码及详细注释
- 2.1 Flink 基于流计算实现 WordCount
- 2.2 Flink 基于批计算实现 WordCount
- 2.3 附件:完整代码
- 2.1 Flink 基于流计算实现 WordCount
- 2.2 Flink 基于批计算实现 WordCount
- 2.3 附件:完整代码
先说一下我的环境:
Flink 1.9
开发工具:Idea
Maven版本:3.3.9
Linux:CentOS 7
演示语言:Scala 2.11
1. Idea 新建 Maven 项目并配置以下依赖
代码语言:javascript复制<dependencies>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-scala_2.11</artifactId>
<version>1.9.1</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-streaming-scala_2.11</artifactId>
<version>1.9.1</version>
</dependency>
</dependencies>
2. 实现代码及详细注释
2.1 Flink 基于流计算实现 WordCount
案例需求:采用 Netcat 数据源发送数据,使用Flink统计每个单词的数量
Idea执行代码 –> 打开 Linux 使用 nc(netcat)命令发送数据测试
nc -lk 8888
2.2 Flink 基于批计算实现 WordCount
需求:读取本地数据文件,统计文件中每个单词出现的次数
wc.txt
文件的内容
hadoop hbase hello
hello hadoop apache apache
flink hello
执行代码结果
2.3 附件:完整代码
代码语言:javascript复制package com.bigdataBC.flink
import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
/**
* 基于流计算的WordCount案例
*/
object WordCountBySrteaming {
def main(args: Array[String]): Unit = {
// 初始化Flink的Streaming(流计算)上下文执行环境
val streamEvn: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
//导入隐式转换,建议写在这里,可以防止IDEA代码提示出错的问题
import org.apache.flink.streaming.api.scala._
// 设置默认的分区(分区优先级:先找单独设置的分区,若没有就用默认的)
streamEvn.setParallelism(1)
// 读取流数据
val ds: DataStream[String] = streamEvn.socketTextStream("node1",8888)
// 转换计算
val result: DataStream[(String, Int)] = ds.flatMap(_.split(" "))
.map((_, 1))
.setParallelism(2) //设置单独的分区
.keyBy(0) // 分组:必须制定根据哪个字段分组,参数代表当前要分组的字段的下标(另外还有fieldsname)
.sum(1) // 1代表下标,下标为1的进行累加
//打印结果到控制台
result.print()
.setParallelism(4) //设置单独的分区
//启动流式处理,如果没有该行代码上面的程序不会运行
streamEvn.execute("wordcount")
}
}
代码语言:javascript复制package com.bigdataBC.flink
import org.apache.flink.api.scala.{DataSet, ExecutionEnvironment}
/**
* 基于批计算的WordCount案例
*/
object WordCountByBatch {
def main(args: Array[String]): Unit = {
// 初始化Flink批计算环境、
val env: ExecutionEnvironment = ExecutionEnvironment.getExecutionEnvironment
// 导入隐式转换
import org.apache.flink.api.scala._
// 设置默认的分区
// env.setParallelism(1)
// 读取数据
val ds: DataSet[String] = env.readTextFile("D:\workspace\Idea-workspace\Flinkdemo\src\main\resources\wc.txt")
// 转换计算
val result: AggregateDataSet[(String, Int)] = ds.flatMap(_.split(" "))
.map((_, 1))
.groupBy(0)
.sum(1)
// 打印(这里的print不能设置分区)
result.print()
}
}