然后选择plugs,输入Scala,提示出Scala插件,点击install,安装完成后重启idea,插件安装成功。
SparkSession 是 Spark 最新的 SQL 查询起始点,实质上是 SQLContext 和 HiveContext 的组合。
【settings.xml】这里使用的是阿里的镜像位置,默认库位置在【D:mavenrepository】
不论是哪种Kafka,本质上都基于core Apache Kafka 那就来说说Apache Kafka版本号的问题
Flink提供三层API。 每个API在简洁性和表达性之间提供不同的权衡,并针对不同的用例。
◆ DataSet API开发概述 ◆ 计数器 ◆ DataSource ◆ 分布式缓存 ◆ Transformation ◆ Sink
Flink程序是实现分布式集合转换的常规程序(例如,过滤,映射,更新状态,加入,分组,定义窗口,聚合)。最初从源创建集合(例如,通过从文件,kafka主题或从本地的内存集合中读取)。结果通过接收器返回,接收器可以例如将数据写入(分布式)文件或...
Scala 进行文件写操作,直接用的都是 java中 的 I/O 类 (java.io.File):
Scala 的方法可以通过抛出异常的方法的方式来终止相关代码的运行,不必通过返回值。
你可以使用 mkString( ) 方法来连接正则表达式匹配结果的字符串,并可以使用管道(|)来设置不同的模式: