最新 最热

2018即将推出的Apache Spark 2.4都有哪些新功能

本文来自于2018年09月19日在 Adobe Systems Inc 举行的Apache Spark Meetup。

2020-10-19
0

linux环境不使用hadoop安装单机版spark的方法

大数据持续升温, 不熟悉几个大数据组件, 连装逼的口头禅都没有。 最起码, 你要会说个hadoop, hdfs, mapreduce, yarn, kafka, spark, zookeeper, neo4j吧, 这些都是装逼的必备技能。...

2020-10-19
1

详解如何使用Spark和Scala分析Apache访问日志

首先需要安装好Java和Scala,然后下载Spark安装,确保PATH 和JAVA_HOME 已经设置,然后需要使用Scala的SBT 构建Spark如下:

2020-10-19
1

Apache Spark 2.0 在作业完成时却花费很长时间结束

大家在使用 ApacheSpark2.x 的时候可能会遇到这种现象:虽然我们的SparkJobs 已经全部完成了,但是我们的程序却还在执行。比如我们使用SparkSQL 去执行一些 SQL,这个 SQL 在最后生成了大量的文件。然后我们可以看到,这个 S...

2020-10-19
1

存算分离下写性能提升10倍以上,EMR Spark引擎是如何做到的?

引言 随着大数据技术架构的演进,存储与计算分离的架构能更好的满足用户对降低数据存储成本,按需调度计算资源的诉求,正在成为越来越多人的选择。相较 HDFS,数据存储在对象存储上可以节约存储成本,但与此同时,对象存储对海量...

2020-10-16
0

大数据计算模式:批处理&流处理

大数据要实现业务落地的前提,是企业需要搭建起自身的大数据平台,去实现对数据价值的挖掘和应用。根据实际的业务场景需求,不同类型的数据,需要不同的计算处理模式。今天我们就来聊聊批处理和流处理两种大数据计算模式。...

2020-10-15
1

flume kafka和sparkstreaming整合

本文介绍Flume、Kafka和Sparkstreaming的整合。代码流程是,我们通过shell脚本重播测试轨迹数据到指定轨迹文件中,使用Flume监听该轨迹数据文件,实时将轨迹数据发送到Kafka,然后使用SparkStreaming简单统计轨迹数据量。...

2020-10-15
0

spark-2.4.0-hadoop2.7-简单操作 2.1. 相关截图

如果启动spark shell时没有指定master地址,但是也可以正常启动spark shell和执行spark shell中的程序,其实是启动了spark的local模式,该模式仅在本机启动一个进程,没有与集群建立联系。...

2020-10-15
0

从Hadoop到Spark,大数据技术发展概况

大数据从概念走向落地,得益于大数据技术的成熟,尤其是以Hadoop为代表的第一代大数据系统框架,为大数据在企业当中的现实落地,提供了稳固的技术支持,而随着大数据的发展,大数据技术也在更新迭代。今天我们来聊聊大数据技术从...

2020-10-12
1

基于 TiSpark 的海量数据批量处理技术

熟悉 TiSpark 的人都知道,TiSpark 是 Spark 的一个插件,它其实就是给予了 Spark 能够去访问 TiDB 底层分布式存储引擎 TiKV 或者 TiFlash 的能力。之前我们一直在解决读的问题,写问题并没有付出太多的时间去解决。今天就...

2020-10-12
0