最新 最热

Spark系列 - (3) Spark SQL

Hive:Hadoop刚开始出来的时候,使用的是hadoop自带的分布式计算系统 MapReduce,但是MapReduce的使用难度较大,所以就开发了Hive。Hive的出现解决了MapReduce的使用难度较大的问题,Hive的运行原理是将HQL语句经过语法解析、...

2023-10-19
1

Spark记录 - 乐享诚美

一、Spark 的5大优势: 1. 更高的性能。因为数据被加载到集群主机的分布式内存中。数据可以被快速的转换迭代,并缓存用以后续的频繁访问需求。在数据全部加载到内存的情况下,Spark可以比Hadoop快100倍,在内存不够存放所有...

2023-10-18
3

轻松驾驭Hive数仓,数据分析从未如此简单!

直接与文件系统交互,仅是Spark SQL数据应用常见case之一。Spark SQL另一典型场景是与Hive集成、构建分布式数仓。

2023-10-17
1

spark-submit --files

spark-submit --files通常用来加载外部资源文件,在driver和executor进程中进行访问

2023-10-17
3

Spark

Spark是Scala语言实现的核心数据结构是RDD的基于内存迭代计算的分布式框架。

2023-10-17
1

Hadoop和spark基础使用

map的输入固定是LongWritable和Text,可理解为偏移量和String类型的数据。 核心:map的输出的key和value是reduce的输入的key和value

2023-10-17
2

Spark实时数据流分析与可视化:实战指南【上进小菜猪大数据系列】

本文介绍了如何利用Apache Spark技术栈进行实时数据流分析,并通过可视化技术将分析结果实时展示。我们将使用Spark Streaming进行数据流处理,结合常见的数据处理和可视化库,实现实时的数据流分析和可视化展示。本文包括...

2023-10-16
2

基于Spark的分布式数据处理和机器学习技术【上进小菜猪大数据】

大数据已经成为当今社会中一个重要的资源和挑战。随着数据规模的不断增长,如何高效地处理和分析这些数据成为了一个关键问题。本文将介绍基于Apache Spark的分布式数据处理和机器学习技术,展示如何利用Spark来处理大规...

2023-10-16
1

【Python】PySpark 数据处理 ① ( PySpark 简介 | Apache Spark 简介 | Spark 的 Python 语言版本 PySpark | Python 语言场景 )

Spark 是 Apache 软件基金会 顶级项目 , 是 开源的 分布式大数据处理框架 , 专门用于 大规模数据处理 , 是一款 适用于 大规模数据处理 的 统一分析引擎 ;

2023-10-11
2

最大化 Spark 性能:最小化 Shuffle 开销

Apache Spark 通过将数据分布在多个节点并在每个节点上单独计算值来处理查询。然而有时节点需要交换数据。毕竟这就是 Spark 的目的——处理单台机器无法容纳的数据。...

2023-09-14
1