win10 安装 spark单机版(失败版)

2021-09-14 15:45:00 浏览数 (1)

书里面使用这个spark,我这里就配置一下(失败了。。。)

从这里下载

代码语言:javascript复制
https://www.apache.org/dyn/closer.lua/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz

IDM真不是和你吹牛,飞快

本来不想用conda,可是看见都把我的环境占了

就用它

我有两个版本的Py

代码语言:javascript复制
conda install jupyter

先安装一下jupyter,conda里面没有

装好有这个

安装的速度有些慢

代码语言:javascript复制
conda install pyspark

也可以py包安装

代码语言:javascript复制
C:Spark

移动后解压

看看bin目录

设置一个环境变量

这里也要

代码语言:javascript复制
C:AncondaLibsite-packages
代码语言:javascript复制
C:Sparkspark-3.1.2-bin-hadoop3.2spark-3.1.2-bin-hadoop3.2python

把里面的pyspark文件夹,都复制到上面的路径

上面有个文章说,这样就是把spark安装好了

实际上,没有卵用

啊这,我觉得好像是同一个东西

导入成功

这个报错

删除环境变量后,正常一点:

代码语言:javascript复制
from pyspark.sql import SparkSession

导入

代码语言:javascript复制
spark = SparkSession.builder
    .master("local[*]") 
    .appName("Test") 
    .config("spark.executor.memory", "1gb") 
    .getOrCreate()

写个集群的代码

代码语言:javascript复制
spark.stop()

关掉集群

这个错误

在这里加个环境变量

代码语言:javascript复制
 conda uninstall pyspark

我悟了,卸载先

代码语言:javascript复制
http://spark.apache.org/docs/latest/api/python/getting_started/install.html#using-conda

去Ubuntu安装吧,这个真不会了。。

0 人点赞