书里面使用这个spark,我这里就配置一下(失败了。。。)
从这里下载
代码语言:javascript复制https://www.apache.org/dyn/closer.lua/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
IDM真不是和你吹牛,飞快
本来不想用conda,可是看见都把我的环境占了
就用它
我有两个版本的Py
代码语言:javascript复制conda install jupyter
先安装一下jupyter,conda里面没有
装好有这个
安装的速度有些慢
代码语言:javascript复制conda install pyspark
也可以py包安装
代码语言:javascript复制C:Spark
移动后解压
看看bin目录
设置一个环境变量
这里也要
代码语言:javascript复制C:AncondaLibsite-packages
代码语言:javascript复制C:Sparkspark-3.1.2-bin-hadoop3.2spark-3.1.2-bin-hadoop3.2python
把里面的pyspark文件夹,都复制到上面的路径
上面有个文章说,这样就是把spark安装好了
实际上,没有卵用
啊这,我觉得好像是同一个东西
导入成功
这个报错
删除环境变量后,正常一点:
代码语言:javascript复制from pyspark.sql import SparkSession
导入
代码语言:javascript复制spark = SparkSession.builder
.master("local[*]")
.appName("Test")
.config("spark.executor.memory", "1gb")
.getOrCreate()
写个集群的代码
代码语言:javascript复制spark.stop()
关掉集群
这个错误
在这里加个环境变量
代码语言:javascript复制 conda uninstall pyspark
我悟了,卸载先
代码语言:javascript复制http://spark.apache.org/docs/latest/api/python/getting_started/install.html#using-conda
去Ubuntu安装吧,这个真不会了。。