准备:
windows环境说明:Python2.7 pip spark版本:spark-1.6.1-bin-hadoop2.6
step1: 下载并解压tar包到自定义的路径。(下载链接 https://d3kbcqa49mib13.cloudfront.net/spark-1.6.1-bin-hadoop2.6.tgz) step2: 配置 %SPARK_HOME% 环境变量
step3: 拷贝pyspark对应的python工具包到python的安装路径下 "%PYTHON%/site-packages/"
step4: 使用PyCharm打开 "%SPARK_HOME%/examplessrcmainpython"
step5: 运行pi.py并查看输出
至此,pyspark入门篇的windows环境搭建就完成了。
注意:
1.运行时若出现“numpy”,“py4j”等依赖包找不到,自行使用pip进行安装即可($ pip install xxx); 2.当在进行部分模型的训练与加载出错时,需要到真实的unix环境进行对应代码的操作.