怎么在本地安装Spark,这里就不再描述了。
List-1
代码语言:javascript复制#在SPARK_HOME/conf下
>cp slaves.template slaves
#之后在slaves里面写入hostname,如下
>more slaves
mjduan-host
>cp spark-env.sh.template spark-env.sh
#修改spark-env.sh,写入如下内容,SPARK_MASTER_IP写mjduan-host
>more spark-env.sh
export JAVA_HOME=/opt/software/tool/jdk1.8
export HADOOP_HOME=/opt/software/docker/hadoop/hadoop-2.7.7
export SCALA_HOME=/opt/software/tool/scala2.12
export HADOOP_CONF_DIR=/opt/software/docker/hadoop/hadoop-2.7.7/etc/hadoop
export SPARK_MASTER_IP=mjduan-host
export SPARK_WORKER_MEMORY=2048M
之后进入$SPARK_HOME/sbin下,执行start-all.sh,可以看下是否启动成功,之后去看localhost:8080,可以看到spark的界面。
jps命令可以看到有个Master和Worker。
注意,启动Spark是可以启动的,但是如果往Spark上提交程序,Spark默认会从hdfs读取数据,而不是本地。所以要安装好HADOOP,安装Hadoop的时候,带上了hdfs、yarn都安装好了。
给Spark提交任务,master后面的URL,如果不知道,可以从日志中看到或者Spark UI界面中看到。
List-2
代码语言:javascript复制spark-submit --class com.mjduan.project.SimpleApp --master spark://mjduan-host:7077 Spark-helloworld.jar
安装Hadoop-2.7,Hive-2.3,参考: https://blog.csdn.net/u013332124/article/details/85223496 ,左边安装Hadoop的教程里面,没有设置yarn,要配置yarn,不然在hive命令行中进入insert时会报错,配置yarn参考: https://blog.csdn.net/linbo_18874208784/article/details/74178236,在安装Hive时,报用户无法访问hive,要修改hive的配置文件,参考: https://stackoverflow.com/questions/40603714/hive-is-not-allowed-to-impersonate-hive
Spark伪分布式的安装,参考: https://blog.csdn.net/zhihaoma/article/details/52296645
(adsbygoogle = window.adsbygoogle || []).push({});