网上有很多关于spark R的安装过程,但是按照那个过程总是出错。当然最常见的问题是:
Launching sbt from sbt/sbt-launch-0.13.6.jar
Error: Invalid or corrupt jarfile sbt/sbt-launch-0.13.6.jar
make: *** [target/scala-2.10/sparkr-assembly-0.1.jar] 错误 1
ERROR: compilation failed for package ‘SparkR’
* removing ‘/home/ndscbigdata/R/x86_64-pc-linux-gnu-library/3.2/SparkR’
错误: Command failed (1)
关于这一问题,网上没有很好的解释,虽然也装了SBT的环境,但还是不行。
于是想着spark安装包中也有R的环境,于是进入spark安装包中的R目录,直接输入如下命令,直接就DONE了。
R -e "devtools::install('.')"
非常开心,终于可以顺利进行spark R的操作旅程了。