library(rJava)
Sys.setenv(SPARK_HOME = 'C:/Users/***/spark-1.6.1-bin-hadoop2.6')
.libPaths(c(file.path(Sys.getenv('SPARK_HOME'), 'R', 'lib'), .libPaths()))
library(SparkR)
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.4.0" "sparkr-shell"')
sc <- sparkR.init(master = "local[*]", sparkEnvir = list(spark.driver.memory="2g"))
sqlContext <- sparkRSQL.init(sc)
Launching java with spark-submit command C:/Users/***/spark-1.6.1-bin-hadoop2.6/bin/spark-submit.cmd --driver-memory "2g" "--packages" "com.databricks:spark-csv_2.11:1.4.0" "sparkr-shell" C:\Users\hwu\AppData\Local\Temp\2\Rtmp46MVve\backend_port13b423eed9c
我收到了这个错误消息:
Error in invokeJava(isStatic = TRUE, className, methodName, ...) :
org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 0.0 failed 1 times, most recent failure: Lost task 0.0 in stage 0.0 (TID 0, localhost): java.lang.NullPointerException
at java.lang.ProcessBuilder.start(Unknown Source)
at org.apache.hadoop.util.Shell.runCommand(Shell.java:482)
at org.apache.hadoop.util.Shell.r...(Shell.java:455)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:715)
at org.apache.hadoop.fs.FileUtil.chmod(FileUtil.java:873)
at org.apache.hadoop.fs.FileUtil.chmod(FileUtil.java:853)
at org.apache.spark.util.Utils$.fetchFile(Utils.scala:406)
at org.apache.spark.executor.Executor$$anonfun$org$apache$spark$executor$Executor$$updateDependencies$5.apply(Executor.scala:405)
at org.apache.spark.executor.Executor$$anonfun$org$apache$spark$executor$Executor$$updateDependencies$5.apply(Executor.scala:397)
at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:7
谢谢你的任何建议。
而不是这样:
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.4.0" "sparkr-shell"')
试试看:
Sys.setenv(SPARKR_SUBMIT_ARGS="--packages com.databricks:spark-csv_2.11:1.4.0 sparkr-shell"
或者这个
sc <- sparkR.init(master="local[*]",appName="yourapp",sparkPackages="com.databricks:spark-csv_2.11:1.4.0")
本文向大家介绍Spark在Windows下的环境搭建方法,包括了Spark在Windows下的环境搭建方法的使用技巧和注意事项,需要的朋友参考一下 本文主要是讲解Spark在Windows环境是如何搭建的 一、JDK的安装 1、1 下载JDK 首先需要安装JDK,并且将环境变量配置好,如果已经安装了的老司机可以忽略。JDK(全称是JavaTM Platform Standard Edition D
本文向大家介绍Windows环境下MySQL 8.0 的安装、配置与卸载,包括了Windows环境下MySQL 8.0 的安装、配置与卸载的使用技巧和注意事项,需要的朋友参考一下 软件版本 Windows:Windows10 MySQL:mysql-8.0.17-winx64.zip 安装步骤 1、配置环境变量 2、新建my.ini文件 文件位置:C:\Program Files\MySQL\my
本文向大家介绍Windows下搭建Android开发环境,包括了Windows下搭建Android开发环境的使用技巧和注意事项,需要的朋友参考一下 工具/原料 JDK Eclipse ADT JDK的安装和Java环境变量的设置 1、JDK下载地址 JDK下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.h
本文向大家介绍Windows环境下python环境安装使用图文教程,包括了Windows环境下python环境安装使用图文教程的使用技巧和注意事项,需要的朋友参考一下 Windows环境下python的安装与使用 一、python如何运行程序 首先说一下python解释器,它是一种让其他程序运行起来的程序。当你编写了一段python程序,python解释器将读取程序,并按照其中的命令执行,得出结果
本文向大家介绍windows下apache搭建php开发环境,包括了windows下apache搭建php开发环境的使用技巧和注意事项,需要的朋友参考一下 本文详细介绍了在Windows2003下使用Apache2.2.21/PHP5.3.5/Mysql5.5.19/phpMyAdmin3.4.9搭建php开发环境。 第一步:下载安装的文件 1. Apache 版本 httpd-2.2.21-wi
本文向大家介绍Windows 环境下使用 Qt 连接 MySQL,包括了Windows 环境下使用 Qt 连接 MySQL的使用技巧和注意事项,需要的朋友参考一下 如果应用只需要连接远程数据库,那么本地不需要安装 MySQL,只需要找到 MySQL 提供的 libmysql.dll 和libmysqld.dll 两个动态连接库,把他们加入到 Qt安装目录\5.9\mingw53_32\bin\;默