当前位置: 首页 > 知识库问答 >
问题:

Pyspark:Error-Java网关进程在向驱动程序发送端口号之前退出

冷翼
2023-03-14
from pyspark import SparkConf
from pyspark.sql import SparkSession

if __name__ == '__main__':
    SPARK_CONFIGURATION = SparkConf().setAppName("OPL").setMaster("local[*]")
    SPARK_SESSION = SparkSession.builder\
        .config(conf=SPARK_CONFIGURATION)\
        .getOrCreate()

    print("Hello world")

这是回溯

Neon was unexpected at this time.
Traceback (most recent call last):
  File "C:\Users\IBM_ADMIN\Documents\Eclipse Neon for Liberty on Bluemix\OPL_Interface\src\Test\SparkTest.py", line 12, in <module>
    .config(conf=SPARK_CONFIGURATION)\
  File "C:\Users\IBM_ADMIN\Documents\spark-2.1.0-bin-hadoop2.7\python\pyspark\sql\session.py", line 169, in getOrCreate
    sc = SparkContext.getOrCreate(sparkConf)
  File "C:\Users\IBM_ADMIN\Documents\spark-2.1.0-bin-hadoop2.7\python\pyspark\context.py", line 307, in getOrCreate
    SparkContext(conf=conf or SparkConf())
  File "C:\Users\IBM_ADMIN\Documents\spark-2.1.0-bin-hadoop2.7\python\pyspark\context.py", line 115, in __init__
    SparkContext._ensure_initialized(self, gateway=gateway, conf=conf)
  File "C:\Users\IBM_ADMIN\Documents\spark-2.1.0-bin-hadoop2.7\python\pyspark\context.py", line 256, in _ensure_initialized
    SparkContext._gateway = gateway or launch_gateway(conf)
  File "C:\Users\IBM_ADMIN\Documents\spark-2.1.0-bin-hadoop2.7\python\pyspark\java_gateway.py", line 95, in launch_gateway
    raise Exception("Java gateway process exited before sending the driver its port number")
Exception: Java gateway process exited before sending the driver its port number

我将PyDev与Eclipse Eclipse Neon.2发行版(4.6.2)一起使用。配置如下:Libraries环境

注意:我使用的是最新的Spark版本:spark-2.1.0-bin-hadoop2.7

共有1个答案

冉子石
2023-03-14

我的同事和我也都经历了同样的问题,它阻碍了我们,使我们的头发拔了一段时间。我们尝试了一系列建议(Java路径中没有空格、设置/取消设置PYSPARK_SUBMIT_ARGS env var、...)都没有用。

解决这个问题的方法是切换到Spark2.3.1。我们尝试使用2.2.1和2.3.0。

希望这能帮一些人省去一些烦恼。

 类似资料:
  • 为什么我的浏览器屏幕上会出现这个错误, 有什么办法可以修好它吗?

  • 我正试图用Anaconda在我的Windows10中安装Spark,但当我试图在JupyterNotebook中运行pyspark时,我遇到了一个错误。我正在遵循本教程中的步骤。然后,我已经下载了Java8并安装了Spark 3.0.0和Hadoop 2.7。 我已经为SPARK_HOME、JAVA_HOME设置了路径,并在“path”环境中包含了“/bin”路径。 在Anaconda pyspa

  • 我使用以下方法安装了pyspark: 根据该示例的web,它应该刚好可以用以下代码执行: 但我有一个错误: 接着,要解决第二个问题,只需在控制面板中定义HADOOP_HOME和PATH环境变量,以便任何Windows程序都可以使用它们。

  • 尝试使用时我遇到了一个问题。我在我的用户路径中安装并添加了。但根据文档,它不需要任何其他依赖项。 我的问题是,我必须安装其他东西吗?像Spark本身或类似的东西? 我在中使用。

  • 我在python环境中使用了pip安装pyspark,安装了java,但是当我尝试初始化spark会话时,我得到了一个java错误,java网关进程在发送端口号之前退出 运行时错误发布在上面,我在其他帖子中没有看到这种类型的错误

  • 因此,我试图使用以下方法在Python2.7中创建一个Spark会话: 我发现以下错误指向路径` 我对Spark和Pyspark还是个新手,因此无法在这里调试这个问题。我还试着看了一些其他的建议:Spark+Python-Java网关进程在向驱动程序发送端口号之前退出?和Pyspark:Exception:Java网关进程在向驱动程序发送端口号之前退出 但目前还无法解决这个问题。请救命! 下面是s