当前位置: 首页 > 知识库问答 >
问题:

SparkSubmit可以在本地运行吗?

解高昂
2023-03-14

当我使用以下命令运行下面的代码时

spark-提交prepiadstream_sample.py--主本地[3]--名称prepiadstream_sample--名称-执行器5--执行器-内存5G--驱动程序-内存5G

虽然我在Spark submit本地运行了配置,但我发现在代码中打印出的配置以客户端的身份返回部署模式,所以Spark不应该使用coniguration命令行

import os
from pyspark.sql import SparkSession
from pyspark.streaming import StreamingContext
import time
from pyspark.sql import Row


print("Creating Spark Session")

spark = SparkSession.builder\
    .getOrCreate()

<b> print(spark.sparkContext.getConf()) </b>

共有1个答案

宋劲
2023-03-14

这个问题是按论点的顺序来的。为了让应用程序读取参数,我应该在应用程序名称之前传递所有spark配置参数,否则应用程序将使用spark的默认配置。需要按以下方式发送命令:

spark-submit  --master local[3] --name applicationstream_sample \
--num-executors 5 --executor-memory 5g \
--driver-memory 5g applicationstream_sample.py

我们可以在以下Spark中找到正确编写命令的方法,提交docuemntation并注意他们在commanfd中设置应用程序名称的位置

 类似资料:
  • 问题内容: Eclipse 3.4 [.x](也称为Ganymede)附带了这种称为 p2的 新配置机制。 “预配置”是允许按需发现和更新应用程序某些部分的过程,如Sun网站上本文中的一般说明。 Eclipse的扩展 wiki部分提供了p2详细信息。具体来说,它在此Wiki页面中表示p2将在查找新组件后进行查找。 我想(但是您可以根据自己的经验确认这一点),p2可以运行文件“ file://”协议

  • 本地运行模式 本地运行模式主要用于测试功能是否正确。目前本地运行模式仅支持一个Worker(可以有多个Task)和一个PS。可以通过配置选项angel.deploy.mode来使用本地运行模式,具体的参数配置可参考Angel系统参数 1. 运行环境准备 Java >= 1.8 Angel发布包 angel-\-bin.zip 配置好HADOOP_HOME和JAVA_HOME环境变量,解压Angel

  • 我用ReactJS制作了一个网络应用程序。它在本地主机上运行良好。然而,当我部署到Azure时,每次导航到新页面或重新加载页面时,我都会收到404个错误。 我正在使用Browser路由器,我从网上查看中了解到这有时会导致问题,但我还没有找到解决它的方法。 我在 GitHub 中有该应用程序,因此在 Azure 中我链接到存储库。除了由create-react-app生成的代码外,我还有一个web.

  • 问题内容: 我有一个由Dockerfile创建的以下图像: 我有以下YAML文件: 创建部署时,我在窗格中获得以下信息: 和下面的错误: 为此,在docker中真正有必要注册吗?我只想在本地进行测试并将我的代码/存储库传递给朋友以进行测试 谢谢 问题答案: 您可以通过运行将Docker客户端指向VM的docker守护程序 然后,您可以正常使用kubectl构建映像并正常创建kubernetes资源

  • 我习惯于做出反应并执行以使我的应用程序在本地运行。但是,当我在新项目上运行该脚本时,它会提示没有开始脚本。经进一步检查,没有。 如果这是我的的样子,我如何让它在本地运行? 这是一个Laravel环境,后端使用PHP,前端使用Vue。我觉得自己真的很愚蠢,因为我不知道这一点,但当我搜索时,我也没有找到任何东西。 我正在使用PhpStorm,我下载了XAMPP、Composer和PHP。我不确定我错过