当前位置: 首页 > 知识库问答 >
问题:

在Windows 10上设置spark群集

戚侯林
2023-03-14

我试图设置一个火花3光泽使用两个系统运行Windows10。我可以开始用master

spark-class org.apache.spark.deploy.master.master-h ,它在spark:// :7077 启动主程序

共有1个答案

壤驷俊逸
2023-03-14

您应该通过传递:

...Worker spark://<MASTER IP>:7077
 类似资料:
  • 我创建了一个AWS密钥对。 我在这里逐字逐句地遵循指示:https://aws.amazon.com/articles/4926593393724923 当我键入“aws emr创建集群——名称SparkCluster——ami版本3.2——实例类型m3.xlarge——实例计数3——ec2属性KeyName=MYKEY——应用程序名称=Hive——引导操作路径=s3://support.elas

  • 问题内容: 我尝试在Google Container Engine的群集节点上安装ElasticSearch(最新版本),但是ElasticSearch需要变量:>> 262144。 如果我ssh到每个节点并手动运行: 一切正常,但是任何新节点将没有指定的配置。 所以我的问题是: 有没有办法在引导时在每个节点上加载系统配置?Deamon Set并不是一个好的解决方案,因为在Docker容器中,系统

  • 我已经用intelliJ编写了一个spark scala(sbt)应用程序,我想在Azure databricks上托管的远程集群上运行它。为了避免手动将JAR上传到dbfs中,需要遵循哪些步骤来测试代码

  • 正如标题所预期的,我在向docker上运行的spark集群提交spark作业时遇到了一些问题。 我在scala中写了一个非常简单的火花作业,订阅一个kafka服务器,安排一些数据,并将这些数据存储在一个elastichsearch数据库中。 如果我在我的开发环境(Windows/IntelliJ)中从Ide运行spark作业,那么一切都会完美工作。 然后(我一点也不喜欢java),我按照以下说明添

  • 我是一名spark/纱线新手,在提交纱线集群上的spark作业时遇到exitCode=13。当spark作业在本地模式下运行时,一切正常。 我使用的命令是: Spark错误日志: