当前位置: 首页 > 知识库问答 >
问题:

Zeppelin+Spark+Kubernetes:让Zeppelin作业在现有Spark集群上运行

壤驷深
2023-03-14

在k8s集群中。如何配置zeppelin在现有spark集群中运行spark作业,而不是旋转一个新的Pod?

我有一个k8s集群正在运行,我想在其中运行与齐柏林飞艇的火花。

Spark使用官方的Bitnami/Spark helm chart(v3.0.0)进行部署。我有一个主舱和两个工人舱运转良好,一切都很好。

短伪DockerFile:

FROM bitnami/spark:3.0.0 AS spark 
FROM apache/zeppelin:0.9-0 AS Zeppelin 
COPY --from spark /opt/btinami/spark/ /opt/bitnami/spark  
RUN Install kubectl 
END

我稍微修改了zeppelin-server.yaml。(Image,imagePullSecret,将spark master设置为spark master的无头服务DNS)

现在我想让我的齐柏林作业在我现有的spark集群上运行---但没有成功。

亲切地问候鲍勃

共有1个答案

乜承嗣
2023-03-14

过了一段时间才回答自己...

对于遇到同样问题的人:

>

  • 进入spark解释器设置

      null

  •  类似资料:
    • 我一直试图用Spark2.0配置Apache Zeppeling。我设法将它们都安装在linux操作系统上,并将spark设置在8080端口上,而zeppelin服务器设置在8082端口号上。 在zeppelin的zeppelin-env.sh文件中,我将SPARK_HOME变量设置为Spark文件夹的位置。 然而,当我试图创建一个新节点时,没有正确的编译。我似乎没有配置解释器,因为开始选项卡中缺

    • 正如标题所预期的,我在向docker上运行的spark集群提交spark作业时遇到了一些问题。 我在scala中写了一个非常简单的火花作业,订阅一个kafka服务器,安排一些数据,并将这些数据存储在一个elastichsearch数据库中。 如果我在我的开发环境(Windows/IntelliJ)中从Ide运行spark作业,那么一切都会完美工作。 然后(我一点也不喜欢java),我按照以下说明添

    • 我已经在我的Windows7机器上设置了一个本地spark集群(一个主节点和辅助节点)。我已经创建了一个简单的scala脚本,我用sbt构建了这个脚本,并尝试用Spark-Submit运行这个脚本。请参阅以下资源 Scala代码: 现在,我用sbt构建并打包scala代码,并将其打包到一个JAR中。我的build.sbt文件如下所示 它创建一个jar,我使用spark submit命令提交它,如下

    • 我正在Linux服务器上运行Spark2.0和Zeppelin-0.6.1-bin。默认的spark笔记本运行得很好,但当我尝试使用sqlContext在pyspark中创建并运行一个新笔记本时,我得到错误“py4j.py4jException:Method createDataFrame([class java.util.ArrayList,class java.util.ArrayList,n

    • 我有一个在AWS EC2机器上运行的HortonWorks集群,我想在上面运行一个使用spark streaming的spark工作,该工作将吞下tweet concernings《权力的游戏》。在尝试在集群上运行它之前,我确实在本地运行了它。代码正在工作,如下所示: 我的问题更确切地说是关于这段特定代码行: 17/07/24 11:53:42 INFO AppClient$ClientEndpo

    • Zeppelin 是由奇虎 Pika 实验室和 DBA 团队开发和维护的分布式 Key-Value 平台,设计灵感来自 Pika 和Ceph 。 Zeppelin 旨在提供高性能,高可靠性和高可扩展性的 KV 存储服务。基于 Zeppelin ,可以轻松构建其他服务,如 Table Store,S3 或 Redis 。 API 接口: 基本的 KV 存储相关接口:Set、Get、Delete; 支