当前位置: 首页 > 知识库问答 >
问题:

警告cluster.yarnScheduler:初始作业尚未接受任何资源

洪承天
2023-03-14

我运行的任何spark作业都将失败,并出现以下错误消息

您可以从作业时间线中注意到,它将无限期运行,并且不会添加或删除任何资源。1

共有1个答案

百里朝
2023-03-14

第一点是,如果有足够的资源,如节点、CPU和内存可用于yarn,它可以使用动态分配来创建具有适当默认内核和内存分配的spark worker。

在我的情况下,我需要关闭动态分配,因为我的资源水平非常低。

因此,我在pyspark中设置了以下值:

conf = (SparkConf().setAppName("simple")
        .set("spark.shuffle.service.enabled", "false")
        .set("spark.dynamicAllocation.enabled", "false")
        .set("spark.cores.max", "1")
        .set("spark.executor.instances","2")
        .set("spark.executor.memory","200m")
        .set("spark.executor.cores","1")
    null

集群模式不太适合交互地使用Spark。需要用户输入的Spark应用程序,如spark-shell和pyspark,需要Spark驱动程序在启动Spark应用程序的客户端进程中运行。

客户端模式可以在环境中设置如下
export pyspark_submit_args='--master yarn--deploy-mode Client pyspark-shell'

 类似资料:
  • 我试图在IPython笔记本中运行简单的WordCount作业,并将Spark连接到AWS EC2集群。当我在本地独立模式下使用Spark时,该程序可以很好地工作,但当我试图将其连接到EC2集群时,该程序会出现问题。 我已采取以下步骤 我已经看到了这个Stackoverflow帖子,并通过在main命令后使用这些选项将核心数减少到1,内存减少到512 来自SparkUI的屏幕截图如下所示 这清楚地

  • 在集群UI上- 工人(奴隶)-工人-20160712083825-172.31.17.189-59433活着 已使用2个中的1个核心 活动阶段 /root/wordcount.py处的reduceByKey:23 悬而未决阶段 根据TaskSchedulerImpl:初始作业尚未接受任何资源;我分配的 火花环境变量 在奴隶身上复制了那些 Spark版本1.6.1 Ubuntu Amazon EC2

  • 问题内容: 我正在尝试学习log4j,所以我只是尝试做一些非常简单的事情。 但是做完之后我得到了; 你知道我错了吗? 谢谢你们 问题答案: 您在类路径中缺少或。 您可以使用 但是请注意,这只会登录到System.out,因此不建议这样做。您实际上应该使用上面的文件之一,然后将其写入日志文件。 一个非常简单的例子是

  • 问题内容: 我在玩图书馆。我想从PostgreSQL数据库中检索数据。我得到的错误对我来说很奇怪。即使我手动配置CP: 我仍然看到错误。这是我的DAO: 该应用程序: 我的档案 错误: 我错过了什么? 问题答案: 要加载,应提前调用scalikejdbc-config 。 http://scalikejdbc.org/documentation/configuration.html#scalike

  • 我正在baremetal Kubernetes集群上测试Spark 2.3.1(独立)。我有一个集群,有两个虚拟机,都有8GB的ram和两个内核。我已经部署了一个具有一个主节点和两个从节点的集群。节点日志似乎是正确的,工人被正确地注册到主机: 主日志 工作日志 并且,根据GUI,工作人员似乎已经准备好并能够与主程序通信。 Spark GUI 我已经在spark容器上打开了以下端口: null wo

  • Json服务器数据显示,在使用retrofit2和rxjava2的android中,当参数传递给inteface时,会出现错误。 接口