当前位置: 首页 > 知识库问答 >
问题:

Spark:检查集群UI以确保工人已注册

陆昊
2023-03-14
/* SimpleApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object SimpleApp {
  def main(args: Array[String]) {
    val conf = new SparkConf().setMaster("spark://10.250.7.117:7077").setAppName("Simple Application").set("spark.cores.max","2")
    val sc = new SparkContext(conf)    
    val ratingsFile = sc.textFile("hdfs://hostname:8020/user/hdfs/mydata/movieLens/ds_small/ratings.csv")

    //first get the first 10 records 
    println("Getting the first 10 records: ")
    ratingsFile.take(10)    

    //get the number of records in the movie ratings file
    println("The number of records in the movie list are : ")
    ratingsFile.count() 
  }
}
val ratingsFile = sc.textFile("hdfs://hostname:8020/user/hdfs/mydata/movieLens/ds_small/ratings.csv")
println("Getting the first 10 records: ")
ratingsFile.take(10)    
println("The number of records in the movie list are : ")
ratingsFile.count() 

警告TaskSchedulerImpl:初始作业未接受任何资源;检查集群UI以确保工作人员已注册并具有足够的资源

另外,在Spark UI中,我看到了以下内容:

作业持续运行-火花

编辑:

我检查了HistoryServer,这些作业没有显示在那里(即使在不完整的应用程序中)

共有1个答案

郤令
2023-03-14

我已经为许多spark集群进行了配置和性能调优,当您第一次准备/配置集群以处理您的工作负载时,这是一个非常常见/正常的消息。

这显然是由于启动作业的资源不足。作业正在请求下列操作之一:

  • 每个工作者的内存大于分配给它的内存(1GB)
  • 群集上的CPU比可用的多
 类似资料:
  • 我在Cassandra上创建了一个文本数据选择程序。这是我的代码。这只是一个简单的选择所有数据并显示在控制台。 这是什么意思?难道师傅和工人之间没有减刑?多谢

  • 问题内容: 我正在尝试从运行火花示例,并得到以下一般性错误: 我使用的版本是我使用Shell中的命令启动spark ,然后将我设置为: 我没有在这里添加任何其他代码,因为此错误在我正在运行的任何示例中都会弹出。这台机器是Mac OSX,我很确定它有足够的资源来运行最简单的示例。 我想念什么? 问题答案: 该错误表明您的集群没有足够的资源用于当前作业。由于尚未启动从属服务器,即worker。集群将没

  • 我正在AWS EMR上运行一个火花集群。如何在不使用spark UI的情况下获得在AWS EMR上运行的作业和执行器的所有细节。我打算用它来监视和优化。

  • > 提交应用程序未设置,然后它将创建 1名16芯工人 使用提交,然后它将创建一个包含15个核心的worker

  • 工人出现在图片上。为了运行我的代码,我使用了以下命令:

  • 我使用http://spark.apache.org/docs/latest/streaming-kafka-integration.html中的方法2,我使用检查点,当我必须更改代码和重新部署代码时,有时检查点会抛出异常,如果出于某种原因,我必须删除检查点目录,我如何重用检查点目录文件夹从kafka获取消息,我认为检查点目录存储了kafka偏移量。