当前位置: 首页 > 知识库问答 >
问题:

ApacheFlink-WordCount-NoResourceAvailableException

洪念
2023-03-14

安装(下载

   Caused by: org.apache.flink.runtime.jobmanager.scheduler.NoResourceAvailableException: Could not allocate the required slot within slot request timeout. Please make sure that the cluster has enough resources.
    at org.apache.flink.runtime.scheduler.DefaultScheduler.maybeWrapWithNoResourceAvailableException(DefaultScheduler.java:441)
    ... 45 more
Caused by: java.util.concurrent.CompletionException: java.util.concurrent.TimeoutException
    at java.util.concurrent.CompletableFuture.encodeThrowable(CompletableFuture.java:292)
    at java.util.concurrent.CompletableFuture.completeThrowable(CompletableFuture.java:308)
    at java.util.concurrent.CompletableFuture.uniApply(CompletableFuture.java:607)
    at java.util.concurrent.CompletableFuture$UniApply.tryFire(CompletableFuture.java:591)

这是Flink的默认配置。

Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                8
On-line CPU(s) list:   0-7
Thread(s) per core:    1
Core(s) per socket:    1
              total        used        free      shared  buff/cache   available
Mem:             62           1          23           3          37          57
Swap:             7           0           7

关于这里发生了什么事,有什么建议吗?

共有1个答案

夏星阑
2023-03-14

此问题已在Flink 1.11.3中修复。请参考此链接。

 类似资料:
  • 我刚刚开始使用apache spark,并试图让kafka wordcount在Python中工作。我已经决定使用python语言,因为它是一种我可以用于其他大数据技术的语言,而且数据库也通过Spark提供它们的课程。 Kafka主题中的数据

  • 主要内容:1.MapReduce概述,2.WordCount单词统计1.MapReduce概述 MapReduce 原理 MapReduce 是一种变成模式,用于大规模的数据集的分布式运算。通俗的将就是会将任务分给不同的机器做完,然后在收集汇总。 MapReduce有两个核心:Map,Reduce,它们分别单独计算任务,每个机器尽量计算自己hdfs内部的保存信息,Reduce则将计算结果汇总。 2.WordCount单词统计 2.1 数据准备test.txt 2.

  • 我正在尝试自学一些hadoop基础知识,因此已经构建了一个简单的hadoop集群。这样可以工作,并且我可以从hdfs文件系统中put,ls,cat而没有任何问题。所以我采取了下一步,尝试对我放入hadoop的文件进行单词计数,但我得到了以下错误 我可以ls Hadoop: hadoop版本: hadoop类路径: 很明显我错过了什么,所以谁能给我指出正确的方向。

  • 我只是重新运行了以下命令:、、。但现在我得到以下错误: 13/11/10 20:52:12 ERROR Security.usergroupInformation:PriviledgedActionException as:hduser case:org.apache.hadoop.ipc.remoteException:org.apache.hadoop.mapred.safemodeExcep

  • 我注意到,每次我运行一个新作业时,它所花费的时间比我再次启动它时长20%左右? 如果一个作业运行多次,flink是否缓存一些结果并重用它们?如果是,我如何控制这一点? 我想测量我的任务运行了多长时间,但每次我重新运行它们时,速度都比以前快。