当前位置: 首页 > 知识库问答 >
问题:

在同一应用程序的任务(映射函数)中创建spark任务

张和豫
2023-03-14

共有1个答案

尤博达
2023-03-14

是否可以从任务中打开“子任务”?

不,至少不是以健康的方式*

任务是从驱动程序发送的命令,Spark作为一个驱动程序(中央协调器)与许多分布式工作人员(执行者)通信。

    null
 类似资料:
  • 我们的第一个开发任务就是创建网站入口,让我们可以维护商品信息,包括创建商品,编辑已经创建的商品以及删除不需要的商品等等。我们会通过小步迭代的方式开发应用程序,而小步的意思是「在可度量的几分钟内」。一般情况下,我们的迭代包含多个步骤,比如迭代 C 中会有步骤 C1,C2,C3 等等。当前这个迭代中只包含两步。让我们开始吧。 迭代 A1:创建商品维护应用 Depot 应用的核心其实是一个数据库。在后面

  • 我有一个工作,需要一个HiveQL连接2个表(2.5TB,45GB),重新分区到100,然后做一些其他的转换。这是早些时候执行的罚款。 作业阶段:阶段0:配置单元表1扫描阶段1:配置单元表2扫描阶段2:连接的钨交换阶段3:修复的钨交换 今天这项工作陷入了第二阶段。在200个应该执行的任务中,没有一个任务已经开始,但是290个任务由于执行程序被抢占而失败。 在深入研究阶段时,它说“执行者没有报告度量

  • 我是火花的新手。我有几个关于Spark Web UI的问题 > 我已经看到Spark可以为同一个应用程序创建多个作业。它创造就业岗位的基础是什么? 我知道 Spark 围绕随机播放边界为单个作业创建多个阶段 。另外,我知道每个分区有个任务 。但是,我已经看到,特定作业的特定阶段(例如阶段1)创建的任务数量少于默认的随机分区值(例如,仅完成)。我还看到,同一个作业的下一阶段(第2阶段)创建了 个任务

  • 问题内容: 这是build.gradle 在这里,我使用Gradle Build。()生成签名的APK 。3.构建任务app:processReleaseResources失败。 这是堆栈跟踪: 我被卡在这里任何解决方案如何解决此问题,请帮助我。 问题答案: 经过阅读了很多文章之后,我终于找到了解决这个问题的方法。 此问题是由于sdk工具版本不匹配所致。 build.gradle文件中的目标sdk

  • 每个 gulp 任务(task)都是一个异步的 JavaScript 函数,此函数是一个可以接收 callback 作为参数的函数,或者是一个返回 stream、promise、event emitter、child process 或 observable (后面会详细讲解) 类型值的函数。由于某些平台的限制而不支持异步任务,因此 gulp 还提供了一个漂亮 替代品。 导出任务 任务(tasks

  • 我使用阿帕奇火花2.1和阿帕奇Kafka0.9。 我有一个Spark Streaming应用程序,它与20个执行程序一起运行,并从具有20个分区的Kafka读取。此Spark应用程序仅执行和操作。 以下是Spark应用程序的作用: 从kafka创建一个直接流,间隔15秒 执行数据验证 使用仅映射的drool执行转换。没有减少转换 使用检查和放置写入HBase 我想知道,如果执行器和分区是1-1映射