上周,我安装了基于Docker/Kubernetes的Spring Cloud数据流版本
虽然没有明显的错误,但事情并不正常。
我可以在web UI和Spring Cloud数据流Shell中创建流和任务,但没有运行。
我对任务最感兴趣。
从描述中看不出什么是失败的。也许如果你能更新它更多的细节,它将是有用的。
从故障排除的角度来看,当部署流或如果由于任何原因导致任务启动失败时,它们将被记录在scdf-server/skipper-server日志中。您必须跟踪各个吊舱的日志,以了解更多关于故障的信息。
此外,验证kubectl description pod/
的输出以查看是什么原因导致流/任务pod无法成功启动,也会很有用。它们通常在命令输出的末尾列出。
通常的怀疑是由于POD的健康检查失败和/或流/任务应用程序docker映像在运行时无法解决。当然,你会在日志中看到原因。
我的 Windows 机器上运行了一个 docker 容器,它是使用官方文档中提供的 docker-compose 文件的改编版本构建的。 这工作得很好,但是我想将python脚本(我的任务)从已挂载的文件夹中移动到它们自己的docker容器中。 为了测试这一点,我创建了一个简单的“Hello World!”示例-脚本: 它与以下简单的docker文件一起 我可以用< code > docker
每次我们启动spring云任务时,它都会启动一个新的jvm(java.exe),所以如果启动了25个任务,那么它就会启动25个jvm。 我想知道如何同时限制所有任务(为所有部署的JAR运行)的总数? 假设我必须将一次运行的所有任务的总数限制为25个。在SCDF中有什么设置我们可以做到这一点吗? 请让我知道
我实现了Spring云任务示例中给出的示例批处理作业示例。其中使用的 Spring 引导版本是 2.0.1.RELEASE。由于我必须移植另一个作业,因此我必须启动云任务,因此我想找到兼容的最旧版本。使用 1.3.2.RELEASE 创建的批处理作业的 jar 作为 Spring 引导版本成功运行。但是当我在将其添加为应用程序后从 Spring 云数据流的 UI 运行它时,出现以下错误:
目前,我正在从Spring XD作为我的工作流和运行时环境转移到Spring Cloud DataFlow和Apache Airflow。我想在Airflow中创建工作流,并使用自定义的Airflow操作员通过REST-API在Spring Cloud DataFlow服务器上运行Spring Cloud任务。 可以使用: 不幸的是,DataFlow在此请求中不返回作业执行ID,以创建用于监视应用
问题内容: 假设我们正在集群模式下工作,我们有三个节点: 经理1 工人1 工人2 是否可以创建服务并指定任务仅在工作者(worker1和worker2)中运行,而不必在管理者(manager1)中运行 我正在运行以下命令来创建服务: 当我ps服务时: 我得到: 问题答案: 虽然您可以使用 约束 (带有)根据节点的角色(管理者或工作人员)消除节点的子集,但我将通过以下方式 使Manager不再像Wo
原因:com.Google.API.client.googlejsonresponseException:403禁止{“代码”:403,“错误”:[{“域”:“全局”,“消息”:“项目尚未启用API。请使用谷歌开发人员控制台激活项目的'DataFlow'API。”,“原因”:“禁止”}],“消息”:“项目尚未启用API。请使用谷歌开发人员控制台激活项目的'DataFlow'API。”,“状态”:“