请查找以下数据流作业详细信息:作业ID:2017-10-17_22_03_20-14123260585966292858作业名称:limit-test-file12-1508302687176批次:批次开始时间:2017年10月18日上午10:33:21状态:取消...地区:us-central1
作业日志详细信息:2017-10-18(11:34:56)工作流失败。原因:(b2725d597b8162b3):数据流似乎卡住了。请向T...(b2725d597b81635e):工作流失败。原因:(b2725d597b8162b3):数据流似乎卡住了。请联系Dataflow团队,网址是http://stackoverflow.com/questions/tagged/google-cloud-dataflow。
谢谢,普拉萨德·凯达里
此作业成功,但由于数据流服务端的一个问题,在终止过程中被卡住了。这个问题后来得到了解决。当它被卡住时,该工作的VMs已经关闭,所以你不会因为笨拙而被收费。给您带来的不便,我们深表歉意。
我通过直接将作业文件夹删除到文件系统中来执行手动清理,现在我发现一个运行中的作业被阻塞,无法中止。 我尝试了这里的答案来迫使它停止,但它不起作用,因为它无法在系统中找到现有的工作。 此外,当我点击正在运行的作业时,会出现404错误: 我是否可以在不重新启动服务器的情况下中止正在运行的作业?
我在Hazelcast喷气式飞机上遇到过奇怪的行为。我正在同时开始很多工作(~30个,有些在其他工作之前稍微触发)。然而,当我的榛子喷气机任务数达到26(魔法数?)时,所有处理都被卡住了。 在threadumps中,我看到以下信息: 我的设置:-java11-hazelcast 3.12 snapshot-hazelcast Jet 3.0 Snapshot(我不能恢复到以前的版本,它会破坏我的逻
问题内容: 我正在使用当前系统时间在表中插入数据,例如 。因此,在获取数据时,我仅需要获取最后3个小时的数据。 以下链接对我没有帮助。因为此链接使用的是我没有的特定日期格式。 从SQLite获取根据过去小时的数据 这是我的查询,但似乎无法正常工作。 插入时时间戳只不过是当前系统时间。 请给我任何参考或提示。 问题答案: 您可以使用以下方法获取3小时的时间戳记 然后,您可以传递给查询。 或者您可以在
我正在使用2.1.0 SDK和cloudshell来启动我的工作。 (606330F83AB2470F):工作流失败。原因:(606330F83AB24C58):数据流似乎卡住了。请联系Dataflow团队,网址是http://stackoverflow.com/questions/tagged/google-cloud-dataflow。
在我的测试中,我试图从FTP下载一个文件。当我在本地PC或BrowserStack上运行这个程序时,它工作得很好,但当我将它上传到jenkins时,它会被卡在队列中。我不明白有什么区别为什么它不在詹金斯身上运行?我设法建立了到FTP的连接。下面显示的代码是下载文件的方法。 布尔成功=ftpClient。retrieveFile(远程文件、输出流);
目前,我们正在库伯内特斯上使用自己安装的气流版本,但想法是在云作曲家上迁移。我们使用Airflow运行数据流作业,使用DataFlowJavaoperator的自定义版本(使用插件),因为我们需要执行java应用程序,而java应用程序不是在jar中自包含的。因此,我们基本上运行一个bash脚本,该脚本使用以下命令: 所有jar依赖项都存储在所有辅助角色之间的共享磁盘中,但是在Composer中缺