我遵循以下文档(特别是编写到Cloud Bigtable):https://cloud.google.com/bigtable/docs/hbase-dataflow-java(我正在尝试1.3.0版和1.4.0版。)
在运行管道之前,此步骤会出现错误:
CloudBigtableScanConfiguration config = new CloudBigtableScanConfiguration.Builder()
.withProjectId("project-id")
.withInstanceId("instance-id")
.withTableId("table")
.build();
(请注意,文档没有说明如何为“writing”部分创建此“config”实例,但我尝试了以上两种方法(从“reading”部分复制,然后删除“.withScan()”行以及CloudBigTableConfiguration)。生成器,而不是ScanConfig。我这边的结果是一样的。)
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/beam/sdk/repackaged/com/google/common/base/Preconditions
at com.google.cloud.bigtable.beam.CloudBigtableConfiguration.setValue(CloudBigtableConfiguration.java:142)
at com.google.cloud.bigtable.beam.CloudBigtableConfiguration.<init>(CloudBigtableConfiguration.java:137)
at com.google.cloud.bigtable.beam.CloudBigtableTableConfiguration.<init>(CloudBigtableTableConfiguration.java:116)
at com.google.cloud.bigtable.beam.CloudBigtableScanConfiguration.<init>(CloudBigtableScanConfiguration.java:178)
at com.google.cloud.bigtable.beam.CloudBigtableScanConfiguration$Builder.build(CloudBigtableScanConfiguration.java:160)
at com.moloco.dataflow2.Main.main(Main.java:60)
Caused by: java.lang.ClassNotFoundException: org.apache.beam.sdk.repackaged.com.google.common.base.Preconditions
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 7 more
似乎未找到前提条件。https://github.com/GoogleCloudPlatform/cloud-bigtable-client/blob/c87f8aef59320f240697fb015dbbc7142a2a679f/bigtable-dataflow-parent/bigtable-hbase-beam/src/main/java/com/google/cloud/bigtable/beam/CloudBigtableConfiguration.java#L143
我们遇到了Beam SDK 2.0/2.1/2.4的问题,因此我们正在尝试从1.9.1迁移到2.5,Bigtable连接器是我们经常使用的一个重要功能。
哪款Beam SDK(java)与bigtable hbase Beam 1.3.0兼容(如果尚未与2.5兼容)?
除其他外,我们使用了以下内容:
compile group: 'com.google.cloud.bigtable', name: 'bigtable-hbase-beam', version: '1.3.0'
compile 'com.google.cloud.dataflow:google-cloud-dataflow-java-sdk-all:2.5.0'
还尝试了编译组织。阿帕奇。beam:beam运行google cloud dataflow java:2.5.0,但有相同的错误。
更新:Gradle依赖树表明连接器sdk需要束2.3,所以我尝试了2.3
这是bigtable-hbase-梁中的一个错误。这是建议的修复。
问题内容: 我们正在使用加载属性信息。我们的属性文件已经变得非常庞大,我们正在考虑将主属性文件分成几个子模块。有可能实现这一目标吗? 让我知道? 问题答案: 首先,我想知道为什么您选择了。给出问题的表达方式后,您似乎不必关心本地化/国际化或捆绑文件继承。 有了它,它就变得异常容易,因为它实现了反过来又提供了一种合并另一张地图的方法。开球示例: 如果您真的坚持使用,则最好的选择是创建一个自定义,在该
我在google和stack overflow中几乎到处都搜索到了这个。 我们所在的项目使用的是 JBoss EAP 6.3 和 IBM MQ 8.0。现在,我们正在迁移到 JBoss EAP 7.1,在此过程中,我们在服务器中部署战争时遇到了一些问题。错误是这样的... 我可以在以下位置搜索并找到一些IBM MQ限制(JBoss EAP 7.1) 红帽JBoss企业应用平台 但该限制是关于IBM
我想我刚刚发现两种不同的JPA实现对约束违规和回滚的工作方式不同。 哪个实现是正确的? 如您所见,Bean验证似乎对两个提供程序都启用了。 EclipseLink将CVE打开,并标记回滚 和Hibernate在上抛出RB。
问题内容: 我有一个要运行验证的SQLAlchemy模型。验证的一部分是确保(少数)列上存在UniqueConstraint。我知道列是什么。使用SQLAlchemy可以做到这一点吗?我正在使用的基础数据库是MySQL。 问题答案: 您可以使用SQLalchemy反射API。 为了获得唯一约束,请发出get_unique_constraints。 主键是唯一的,因此您也必须发出get_pk_con
问题内容: 在一个假设的场景中,我是没有表创建特权的用户。我想知道表中的列是否具有 UNIQUE CONSTRAINT 。是否可以在 词典中 查找?我将如何处理? 问题答案: 此处给出的两个答案都缺少一种在列上实施唯一性的方法:通过创建 唯一索引 (而不在列上定义唯一约束)。如果您不熟悉此选项,请参见这两个链接(一个,两个)。 除 唯一约束检查 外 ,还应执行此检查: 要检查唯一约束,请使用已经提
问题内容: Selenium 2.42.2 Webdriver是否与Firefox27.0.1兼容?如果不是,那么它与哪个Firefox版本兼容?我正在使用Selenium 2.42.2 webdriver。我编写的测试代码是: 当我运行此程序时,Firefox启动,然后什么也没有发生。我预感这是兼容性问题。顺便说一句,我也尝试了最新版本的Firefox,但结果相同。我可以在这里使用一些帮助或指导