尝试通过首先运行
$ mvn archetype:generate \
-DarchetypeGroupId=org.apache.beam \
-DarchetypeArtifactId=beam-sdks-java-maven-archetypes-examples \
-DarchetypeVersion=2.0.0 \
-DgroupId=org.example \
-DartifactId=word-count-beam \
-Dversion="0.1" \
-Dpackage=org.apache.beam.examples \
-DinteractiveMode=false
然后运行
$ mvn compile exec:java -Dexec.mainClass=org.apache.beam.examples.WordCount -Dexec.args="--inputFile=pom.xml --output=counts" -Pdirect-runner
并得到以下错误
[错误]执行目标组织失败。科德豪斯。project word count beam上的mojo:exec-maven插件:1.4.0:java(默认cli):执行java类时发生异常。null:InvocationTargetException:java。lang.IllegalStateException:无法找到d的注册器-
然而,如果我运行2017年3月下载并构建的同一个项目(Beam v0.6.0),一切都正常。我只是想知道是什么更新的Beam版本导致了这个错误。
此错误似乎表明您正试图访问具有无效方案的文件。它来自这里:文件系统。Java语言
这可能是您的操作系统的问题。
您能否提供有关操作系统和开发环境的信息?
编辑:既然你正在使用视窗系统,正如你所说的和MeetJoeBlack解释的那样——我的第一个假设可能是正确的。
我建议您尝试使用这个Maven Docker映像通过Docker运行代码
如果你需要更多的帮助,请给我打电话。
发生此错误的原因是TextIO#from(“path\u to\u file”)方法不支持Windows文件系统路径。例如,以下代码引发IllegalStateException:
TextIO.read().from("d:\\file.txt") // also "file:\\D:\\file.txt" throw exc
线程"main"中的异常org.apache.beam.sdk.Pipeline$PipelineExecutionException:java.lang.IllegalStateException:无法找到d的注册器
我希望Apache Beam团队在不久的将来修复它。。。
我想我在文档上遵循了非常多的步骤,但我仍然遇到了这个异常。(唯一的不同是我从Eclipse J2EE运行它,但我不会期望这真的很重要,不是吗?) 代码:(这不是我写的,它来自梁项目示例)。我认为您必须指定一个google云平台项目,并提供访问该项目的正确凭据。然而,在这个示例项目中,我没有找到进行设置的地方。 例外情况:
我试图在Hadoop 1.0.4和Ubuntu 12.04上用C++运行wordcount示例,但我得到以下错误: 错误消息: 13/06/14 13:50:11警告Mapred.JobClient:未设置作业jar文件。可能找不到用户类。请参阅JobConf(Class)或JobConf#setjar(String)。13/06/14 13:50:11 INFO util.NativEcodeL
我正在尝试自学一些hadoop基础知识,因此已经构建了一个简单的hadoop集群。这样可以工作,并且我可以从hdfs文件系统中put,ls,cat而没有任何问题。所以我采取了下一步,尝试对我放入hadoop的文件进行单词计数,但我得到了以下错误 我可以ls Hadoop: hadoop版本: hadoop类路径: 很明显我错过了什么,所以谁能给我指出正确的方向。
我只是重新运行了以下命令:、、。但现在我得到以下错误: 13/11/10 20:52:12 ERROR Security.usergroupInformation:PriviledgedActionException as:hduser case:org.apache.hadoop.ipc.remoteException:org.apache.hadoop.mapred.safemodeExcep
我正在尝试运行WordCount Map/Reduce作业的示例代码。我正在Hadoop1.2.1上运行它。我用我的日食来运行它。下面是我尝试运行的代码: 13/11/04 13:27:53 INFO Mapred.JobClient:任务Id:Attitt_201310311611_0005_M_000000_0,状态:失败java.lang.RuntimeException:java.lang
apachebeam中的核心转换(Map、Filter、flatte)是否使用并行处理来处理数据元素,如果是,具体什么时候应该使用ParDo转换?