我想使用Java中的csvbulkloadtool
将csv数据文件放入HBase表中。
HBase和Phoenix在Ubuntu虚拟机上运行。
从Windows运行csvbulkloadtool.run()
时,会出现下一个异常:
java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.
顺便说一句,当我java-jar
我的示例应用程序在Ubuntu VM上运行时,我会遇到nex异常:
java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
其中/usr/local/phoenix-samples-1.0-snapshot-jar-with-dependencies.jar
是Ubuntu VM上的实际jar文件位置。
我在这里使用了CSVBulkloadTool
示例。
此外,当我使用普通的JDBC通过Phoenix连接和填充表时,一切都正常。
CSVBulkloadTool应该作为Hadoop jar
运行。
所以我应该运行:Hadoop jar my-application-with-csvbulkloadtool.jar
问题内容: 我正在从日食中运行WordCount程序。我尝试使用Hadoop1.x正常运行。在hadoop2.x上运行时面临的问题 我尝试了1)将所有xml添加到我的类路径中。2)还尝试了conf.set(),在conf对象中设置xml属性。 在日志中还显示:-没有可用于容器container的日志_1394042163908_0573_01_000001 问题答案: 我已经解决了这个问题,有一个
我正在尝试在Anaconda中导入pyspark并运行示例代码。然而,每当我尝试在Anaconda中运行代码时,我都会得到以下错误消息。 错误:py4j.java_gateway:尝试连接到Java服务器时出错(127.0.0.1:53294)追溯(最近一次调用):文件“C:\spark\python\lib\py4j-0.10.3-src.zip\py4j\java_gateway.py”,第1
问题内容: 我知道关于在Windows上运行Docker有很多问题,但是这个问题是关于在Windows上运行全新的Windows Docker。 就我而言,我使用的是Windows 10 Pro 64位。根据站点,此版本应受支持。 我一直在遵循在这里找到的教程:https : //prakhar.me/docker-curriculum/ 我也尝试按照官方指南进行操作:https : //docs
我正在使用Sonarqube优化项目中的代码质量,并尝试将其添加到GitLab上的CI周期中,但出现了一个错误。当我在IntelliJ终端中运行mvn sonar:sonar时,它可以工作,但在我的GitLab CI中执行时不知何故抛出了一个错误。错误是: 无法执行目标组织。声纳源。扫描仪。maven:sonar maven插件:3.7.0.1746:rlstop项目上的sonar(默认cli):
我正在尝试在我的Windows10机器中运行Hadoop3.1.1。我修改了所有文件: null 然后,数据阳极就会关闭!我尝试了几种方法来克服这个错误,但这是我第一次在windows上安装Hadoop,不明白下一步该怎么做!
问题内容: npm 已安装并正在IntelliJ IDEA 15中被积极使用 我的目标是在IntelliJ中为我的TypeScript源代码生成类型,但是我想学习使用Windows命令行,因此我可以显式指定命令行选项,以了解每个选项的作用。我对Googling所发现的与设置和使用它有关的各种花絮感到困惑…我敢肯定,我缺少一些非常基本的知识,那些博客或回答问题的人都认为这是常识。 。 这是我尝试过的