insert into table test values(1,'2231');
然后错误显示在蜂巢:
失败:执行错误,从org.apache.hadoop.hive.ql.exec.mr.MapRedWork返回代码-101。org.apache.hadoop.mapreduce.v2.util.MRApps.setEnvFromInputProperties(Ljava/util/Map;Ljava/lang/String;Ljava/lang/String;Lorg/apache/hadoop/conf/Configsion;)V
我查了一下hive.log.it显示
2021-03-17T17:25:30,851 ERROR[0ca47af1-d66d-4aa2-86cd-0a3a42cc53a6 main]exec. TaskRunner:在执行任务java.lang.NoSuchmetodError:org.apache.hadoop.mapreduce.v2.util.MRApps.setEnvFromInputProperties(Ljava/util/Map; Ljava/lang/String; Ljava/lang/String; Lorg/apache/hadoop/conf/Configsion;)V atorg.apache.hadoop.mapred.YARNRunner.setupContainerLaunchContextForAM(YARNRunner.java:537) ~[ hadoop-mapreduce-client-jobclient-3.2.2.jar:?]atorg.apache.hadoop.mapred.YARNRunner.createApplication SubmissionContext(YARNRunner.java:584)~[hadoop-mapreduce-client-jobclient-3.2.2.jar:?]atorg.apache.hadoop.mapred.YARNRunner.submit作业(YARNRunner.java:326)~[hadoop-mapreduce-client-jobclient-3.2.2.jar:?]在org.apache.hadoop.mapreduce.工作ubmitter.submit工作内部(工作ubmitter.java:251)~[hadoop-mapreduce-client-core-3.1.3.jar:?]在org.apache.hadoop.mapreduce.Job11美元. run(工作. java: 1570)~[hadopop-mapreate-client-core-3.1.3. jar:?]在org. apache. hadoop. mapreits. Job11美元. run(工作. java: 1567)~[hadopop-mapreate-client-core-3.1.3. jar:?]在java. security. AccessController. doPrivileged(本机方法)~[?: 1.8.0_181]在javax. security. auAs(Subject. java: 422)~[?: 1.8.0_181]在org. apache. hadoop. security. doAs(UserGroupInformation. java: 1762)~[hadopop-conal-3.2.2. jar:?]在org. apache. hadoop. mapreop. Jab.JobClient1美元. run(JobClient. java: 571)~[hadoop-mapreent-client-core-3.1.3. jar:?]在java. security. AccessController. doPrivileged(Native方法)~[?: 1.8.0_181]在javax. security. auth. Subject. doAs(Subject. java: 422)~[?: 1.8.0_181]在org. apache. hadoop. security. UserGroupInformation. doAs(UserGroupInformation. java: 1762)~[hadoop-conal-3.2.2. jar:?]在org. apache. hadoop. mapred. JobClient. submitJob内部(JobClient. java: 571)~[hadoop-mapreate-client-core-3.1.3. jar:?]在org. apache. hadoop. mapred. Job驱动程序。启动任务(Driver. java: 2183)~[hive-exec-2.3.8. jar: 2.3.8]在org. apache. hadoop. hive. ql。驱动程序。执行(Driver. java: 1839)~[hive-exec-2.3.8. jar: 2.3.8]在org. apache. hadoop. hive. ql。驱动程序。运行内部(Driver. java: 1526)~[hive-exec-2.3.8. jar: 2.3.8]在org. apache. hadoop. hive. ql。驱动程序。运行(Driver. java: 1237)~[hive-exec-2.3.8. jar: 2.3.8]在org. apache. hadoop. hive. ql。驱动程序。运行(Driver. java: 1227)~[hive-exec-2.3.8. jar: 2.3.8]在org. apache. hadoop. cliv.CliDriver. main(CliDriver. java: 686)~[hive-cli-2.3.8. jar: 2.3.8]at sun. reava. NativeMEodAccessorInm. tnke0(Native方法)~[?: 1.8.0_181]at sun. reava. NativeMEodAccessorInm. Invoke(NativeMEodAccessorInm. java: 62)~[?: 1.8.0_181]at sun. reava. java: 43)~[?: 1.8.0_181]at java. lang. reect. method. Invoke(法. java: 498)~[?: 1.8.0_181]at org. apache. hadoop. util. RunJar. run(RunJar. java: 323)~[hadoop-公共-3.2.2. jar:?]at org. apache. hadoop. util. RunJar. main(RunJar. java: 236MRApps. setEnvFromInputProperty(Ljava/util/Map;Ljava/lang/String;Ljava/lang/String;Lorg/apache/hadoop/conf/Configsion;)V 2021-03-17T17:25:30,851 INFO[0ca47af1-d66d-4aa2-86cd-0a3a42cc53a6 main]ql.驱动程序:已完成执行命令(queryId=root_20210317172524_9be7ad6e-0e7c-4951-826f-44daf163e8ba);耗时:5.586秒2021-03-17T17:25:30,856 INFO[0ca47af1-d66d-4aa2-86cd-0a3a42cc53a6 main]conf. HiveConf:使用传入的默认值为log id:0ca47af1-d66d-4aa2-86cd-0a3a42cc53a6 20
您正在使用common
3.2.2库:
hadoop-common-3.2.2.jar
在org上。阿帕奇。hadoop。util。RunJar。run(RunJar.java:32)~[hadoop-common-3.2.2.jar:?]
调用的方法在客户端公共库的
3.2.2
版本中实现。此外,您使用的核心版本不正确:
hadoop-mapreduce-client-core-3.1.3.jar
在org上。阿帕奇。hadoop。mapreduce。(...) ~[hadoop-mapreduce-client-core-3.1.3.jar:?]
更改以下版本的MR客户端核心、客户端公用和客户端应用程序:
hadoop-mapreduce-client-core-3.2.2。jar
hadoop-mapreduce-client-common-3.2。jar
hadoop-mapreduce-client-app-3.2.2.jar代码
我安装了Maven 3.2.5并在我的项目目录中执行了。显示以下错误: 插件org.apache.maven.plugins:maven-resources-plugin:2.6或其依赖项无法解析:无法读取org.apache.maven的工件描述符。plugins:maven-resources-plugin:jar:2.6:无法将工件org.apache.maven.plugins:maven
我已经检查了相关的线程-如何在配置单元脚本中设置变量 在hive内部,变量运行良好: 错误:java.lang.IllegalArgumentException:无法从空字符串创建路径:位于org.apache.hadoop.fs.Path.CheckPathArg(Path.java:131)(位于org.apache.hadoop.fs.Path.(Path.java:139)(位于org.a
HDFS读取:13245 HDFS写入:72成功MapReduce CPU花费的总时间:2秒300毫秒 确定所用时间:63.787秒
为什么我会得到这个错误,我该如何解决它?下面给出了完整的堆栈跟踪。 原因:org.apache.hadoop.hive.ql.metadata.hiveException:org.apache.hadoop.ipc.RemoteException(java.io.ioException):文件/tmp/hive-root/hive_2015-03-09_10-03-59_970_364645675
正如我所知,hive支持sql就像Multi-Select中的一个一样,我的sql是这样的: 我尝试一个查询多选择,但配置单元返回异常:“编译语句时出错:failed:SemanticException Exception在处理时异常” 有人知道为什么会这样吗?如何解决?谢谢,高尔。
问题内容: 我正在尝试使用以下代码执行Redis的几种异步方法 所有方法成功执行 但是我得到了错误 该方法被执行并返回true,它可能将其解释为true,但是我不明白为什么它必须使用该方法应用于它? 我可以通过将一个函数(err,结果)作为最后一个元素添加到client.hincrby中来获得增量的结果。但是,如何在end函数的result变量中获得所有结果呢? 问题答案: 我想您使用的async