我无法将数据加载到配置单元表,日志显示了此问题
我要加载的文件:
> [hdfs@vmi200937 root]$ hdfs dfs -ls /suppression-files Found 1 items
> -rw-rw-rw- 3 hdfs hdfs 694218562 2018-12-21 05:06 /suppression-files/md5.txt
> [hdfs@vmi200937 root]$ hdfs dfs -ls
> /apps/hive/warehouse/suppression.db Found 1 items drwxrwxrwx - hive
> hadoop 0 2018-12-21 06:30
> /apps/hive/warehouse/suppression.db/md5supp
> hive (suppression)> LOAD DATA INPATH '/suppression-files/md5.txt' INTO
> TABLE md5supp;
失败:执行错误,从org.apache.hadoop.hive.ql.exec.moveTask返回代码40000。java.io.fileNotFoundException:目录/文件不存在/apps/hive/warehouse/suppression.db/md5supp/md5.txt在org.apache.hadoop.hdfs.server.namenode.fsdirectory.checkowner(fsdirectory.java:1901)在org.apache.hadoop.hdfs.server.nameNattrop.setowner(fsdirectory.java:82)在setowner(namenoderpcserver.java:828)在org.apache.hadoop.hdfs.protocolpb.clientnameNodeProtocolServerSideTranslatorpb.setowner(clientnameNodeProtocolServerSideTranslatorpb.java:476),在在org.apache.hadoop.ipc.rpc$server.call(rpc.java:982),位于org.apache的hadoop.ipc.server$handler$1.run(server.java:2351)。hadoop.ipc.server$handler$1.run(server.java:2347)在java.security.accessController.doprivileged(本机方法)在javax.security.auth.subject.doas(subject.java:422)在org.apache.hadoop.security.usergroupinformation.doas(usergroupinformation.java:1869)在org.apache.hadoop.ipc.server$handler.run(server.java:2347)
我找到解决办法了!我应该将目录/compression-file的所有者设置为hive:hdfs by hdfs dfs chown-r hive:hdfs/compression-file
我从Hadoop Hive开始学习BigData 我不能上载本地数据到配置单元表 它仍然得到这个错误 有人能给我解决办法吗?
我是hadoop蜂巢的新手。我使用的是开源的hadoop 2.7.1配置单元1.2.2。它安装在ubuntu上,一个单一的节点集群。我在csv文件中有106行30列数据。我使用以下代码将其导入到配置单元表中: 然后我得到了null列名:返回的前半部分,返回的后半部分 请帮我怎么解决。提前感谢!
无法通过jupyter笔记本使用pyspark将数据写入hive。 给我下面的错误 Py4JJavaError:调用o99.saveAsTable时发生错误。:org.apache.spark.sql.分析异常:java.lang.运行时异常:java.lang.运行时异常:无法实例化org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreCl
我将geenrated jar文件添加到hdfs目录中,使用: 我尝试使用以下命令创建一个UDf: 但是我得到了如下错误: jar文件被成功地创建并添加到Hive,但它仍然显示没有找到那个类。谁能说出它出了什么问题吗?
我有一个csv文件,名为测试。hdfs中的csv。文件是通过filezilla放在那里的。当我通过putty登录到Edge节点时,我能够查看文件的路径和内容,使用的帐户凭据与我将文件放入hdfs时使用的帐户凭据相同。然后,我连接到配置单元并尝试创建一个外部表,使用以下语句指定我的csv文件在hdfs中的位置: 当我执行这个命令时,它正在配置单元上创建一个外部表,但正在创建的表是空的,只显示我在cr
我正在使用Spark生成拼花文件(通过分区,使用Snappy压缩),并将它们存储在HDFS位置。 拼花数据文件存储在下 然后为其创建配置单元表,如下所示:
我有一个文本文件,我已经加载到我新创建的配置单元表。当我得到文件时,它也有列名。因此,我从文件中删除了列名,只加载了数据。但是,我在前两行得到了“null”,然后数据开始显示。表有39列,我很确定null值是针对列名的。 使用tblproperties后的新输出 即。当我激发“Select*from tbl LIMI4”时,我会得到头名和数据。请指教