当前位置: 首页 > 知识库问答 >
问题:

使用SQOOP将数据从MYSQL导入配置单元

宰父桐
2023-03-14

我试图使用sqoop数据MySQL复制到hive。但是,尽管我在bashrc文件中设置了hive_conf_dir变量,但仍然出现了以下错误。下面是我的代码:

sqoop import --connect jdbc:mysql://localhost/sampleOne \
--username root \
-P \
--table SAMPLEDATA  \
--target-dir /WithFieldss_T11  \
--hive-import \
--hive-table sampleone.customers  

bashrc文件中的变量:

export HIVE_CONF_DIR=/usr/local/hive/conf  

错误:

ERROR hive.HiveConfig: Could not load org.apache.hadoop.hive.conf.HiveConf. Make sure HIVE_CONF_DIR is set correctly.
18/04/29 20:48:53 ERROR tool.ImportTool: Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf

我还需要在这里添加/修改什么??

共有1个答案

公冶森
2023-03-14

在~/.bashrc导出hadoop_classpath=$hadoop_classpath://usr/lib/hive/lib/*中添加此内容,并将相应的hive-common jar(如用于hive3.1的hive-common-3.1.1.jar)复制到“sqoop/lib”文件夹中

 类似资料:
  • 我想将数据从postgres导入到配置单元,然后输入以下命令: 但我看到这条失败的消息: 问题是什么?我如何修复这个故障???

  • 如何在压缩表中实现从Oracle到配置单元的Sqoop导入 配置单元:创建外部表xx.tmp_member3(a字符串、kpi_name字符串、b字符串、c字符串),由(YEAR INT,MONTH INT,DAY INT)行格式分隔字段以“”终止,“存储为ORC位置”/ENVIR./2019/4/20190416"TBLPROPERTIES(“ORC.compress”=“bzip2”); 我已

  • 我是AVRO的新手,我正在尝试将AVRO格式的数据从SQL Server导入到HDFS。

  • 我在系统中安装了hadoop 2.7.1和sqoop 1.4.6。我正在尝试将一个表从MySQL导入到HDFS。我收到以下错误:

  • 错误:java.io.ioException:无法导出数据,请在org.apache.sqoop.mapreduce.textexportMapper.map(textexportMapper.java:112)在org.apache.sqoop.mapreduce.textexportMapper.map(textexportMapper.java:39)在org.apache.sqoop.ma

  • 问题内容: 我有以下结构的csv文件: 使用以下MySQL函数如何导入MySQL表的第一和第三列: 我为我的英语道歉! 提前致谢 ! 问题答案: 您可以指定列,并将不需要的列标记为“ @dummy”。 替换,并且只要你喜欢。要设置不在数据文件中的其他列,您可以这样做: 作为进一步的参考,我建议您看一下MySQL参考。