当前位置: 首页 > 知识库问答 >
问题:

运行sqoop导出时需要hdfs中的其他块

龙安阳
2023-03-14

正在运行:[cloudera@quickstart~]$sqoop export--连接“jdbc:mysql://quickstart.cloudera:3306/retail_db”--用户名retail_dba--密码cloudera--表department_export--export-dir/home/cloudera/sqoop_import/departments-m 12

错误:

16/12/24 22:29:48 INFO Client.RMProxy:连接到/0.0.0.0:8032 16/12/24 22:29:49 INFO MapReduce.JobSubmitter:正在清理临时区域/tmp/hadoop-yarn/staging/cloudera.staging/job_1482646432089_0001 16/12/24 22:29:49警告安全.UserGroupInformation:PriviledgedActionException as:cloudera(auth:simple)原因:org.apache.hadoop.ipc.remoteException(名称节点处于安全模式。所报告的块1268需要额外的39个块以达到总块1308的阈值0.9990。活动数据阳极%1的数量已达到最小数量%0。一旦达到阈值,安全模式将自动关闭。在org.apache.hadoop.hdfs.server.namenode.fsnamesystem.checknamenodesafemode(fsnamesystem.java:1446)在org.apache.hadoop.hdfs.server.namenode.fsnamesystem.deleteinternal(fsnamesystem.java:4072)在org.apache.hadoop.hdfs.server.namenode.fsnamesystem.deleteint(fsnamesystem.java:4030)

尝试使用“hdfs dfsadmin-safemode leave”,再次出现错误,

16/12/24 10:37:59 INFO Client.RMProxy:连接到ResourceManager/0.0.0.0:8032 16/12/24 10:38:00 INFO MapReduce.JobSubmitter:正在清理临时区域/tmp/hadoop-yarn/staging/cloudera.staging/job_1482602419946_0007 16/12/24 10:38:00警告安全.UserGroupInformation:PriviledgedActionException as:cloudera(auth:simple)原因:org.apache.hadoop.ipc.remoteException(名称节点处于安全模式。它是手动打开的。使用“hdfs dfsadmin-safemode leave”关闭安全模式。在org.apache.hadoop.hdfs.server.nameNode.fsNameSystem.checkNameNodeSafeMode(fsNameSystem.

共有1个答案

羊舌承天
2023-03-14

确保为Sqoop运行时正确设置了HCAT_HOME环境变量。您得到的错误是因为sqoop无法找到所需的依赖项“org.apache.hive.hcatalog*”,该依赖项在Hive的hcatalog中可用。

 类似资料:
  • Im试图使用SQOOP将一个小表从mysql导出到HDFS,该表有两列id(主键)和名称。我可以通过SQOOP列出数据库和表。但在将表导入到HDFS时出现异常。好心的帮助。下面是错误日志。

  • 我在一台机器上安装了sqoop(sqoop-1.4.4.bin__hadoop-1.0.0.tar.gzhttp://www.apache.org/dist/sqoop/1.4.4/)。当我尝试运行"$SQOOP_HOME/sqoop help"或任何其他命令时, 我收到以下错误: 警告:$HADOOP_HOME已弃用。 异常线程"main"java.lang.NoClassDefFoundErr

  • 我正在构建一个实现Twitter Storm的java项目,我想将自定义库提取并打包到.jar文件中。但是,如果我提取所有必需的库(使用extract required libraries into generated JAR,.JAR的大小将达到20MB,而不是大约200KBS(使用Copy required libraries into generated JAR选项旁边的子文件夹中的Copy

  • 我是AVRO的新手,我正在尝试将AVRO格式的数据从SQL Server导入到HDFS。

  • 主要内容:1.HDFS到Mysql,2.Hbase到Mysql,3.Job1.HDFS到Mysql export为导入 export-dir为连接的HDFS是数据目录 table为数据库Mysql的表名 2.Hbase到Mysql 由于没有提供直接导出的接口 所以采取迂回战术 可以将Hbase先导入到HDFS中然后导入到Mysql 3.Job 作业:可以看做一个任务或者是Mysql中存储的过程 我们可以先存储然后不执行。 当想要执行的时候可以直接执行名称避免执行全部的任

  • 我不知道它为什么要在HDFS中寻找avro jar文件。 和设置为Hadoop目录。我使用的是Hadoop 2.6.0和sqoop 1.4.5版本