当前位置: 首页 > 知识库问答 >
问题:

导入到hdfs时发生Sqoop错误

佟云
2023-03-14

Im试图使用SQOOP将一个小表从mysql导出到HDFS,该表有两列id(主键)和名称。我可以通过SQOOP列出数据库和表。但在将表导入到HDFS时出现异常。好心的帮助。下面是错误日志。

13/12/04 02:05:38 WARN conf.Configuration: session.id is deprecated. 
Instead, use   dfs.metrics.session-id
13/12/04 02:05:38 INFO jvm.JvmMetrics: 
Initializing JVM Metrics  withprocessName=JobTracker,sessionId=
13/12/04 02:05:39 INFO mapreduce.JobSubmitter: 
Cleaning up the staging area file:/tmp/hadoop-hadoop/mapred/staging/hadoop1439217057
/.staging/job_local1439217057_0001
13/12/04 02:05:39 ERROR 
security.UserGroupInformation:PriviledgedActionException  as:hadoop      
(auth:SIMPLE) 
cause:java.io.FileNotFoundException: 
File does not exist: hdfs://prat1:9000/home/hadoop/usr/sqoop-1.4.3-cdh4.3.0/lib/commons-    compress-1.4.1.jar
13/12/04 02:05:39 DEBUG util.ClassLoaderStack: 
Restoring classloader:sun.misc.Launcher$AppClassLoader@35a16869
13/12/04 02:05:39 ERROR tool.ImportTool: 
Encountered IOException running import job:  java.io.FileNotFoundException: File does not  exist:
hdfs://prat1:9000/home/hadoop/usr/
sqoop-1.4.3-cdh4.3.0/lib/commons-compress-1.4.1.jar
    at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:824)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:288)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:224)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestamps(ClientDistributedCacheManager.java:93)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestampsAndCacheVisibilities(ClientDistributedCacheManager.java:57)
    at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:254)
    at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:290)
    at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:361)
    at org.apache.hadoop.mapreduce.Job$11.run(Job.java:1269)
    at org.apache.hadoop.mapreduce.Job$11.run(Job.java:1266)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:396)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
    at org.apache.hadoop.mapreduce.Job.submit(Job.java:1266)
    at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1287)
    at org.apache.sqoop.mapreduce.ImportJobBase.doSubmitJob(ImportJobBase.java:173)
    at org.apache.sqoop.mapreduce.ImportJobBase.runJob(ImportJobBase.java:151)
    at org.apache.sqoop.mapreduce.ImportJobBase.runImport(ImportJobBase.java:226)
    at org.apache.sqoop.manager.SqlManager.importTable(SqlManager.java:555)
    at org.apache.sqoop.manager.MySQLManager.importTable(MySQLManager.java:111)
    at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:403)
    at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:476)
    at org.apache.sqoop.Sqoop.run(Sqoop.java:145)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
    at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:181)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:220)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:229)
    at org.apache.sqoop.Sqoop.main(Sqoop.java:238)

共有1个答案

云俊美
2023-03-14

由于您没有写入权限,因此您将获得安全性。UserGroupInformation:PriviledGedActionException

尝试以hdfs用户身份登录,然后运行sqoop命令。

苏根

 类似资料:
  • 我不知道它为什么要在HDFS中寻找avro jar文件。 和设置为Hadoop目录。我使用的是Hadoop 2.6.0和sqoop 1.4.5版本

  • 我是AVRO的新手,我正在尝试将AVRO格式的数据从SQL Server导入到HDFS。

  • 正在运行:[cloudera@quickstart~]$sqoop export--连接“jdbc:mysql://quickstart.cloudera:3306/retail_db”--用户名retail_dba--密码cloudera--表department_export--export-dir/home/cloudera/sqoop_import/departments-m 12 错误:

  • 主要内容:1.Mysql到HDFS,2.Mysql到Hbase,3.Mysql到HiveSqoop是Hadoop生态圈里很重要的一员。很重要的工具 工具就是为了解决某些问题的。 主要解决的场景问题是数据从关系型数据库到Hadoop生态系统的过程。 因为要推广Hadoop所以要有数据,Sqoop就是数据的来源。 1.Mysql到HDFS sqoop import 导入 -connect 连接mysql -username mysql的username -password mysql的密

  • HDP-2.4.2.0-258安装使用Ambari2.2.2.0 我必须导入几个SQL Server模式,这些模式应该可以通过Hive、Pig、MR和任何第三方(将来)访问。我决定在HCatalog中导入。 Sqoop提供了导入到Hive或HCatalog的方法,我想如果我导入到HCatalog,同一个表将可以从Hive CLI、MR和Pig访问(请评估我的假设)。 问题: 如果直接进口到蜂巢,猪

  • 虽然之前有人问过这个问题,并在(JWT encrypting payload in python?(JWE))上得到了回答,但我似乎无法让JWK正常工作-我尝试导入我的明文RSA密钥,但出现了一个错误(在下面添加stacktrace)。有人能告诉我我做错了什么吗? 我的代码如下:(这是针对一个模块,该模块在没有提供现有密钥的情况下初始化新的RSA密钥)