当前位置: 首页 > 知识库问答 >
问题:

Sqoop Hcatalog导入作业已完成,但表中不存在数据

郎宏浚
2023-03-14

已成功执行作业E=但找不到数据。此外,检查了在hcatalog中创建的表的位置,检查该位置后发现没有为此创建任何目录,并且只找到了一个0字节的文件_$folder$。

please found the stack trace :

19/09/25 17:53:37 INFO Configuration.deprecation: io.bytes.per.checksum is deprecated. Instead, use dfs.bytes-per-checksum
19/09/25 17:54:02 DEBUG db.DBConfiguration: Fetching password from job credentials store
19/09/25 17:54:03 INFO db.DBInputFormat: Using read commited transaction isolation
19/09/25 17:54:03 DEBUG db.DataDrivenDBInputFormat: Creating input split with lower bound '1=1' and upper bound '1=1'
19/09/25 17:54:03 INFO mapreduce.JobSubmitter: number of splits:1
19/09/25 17:54:03 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1569355854349_1231
19/09/25 17:54:04 INFO impl.YarnClientImpl: Submitted application application_1569355854349_1231
19/09/25 17:54:04 INFO mapreduce.Job: The url to track the job: http://<PII-removed-by-me>/application_1569355854349_1231/
19/09/25 17:54:04 INFO mapreduce.Job: Running job: job_1569355854349_1231
19/09/25 17:57:34 INFO hive.metastore: Closed a connection to metastore, current connections: 1
 19/09/25 18:02:59 INFO mapreduce.Job: Job job_1569355854349_1231 running in uber mode : false
19/09/25 18:02:59 INFO mapreduce.Job:  map 0% reduce 0%
19/09/25 18:03:16 INFO mapreduce.Job:  map 100% reduce 0%
19/09/25 18:03:18 INFO mapreduce.Job: Job job_1569355854349_1231 completed successfully
19/09/25 18:03:18 INFO mapreduce.Job: Counters: 35
        File System Counters
                FILE: Number of bytes read=0
                FILE: Number of bytes written=425637
                FILE: Number of read operations=0
                FILE: Number of large read operations=0
                FILE: Number of write operations=0
                HDFS: Number of bytes read=87
                HDFS: Number of bytes written=0
                HDFS: Number of read operations=1
                HDFS: Number of large read operations=0
                HDFS: Number of write operations=0
                S3: Number of bytes read=0
                S3: Number of bytes written=310154
                S3: Number of read operations=0
                S3: Number of large read operations=0
                S3: Number of write operations=0
        Job Counters
                Launched map tasks=1
                Other local map tasks=1
                Total time spent by all maps in occupied slots (ms)=29274
                Total time spent by all reduces in occupied slots (ms)=0
                Total time spent by all map tasks (ms)=14637
                Total vcore-milliseconds taken by all map tasks=14637
                Total megabyte-milliseconds taken by all map tasks=52459008
        Map-Reduce Framework
                Map input records=145608
                Map output records=145608
                Input split bytes=87
                Spilled Records=0
                Failed Shuffles=0
                Merged Map outputs=0
                GC time elapsed (ms)=199
                CPU time spent (ms)=4390
                Physical memory (bytes) snapshot=681046016
                Virtual memory (bytes) snapshot=5230788608
                Total committed heap usage (bytes)=1483210752
        File Input Format Counters
                Bytes Read=0
        File Output Format Counters
                Bytes Written=0
19/09/25 18:03:18 INFO mapreduce.ImportJobBase: Transferred 0 bytes in 582.8069 seconds (0 bytes/sec)
19/09/25 18:03:18 INFO mapreduce.ImportJobBase: Retrieved 145608 records.
19/09/25 18:03:18 INFO mapreduce.ImportJobBase: Publishing Hive/Hcat import job data to Listeners for table null
19/09/25 18:03:19 DEBUG util.ClassLoaderStack: Restoring classloader: sun.misc.Launcher$AppClassLoader@1d548a08

共有1个答案

微生景胜
2023-03-14

解决了。因为我们正在使用AWS EMR(托管hadoop服务)。在他们的站点上已经提到了。Aws论坛截图

当您在AmazonS3中使用Sqoop将输出写入HCatalog表时,通过将Mapred.output.direct.natives3FileSystem和Mapred.output.direct.EMRFileSystem属性设置为false来禁用Amazon EMR直接写入。有关更多信息,请参见使用HCatalog。可以使用Hadoop-d mapred.output.direct.natives3filesystem=false和-d mapred.output.direct.emrfilesystem=false命令。

如果不禁用直接写入,则不会发生错误,但在AmazonS3中创建表,并且不会写入任何数据。

 类似资料:
  • null 如何调用API来验证作业是否已完成,并获取已保存导出的URL? 谢了。

  • 当我尝试将导出的转储文件(特别是我的数据库/模式)导入到其他计算机时,我遇到了这个错误; d:\ CAPSTONE SYSTEM \ mydatabasepstone \ dump 2015 09 22 \ schm _ CAPSTONE SYSTEM _ routines . SQL不包含架构/表信息16:58:55还原schm _ CAPSTONE SYSTEM(employee _ entr

  • 将库升级到和(查找FTP库中可能的bug)我设法持续了3周 我有一个要监视,该作业表示触发器状态为。应用程序服务器不重用阻塞进程的 我没有找到关于Quartz这类问题的文档,因此我怀疑是FTP库中的bug干扰了Quartz启动的线程,例如的使用

  • 我正在尝试使用golang-kubernetes客户端go-lib根据作业的状态筛选完成的作业。 我已经检查了其他答案,解释了如何使用kubectl获取作业,如下所示: 但我不知道如何将jsonpath输出“转化”为过滤器或列表选项 如果我按状态阶段和标签搜索pod,我会这样做: 但是,如果我要实现jsonpath 这将遍历所有作业,并检查状态下的succeeded键是否等于1。适用于所有工作。

  • 我们在晚上安排的cron作业正确启动,但映像本身的运行时间比计划的晚得多。我们预计拉取映像或从集群请求资源时会出现问题。通常我可以在输出的事件部分中看到此类错误。在本节中,我可以看到诸如等事件。但是作业完成后,不再显示任何事件。 是否可以查看已完成作业的这些事件? 或者有没有另一种方法来调查这样的问题?

  • 我正在使用来运行我的Spark作业。它运行正常,但是打开Spark webUI,我看不到已完成列表中的作业。 注意:Spark版本2.0.1,1个工作进程运行,本地主机上的主UI:8080,工作进程和主进程都从运行/sbin/启动-*。sh脚本。