当前位置: 首页 > 工具软件 > revise > 使用案例 >

【sqoop2】创建job报错There are issues with entered data, please revise your input

公羊招
2023-12-01

sqoop2创建job报错There are issues with entered data, please revise your input

场景:
使用sqoop2时,在sqoop2-shell里创建Job时在最后报错:
There are issues with entered data, please revise your input:


解决:
经过一番查找,其报错信息有可能是:说明配置有错,请重新检查各输入项

最后发现,其Output directory:项并没有输入信息,但这一项是必填的,重新填写创建的Job信息就好


sqoop:000> create job -f mysql-link-mtest -t hdfs-link01          (-f指定from,即是数据源位置,-t指定to,即是目的地位置)
Creating job for links with from name jdbc-link01 and to name hdfs-link01
Please fill following values to create new job object
Name: job_mysql2hdfs01   (#job名字,必填)
Database source
Schema name: mtest   (#数据库名字,必填)
Table name: emp   (#数据表名字,必填)
SQL statement:  (#就是sql查询语句,可选的,直接回车就好)
Column names:   (# 重写数据相关的一些参数,可选,直接回车就好)
There are currently 0 values in the list:
element#
Partition column:    (#分割的列,也就是将最终文件分割为多个,默认导入到一个文件)
Partition column nullable:
Boundary query:
Incremental read
Check column:
Last value:
Target configuration
Override null value:
Null value:
File format:   (#文件格式,这里选择0,TEXT_FILE)
  0 : TEXT_FILE
  1 : SEQUENCE_FILE
  2 : PARQUET_FILE
Choose: 0
Compression codec:   (#压缩编码器,这里不压缩,选择0)
  0 : NONE
  1 : DEFAULT
  2 : DEFLATE
  3 : GZIP
  4 : BZIP2
  5 : LZO
  6 : LZ4
  7 : SNAPPY
  8 : CUSTOM
Choose: 0
Custom codec:    (#自定义的编码器,这里也不需要,直接回车)
Output directory: /user/hive/mtest    (#输出hdfs路径,必填切目录下必须为空,可以为没有建的目录)
Append mode:    (#用于指定是否是在已存在导出文件的情况下将新数据追加到数据文件中。可选回车)
Throttling resources
Extractors:   (#可选,对应 mapreduce 的 job 中 map 的数量。这里直接回车)
Loaders:     (#可选,对应 mapreduce 的 job 中的 reduce 的数量。这里直接回车)
Classpath configuration
Extra mapper jars:
There are currently 0 values in the list:
element#    (# Classpath配置,如:需要添加任务额外的jar包,这里直接回车)
Job was successfully updated with status OK

 

 

 类似资料: