当前位置: 首页 > 知识库问答 >
问题:

将AVRO数据从SQL Server导入到HDFS时Sqoop导入失败

赫连泰宁
2023-03-14

我是AVRO的新手,我正在尝试将AVRO格式的数据从SQL Server导入到HDFS

共有1个答案

祁飞飙
2023-03-14

我解决了这个问题。我的AVRO元数据文件有问题。我重新创建了它,并用下面的命令将它添加到配置单元表中。

alter table table_name set serdeproperties('avro.schema.url'='hdfs://user/hive/warehouse/schema.db/table_name/1.avsc');

 类似资料:
  • 在将数据从oracle DB SQOOP到HDFS时,我遇到了一个奇怪的错误。Sqoop无法将clob数据导入Hadoop上的avro文件中。 这是sqoop导入错误: 为了将clob数据正确地导入到avro文件中,我们是否需要向sqoop import语句添加任何额外的参数?

  • Im试图使用SQOOP将一个小表从mysql导出到HDFS,该表有两列id(主键)和名称。我可以通过SQOOP列出数据库和表。但在将表导入到HDFS时出现异常。好心的帮助。下面是错误日志。

  • -bash-4.1$ 任何帮助都将不胜感激。

  • 我想将数据从postgres导入到配置单元,然后输入以下命令: 但我看到这条失败的消息: 问题是什么?我如何修复这个故障???

  • 我试图使用将数据从复制到。但是,尽管我在文件中设置了变量,但仍然出现了以下错误。下面是我的代码: bashrc文件中的变量: 错误: 我还需要在这里添加/修改什么??

  • 我在系统中安装了hadoop 2.7.1和sqoop 1.4.6。我正在尝试将一个表从MySQL导入到HDFS。我收到以下错误: