当前位置: 首页 > 知识库问答 >
问题:

无法使用Hadoop访问S3 bucket

田宇
2023-03-14
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>s3://[ Bucket ]</value>
    </property>

    <property>
            <name>fs.s3a.endpoint</name>
            <value>s3.eu-central-1.amazonaws.com</value>
    </property>

    <property>
        <name>fs.s3a.access.key</name>
        <value>[ Access Key Id ]</value>
    </property>

    <property>
        <name>fs.s3a.secret.key</name>
        <value>[ Secret Access Key ]</value>
    </property>

    <property>
        <name>fs.s3.awsAccessKeyId</name>
        <value>[ Access Key Id ]</value>
    </property>

    <property>
        <name>fs.s3.awsSecretAccessKey</name>
        <value>[ Secret Access Key ]</value>
    </property>

    <property>
        <name>fs.s3n.awsAccessKeyId</name>
        <value>[ Access Key Id ]</value>
    </property>

    <property>
        <name>fs.s3n.awsSecretAccessKey</name>
        <value>[ Secret Access Key ]</value>
    </property>

    <property>
        <name>fs.s3.impl</name>
        <value>org.apache.hadoop.fs.s3a.S3AFileSystem</value>
    </property>

    <!-- Comma separated list of local directories used to buffer
         large results prior to transmitting them to S3. -->
    <property>
        <name>fs.s3.buffer.dir</name>
        <value>/tmp</value>
    </property>
</configuration>

有人知道这是什么问题吗?

编辑:bucket和访问它的VM都在法兰克福。它看起来与https://docs.hortonworks.com/hdpdocuments/hdcloudaws/hdcloudaws-1.8.0/bk_hdcloud-aws/content/s3-trouble/index.html类似,但添加了endpoint之后,它仍然不起作用。

共有1个答案

裴良弼
2023-03-14

听起来像是V4身份验证问题,fs.s3a.endpoint属性应该已经解决了这个问题

时钟问题也会引起问题。检查Joda时间,确保你所有的机器都赶上了这个周末的时钟变化。

也可以尝试抓取Hadoop 2.8.0 RC3,然后看看问题是否已经消失。如果它仍然存在,那就是要在apache列表中请求帮助的版本。

 类似资料:
  • 我成功地kerberized了一个测试Hortonworks集群。Ambari为这些服务创建了keytabs,并且它们都已启动。名称编号有HA。备用名称节点启动得快,活动名称节点需要更长得时间。Namenode UI显示一切都是正确的。可以使用Kerberos登录。名称编号为nn1.zim.com和nn2.zim.com 这个配置会有什么问题呢?以hdfs登录,用kinit-kt加载keytab。

  • 主要内容:解决办法1:,解决办法2:,解决办法3:,解决办法4:,解决办法5:文章目录 解决办法1: 解决办法2: 解决办法3: 解决办法4: 解决办法5: 解决办法1: 修改selinux 解决办法2: 查看你的$HADOOP_HOME/etc/hadoop下的core-site.xml和hdfs-site.xml是否配置好 解决办法3: 必须在hadoop-env.sh文件中设置Java的绝对路径 解决办法4: 是否关闭linux系统的防火墙 解决办法5: 查看你win

  • 我已经用伪分布式模式安装了Hadoop 3.1.1。我尝试访问Hadoop Web界面,NameNode()和JobHistoryServer()UI打开良好,但DataNode()、ResourceManager()UI被阻止。 但是,当我使用命令时,DataNode和ResourceManager仍然在工作。此外,日志文件中没有任何特殊的错误消息。 我想知道是什么问题。 大师: 奴隶: hdf

  • 我想公开我的系统,以便通过ssh进行访问。 运行此

  • 我正试图调查和学习更多关于库伯内特斯的知识,我遵循了指南https://blog.hazelcast.com/deploy-monitor/在我的kubernetes集群中安装hazelcast监视器。 如果我看到kubernetes仪表板,它有2个部署、3个pod和my-service为绿色。 运行此: 但当我跑的时候 它打开浏览器,如果我访问: 我有一个404。我做错了什么?

  • 问题内容: 问题是 我的配置是 设置conf / hadoop-env.sh 我知道有一个与此问题类似的问题(http://codingdict.com/questions/122917)。但是我已经在这里安装了Sun jdk。因此,任何帮助将不胜感激。 问题答案: 这实际上不是Hadoop问题。Hadoop不使用JPS。 如果找不到JPS,则必须将其放入路径或创建别名。可以在下找到JPS可执行文