当前位置: 首页 > 知识库问答 >
问题:

在独立模式下启动Hbase时发生SLF4J错误

阳宾实
2023-03-14

在启动hbase时(在独立模式下),使用/bin/start hbase。在hbase目录中,
我得到以下错误,

saichanda@saichanda-OptiPlex-9020:/usr/local/hbase$ ./bin/start-hbase.sh 
starting master, logging to /usr/local/hbase/logs/hbase-saichanda-master-saichanda-OptiPlex-9020.out
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hbase/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
Could not start ZK at requested port of 2181.  ZK was started at port: 2182.  Aborting as clients (e.g. shell) will not be able to find this ZK quorum.

如何解决这个错误?

我的hbase网站。xml文件如下所示:

<configuration>
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://localhost:80/hbase</value>
</property>
<property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>2181</value>
</property>
</configuration>


在运行hbase时,我得到了错误...
在hbase-env.sh,我有

export HBASE_MANAGES_ZK=false

如何解决我的错误启动hbase??

共有1个答案

慕容渊
2023-03-14

您在hbase站点中给出了错误的配置。xml

<configuration>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://localhost:9000/hbase</value>
    </property>
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>{absolute_directory_path}</value>
    </property>
    <property>
        <name>hbase.zookeeper.property.clientPort</name>
        <value>2181</value>
    </property>
</configuration>

尝试使用这些值。

 类似资料:
  • 问题内容: 我在新的数字海洋ubuntu 14.04服务器上部署了selenium独立服务器。它无法正常启动。它给出的日志是 我猜在日志中缺少2行。 有人知道为什么会发生吗? 问题答案: 当硒试图产生随机种子时会发生这种情况,但是内核缺乏熵。 解决方案是安装类似的添加熵的软件。参见https://www.digitalocean.com/community/tutorials/how- to-se

  • 我不知道该怎么办!感谢任何帮助! 另外,我是否应该在安装HBase之前配置Zookeeper?我的教程没有这么说。

  • 我已经在我的本地安装了mesos,并按照mesos设置中提到的进行了配置。现在我想在本地机器上安装的mesos上运行spark。我已经根据官方文档配置了spark,并在我的本地机器上运行了单节点hadoop集群。Spark二进制包被复制到hdfs根目录,我已经在spark-env.sh中设置了以下属性: 是Spark-Defaults.conf:

  • 我是的新手,遇到以下错误。 运行以下代码时会出现此错误(可在GitHub中获得:https://github.com/ddraj/hbase-trunk-mttr/blob/master/hbase-examples/src/main/java/org/apache/hadoop/hbase/mapreduce/sampleuploader.java) 我正在使用CDH5.2.6 我可以像这样获得

  • 我正试图获得一个独立版本的Undertow组装,我遇到了JAR依赖地狱。我终于得到了下面的JAR列表,但我真正想要的是一个包含所有依赖项的独立的Undertow包,尽管它声称是“轻量级的”和“可嵌入的”,并且“Undertow可以嵌入到应用程序中,或者只需几行代码就可以独立运行”,但我似乎在任何地方都找不到它。然而,在包含依赖项之后,真正的权重似乎是很多代码(大约6个MiB)。这甚至排除了一些明显