当前位置: 首页 > 知识库问答 >
问题:

关于分布式模式下运行在hadoop上的hbase

杜俊楚
2023-03-14

Hadoop版本=2.4.1
hbase版本=0.98.6

我已经在下面的conf上启动并顺利运行了hadoop:
107.108.86.119-hadoop namenode,secondarynamenode
107.109.155.100-datanode1
107.109.155.102-datanode2

现在我按以下方式安装hbase:-
107.108.86.114:-hmaster,hquorumpeer
107.109.155.100-RegionServer1
107.109.155.102-RegionServer2

当我做jps时,运行以下进程:
107.109.155.102:-hregionserver,datanode
107.109.155.100:-hregionserver,datanode
107.108.86.119:-namenode,secondarynamenode
107.108.86.114:-hmaster

但是在hbase shell上执行时,状态显示“0服务器,0死,NaN平均负载”
在hbase shell上输入cmd时显示错误:java.io.ioException:表命名空间管理器尚未就绪,请稍后再试

regionserver上的日志显示:regionserver.hregionserver:reportForDuty to master=localhost,60000,1415007213689 with port=60020,startcode=1415007215055 regionserver.hregionserver:错误通知master我们已启动

我的hbase-site.xml-

<property>
    <name>hbase.master</name>
    <value>107.108.86.114:60000</value>
</property>
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://push-mcd2:54310/hbase</value>
</property>
<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property> 
<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
 </property>
<property>
      <name>hbase.zookeeper.quorum</name>
      <value>107.108.86.114</value>
</property> 

而hmaster的/etc/hosts是:

127.0.0.1   localhost arpita-ubuntu 
127.0.1.1       arpita-ubuntu
107.109.155.100 push-ws1
107.109.155.102 push-ws2 
107.108.86.114  push-mcd1 
107.108.86.119  push-mcd2 
export JAVA_HOME=/usr/lib/jvm/java-6-sun-1.6.0.22 export HBASE_CLASSPATH=/home/hadoop/hadoop-0.20.2/conf export HBASE_MANAGES_ZK=true

共有1个答案

高砚
2023-03-14

为什么您的regionserver日志提到它正在LocalHost上查找HBase Master?上面的表单信息您在一个不同的节点上安装了主服务器,请检查您在每个节点上的配置是否正确。

regionserver上的日志显示:regionserver.hregionserver:reportForDuty to master=localhost,60000,1415007213689 with port=60020,startcode=1415007215055 regionserver.hregionserver:错误通知master我们已启动

同样,在每个节点的/etc/hosts中,请将前两行更新为

127.0.0.1   localhost arpita-ubuntu 
127.0.1.1       arpita-ubuntu

127.0.0.1   localhost
<Actual_IP_Address_for_Host>   arpita-ubuntu

如果您没有自动dns名称解析,这是必要的。

 类似资料:
  • 我已经在Ubuntu上安装了hadoop 1.2.0。所有的服务namenode,sec namenode,datanode,jobtracker,tasktracker运行良好。 然后我安装了hbase-0-94.8,我希望配置也可以。但是HMaster无法在端口9000上启动。它实际上开始,然后下降。 >2014-05-14 09:28:37,015 INFO org.apache.hadoo

  • 我想使用 Confluent 的复制器将数据从一个系统复制到另一个系统。我正在使用两个Ubuntu 18.04系统,其中一个充当源,另一个充当目的地。 我尝试在分布式模式下运行kafka connect replicator,更改了以下配置: < li >在confluent/etc/Kafka/server . properties中,我做了以下更改 源 目的地 然后,我在源系统中创建了主题,并

  • 我很感激你事先的帮助。 我使用root用户凭据在伪分布式模式下设置了Hadoop。我想为多个用户(比如hadoop1、hadoop2等)提供访问权限,以便能够在这个集群上提交和运行MapReduce作业。我们怎么做? 到目前为止我做了什么? 我得到了下面的错误: 为了克服此错误,我授予组“hadoop”对文件夹hdfstmp的rwx权限。此文件夹上的权限类似于drwxrwxr-x。 使用hadoo

  • 我们开始Kafka,动物园管理员和Kafka连接在第一个盒子。我们也在第二个盒子里开始了Kafka连接。现在,根据confluent文档,我们必须使用REST API启动HDFS连接器(或任何其他连接器)。所以,在这两个框中启动kafka connect之后,我们尝试通过REST API启动connector。我们尝试了以下命令:- 当我们在这里按enter键时,我们得到以下响应: 位于etc/k

  • 我有一个基于过程消费的大数据应用程序- 假设我的应用程序在一台机器上运行,我实例化了2个消费者,他们有自己的生产者,例如生产者1有事务ID - 如果我的应用程序在一台机器上工作,这完全可以正常工作,但是,事实并非如此,因为应用程序需要在多台机器上运行,因此当相同的代码在机器2上运行时,由机器2上的消费者实例化的生产者将具有与机器1上相同的事务ID。我希望事务ID的生成方式不会相互冲突,并且它们是可

  • 完全分布式运行模式 1 分析: 2 编写集群分发脚本xsync 1. scp(secure copy)安全拷贝 (1)scp定义: scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2) (2)基本语法 scp -r p d i r / pdir/ pdir/fname u s e r @ h a d o o p user@hadoop user@hadoo