我已经在Ubuntu上安装了hadoop 1.2.0。所有的服务namenode,sec namenode,datanode,jobtracker,tasktracker运行良好。
然后我安装了hbase-0-94.8,我希望配置也可以。但是HMaster无法在端口9000上启动。它实际上开始,然后下降。
127.0.0.1 localhost prakashl
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
kandabap@prakashl:/usr/lib/hbase/hbase-0.94.8/conf$ jps
2735 HQuorumPeer
3017 HRegionServer
2270 TaskTracker
3715 Jps
2100 JobTracker
1845 DataNode
2009 SecondaryNameNode
1688 NameNode
>2014-05-14 09:28:37,015 INFO org.apache.hadoop.hbase.master.activeMasterManager:master=localhost,60000,1400023716583 2014-05-14 09:28:38,108 INFO org.apache.hadoop.ipc.client:正在重试连接到服务器:localhost/127.0.0.1:9000。已尝试0次。2014-05-14 09:28:39,109 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经尝试了1次。2014-05-14 09:28:40,109 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试过2次了。2014-05-14 09:28:41,110 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试过3次了。2014-05-14 09:28:42,111 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试过4次了。2014-05-14 09:28:43,111 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试过5次了。2014-05-14 09:28:44,112 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试过6次了。2014-05-14 09:28:45,112 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试了7次了。2014-05-14 09:28:46,113 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已经试了8次了。2014-05-14 09:28:47,113 INFO org.apache.hadoop.ipclient:正在重试连接到服务器:localhost/127.0.0.1:9000。已尝试<<<<<
我将jar文件从hadoop文件夹复制到hbase/lib文件夹,以解决不兼容问题。
kandabap@prakashl:/usr/lib/hbase/hbase-0.94.8/logs$ netstat -ntla
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 0 0.0.0.0:48575 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:58304 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50020 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:2181 0.0.0.0:* LISTEN
tcp 0 0 127.0.0.1:47238 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50090 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:42987 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50060 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50030 0.0.0.0:* LISTEN
tcp 0 0 127.0.0.1:60020 0.0.0.0:* LISTEN
tcp 0 0 127.0.0.1:8020 0.0.0.0:* LISTEN
tcp 0 0 127.0.0.1:8021 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:35255 0.0.0.0:* LISTEN
tcp 0 0 127.0.0.1:631 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50010 0.0.0.0:* LISTEN
tcp 0 0 0.0.0.0:50075 0.0.0.0:* LISTEN
将hbase.rootdir的值从hdfs://localhost:9000/hbase更改为hbase-site.xml中的hdfs://localhost:8020/hbase,并重新启动hbase。
我想使用 Confluent 的复制器将数据从一个系统复制到另一个系统。我正在使用两个Ubuntu 18.04系统,其中一个充当源,另一个充当目的地。 我尝试在分布式模式下运行kafka connect replicator,更改了以下配置: < li >在confluent/etc/Kafka/server . properties中,我做了以下更改 源 目的地 然后,我在源系统中创建了主题,并
Hadoop版本=2.4.1 hbase版本=0.98.6 我已经在下面的conf上启动并顺利运行了hadoop: 107.108.86.119-hadoop namenode,secondarynamenode 107.109.155.100-datanode1 107.109.155.102-datanode2 现在我按以下方式安装hbase:- 107.108.86.114:-hmaster
我试图在调试模式下启动我的android应用程序,但每次我检查它说这是错误的。更进一步,在buildtypes中定义的buildconfigField甚至不会显示在BuildConfig中。 这是我的gradle文件: 因此,在Android Studio中,我为我的应用程序选择了build Variant“debug”,但当我在应用程序中点击一个断点并检查的值时,无法解析字段,并且无法解析
我们开始Kafka,动物园管理员和Kafka连接在第一个盒子。我们也在第二个盒子里开始了Kafka连接。现在,根据confluent文档,我们必须使用REST API启动HDFS连接器(或任何其他连接器)。所以,在这两个框中启动kafka connect之后,我们尝试通过REST API启动connector。我们尝试了以下命令:- 当我们在这里按enter键时,我们得到以下响应: 位于etc/k
我无法在hadoop fs-ls/命令上查看HDFS中的文件,我想这是因为name节点没有运行。我尝试了格式化namenode,并将core-site.xml中的端口更改为不同的值,但我的JPS没有列出namenode。 下面是这些文件:1)core-site.xml 3)mapred-site.xml JPS输出为: 21043作业跟踪器 20839数据阳极
最近我从旧的蝗虫版本(0.14.2)切换到1.3.1。以前,我可以使用命令WebsiteUser().run()在调试模式下运行,它会在所有断点上停止。 当我尝试使用相同的命令运行新版本时,会出现下一个错误: 文件“/home/user/PycharmProjects/my_test/venv/lib/python3.7/site packages/hocust/user/users.py”,第2