我已经在12个节点上安装了Spark2.0.0(在集群独立模式下),当我启动它时,我得到以下信息:
./sbin/start-all.sh
启动org.apache.spark.deploy.master.master,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.master.master-1-ibnb25.out
localhost192.17.0.17:ssh:无法解析主机名localhost192.17.0.17:名称或服务未知
192.17.0.20:启动org.apache.spark.deploy.worker.worker,登录到/home/mbala/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb28.out
192.17.0.21:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb29.out
192.17.0.19:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb27.out
192.17.0.18:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb26.out
192.17.0.24:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb32.out
192.17.0.22:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb30.out
192.17.0.25:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb33.out
192.17.0.28:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb36.out
192.17.0.27:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb35.out
192.17.0.17:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb25.out
192.17.0.26:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb34.out
192.17.0.23:启动org.apache.spark.deploy.worker.worker,登录到/home/mname/fer/spark-2.0.0-bin-hadoop2.7/logs/spark-mname-org.apache.spark.deploy.worker-1-ibnb31.out
我已经设置了端口o master port=8081,它的IP=192.17.0.17表示hostname=IBNB25,我从这台主机启动了集群。
在本地计算机上,我使用以下命令访问群集
ssh mName@xx.xx.xx.xx
当我想从我的本地机器访问web UI时,我使用了主机的IPaddress(主机ibnb25)
192.17.0.17:8081
但是它无法显示,所以我尝试使用访问群集的地址
xx.xx.xx.xx:8081
但我的浏览器上什么也没显示......怎么啦??请帮帮我
您的/etc/hosts文件似乎设置不正确。
您应该通过以下命令获得主机名和IP:
hostname
hostname -i
确保主机名和IP之间有空格。
192.17.0.17 <hostname>
192.17.0.17 localhost
<Other IP1> <other hostname1>
.
.
.
<Other IP-n> <other hostname-n>
问题内容: 我真的很想用Struts2来解决问题- 通过省略部分路径,我可以访问JSP页面。请注意该路径应该包括在内。关键是要看路径中的单词。 这是文件: 我可以通过: 和通过: 请注意,在两个URL中,我都可以删除,为什么? 来源:http: //www.mkyong.com/misc/how-to-use-mkyong- tutorial/ 有人可以看完上面的教程,告诉我怎么了吗? 问题答案:
我无法访问 尝试的网址:localhost/htdocs 本地主机:80/htdocs IP: 80/htdocs 总是同样的错误 错误: 未找到对象! 在此服务器上找不到请求的URL。如果您手动输入URL,请检查拼写并重试。 如果您认为这是服务器错误,请联系网站管理员。 所有服务都正常运行我正在使用端口:80 我查看了apacheconf: 这是根医生 DocumentRoot:您将在其中提供文
我正在用log4j2创建Spring-Boot应用程序。我使用的库是:https://mvnrepository.com/artifact/org.apache.logging.log4j/log4j-api/2.11.1 https://mvnrepository.com/artifact/org.apache.logging.log4j/log4j-core/2.11.1 在这些JAR中找不到
我是docker的新手,正在尝试容器化一个简单的Spring Boot应用程序。docker文件如下所示。 谢谢!!
Magnus@Martin-HP-625~/下载/robomind$cat./robomind.sh java-jar-djava.ext.dirs=lib-dsun.java2d.ddscale=true-dsun.java2d.noddraw=true RoboMind.jar Magnus@martin-HP-625~/downloads/robomind$java-jar-djava.ex
这个问题是这个问题的后续问题。我似乎无法用下面的代码访问jackson库:
当我的吊舱试图查询任何kubeletendpoint(任何端口)时,它们立即得到一个。 编辑:以上情况发生在任何端口上,而不仅仅是4194 ServiceMonitor:
问题内容: 我正在尝试将方法传递给子组件以处理onclick事件。我在网上看到了很多示例,但无法正常运行。当我在父级的渲染功能中并尝试将“ this.handleClick”传递给子级时,handleClick是未定义的。 看一下ThumbList的渲染方法: 知道我可能会缺少什么吗? 问题答案: 如果您在开发工作流程中使用Babel之类的编译器,则建议使用箭头函数: 如您所见,这是一个很好的紧凑