当前位置: 首页 > 知识库问答 >
问题:

Apache Spark错误:无法连接到Akka.tcp://sparkmaster@

白丁雨
2023-03-14

该应用程序有一个类,使用以下行创建上下文

JavaSparkContext sc=new JavaSparkContext(new SparkConf().setappname(“spark count”).setmaster(“spark://10.62.82.21:7077”);

其中这个IP是火花工作的机器的IP。

共有1个答案

巫马自明
2023-03-14

检查您的Spark master日志,您应该会看到如下内容:

15/02/11 13:37:14 INFO Remoting: Remoting started; listening on addresses :[akka.tcp://sparkMaster@mymaster:7077]
15/02/11 13:37:14 INFO Remoting: Remoting now listens on addresses: [akka.tcp://sparkMaster@mymaster:7077]
15/02/11 13:37:14 INFO Master: Starting Spark master at spark://mymaster:7077

然后,当您连接到主机时,请确保使用与上面日志中找到的完全相同的主机名(不要使用IP地址):

.setMaster("spark://mymaster:7077"));

Spark standalone在主机名/IP方面有点挑剔。

 类似资料:
  • Q-我安装了git以获取最新版本的Angular。当我尝试运行时 我连接到github 443错误失败 我甚至试过 这使我无法连接,没有错误消息。 我在公司防火墙后面。转到控制面板时,我看不到我的代理详细信息- 我终于做到了。我将更新我所采取的程序,以便只是想编译我所做的所有步骤,以使它正常工作

  • 我有一个问题已经一个月了,但我没有找到解决办法。我的笔记本电脑和个人电脑都有这些问题(我以前启动过mongod): 错误:无法连接到服务器 127.0.0.1:27017 src/mongo/shell/mongo.js:91 异常:连接失败 错误:无法连接到服务器127.0.0.1:27017 src/mongo/shell/mongo。js:93异常:连接失败 错误:无法连接到服务器127.0

  • 尝试使用Docker容器将Kibana连接到ES时出错: kibana-product-624|{"type":"log","@time戳":"2018-05-25T14:56:36Z","tags":["警告","elasticsearch","admin"],"pid": 1,"消息":"无法恢复连接:超文本传输协议://elasticsearch: 9200/"}kibana-product

  • 问题内容: 关闭。 这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使其成为Stack Overflow 的主题。 7年前关闭。 我在linux框IP = 192.168.1.100上安装了mysql服务器,但是当我尝试连接到该IP时总是出错(111)。但是使用localhost并且127.0.0.1可以。 从另一台计算机连接它也会出现错误111。 在这种情况下,使用local

  • 我使用以下代码: 并得到以下错误: 这就好像客户端连接时甚至没有说SSL,但我被难住了。 尝试“强制”SSL套接字不会产生任何区别: 设置插座出厂时产生一个插座关闭异常: 我应该注意,我可以使用sftp操作endpoint,这样我就可以推断endpoint是否正常工作。

  • 我有一个本地的postgresql 10服务器(在9.6上测试了相同的版本,不要认为它与数据库有关,只与pgAdmin4有关,因为pgAdmin3工作得很好) 正如屏幕截图中所示,我试图在新安装时使用用户postgres连接到localhost db,但我一直收到以下消息: