当前位置: 首页 > 知识库问答 >
问题:

hadoop fs中的SocketTimeoutException-getmerge

姬雪松
2023-03-14

我正在运行hadoop fs-getmerge,出现以下错误:

12/10/30 09:24:45 INFO hdfs.DFSClient: Failed to connect to /[IP], add to
deadNodes and continue
java.net.SocketTimeoutException: 60000 millis timeout while waiting for channel to be   
ready for read. ch : java.nio.channels.SocketChannel

每次尝试使用不同的IP时都会出现此错误,在数据节点日志中我没有看到任何可疑错误或警告。

有什么想法吗?

共有1个答案

张瀚漠
2023-03-14

HDFS读取直接从保存DataNodes的块中完成。

这背后的一个常见原因是缺乏合适的客户机,尤其是如果这种方式在故障方面是一致的➜ 由于防火墙或其他原因,数据节点连接。

 类似资料:
  • 我试图将请求发送到服务器以获取数据,但有时它是occure!

  • 问题内容: 这是一个基于客户端/服务器的简单ping / pong程序。不幸的是,IT无法正常工作并显示以下错误消息: 它停止在CLIENT TASK 30行,实际上,客户端不读取服务器已发送的内容。这里的代码: 服务器 服务器任务 客户 客户任务 问题答案: 问题出在循环内部的使用与从连接另一端处理套接字的方式之间的交互。 仅当从其读取的流结束时才返回-1,这在本质上将意味着套接字已关闭。在关闭

  • 下面是我试图编写的java应用程序的一小部分: 我收到一个错误,说明catch(SocketTimeoutException)不可访问。我想建立套接字超时以防止套接字read()永远阻塞,如果发生SocketTimeoutException,我的应用程序将尝试建立到下一个可用服务器的套接字连接并尝试相同的read()操作。 我非常感谢提供的任何帮助,因为我尝试使用不同的IO类但没有成功。

  • 我在我的build.gradle文件中使用P4Java库来同步一个大的zip文件( 我尝试增加套接字读取超时,从默认的30秒开始,就像http://answers.perforce.com/articles/KB/8044建议的那样,还引入了睡眠,但是这两种方法都没有解决问题。在执行同步或删除操作之前,使用getServerInfo()探测服务器以验证连接会导致成功的连接检查。有人能告诉我在哪里可

  • 我使用的是Apache httpclient 4.3.6和httpcore 4.3.3(与opensaml 3.3.0捆绑)。我试图通过HTTPS通过代理获取网页,但每次都会收到SocketTimeoutException。HTTP连接工作正常。具体的超时并不重要;它只是需要更长的时间才能以更高的值失败。 示例代码: 尝试连接到代理时引发异常。堆栈跟踪是 这看起来很像Apache问题HTTPCLI