当前位置: 首页 > 知识库问答 >
问题:

Flume-即使接收器不工作,源也会接受事件吗?

贺山
2023-03-14

水槽新手。

假设我有一个代理,它有一个 avero 源、一个 hdfs 接收器和一个文件通道。

假设在某个时候接收器无法写入hdfs。源是否会继续接受事件,直到通道填满?

或者即使文件通道未满,源也会停止接受事件吗?

共有1个答案

逑彬炳
2023-03-14

我已经对此进行了广泛的测试。在这种情况下,您将遇到困难。当接收器失败时,Flume 将开始引发异常。根据流的速度,频道也会填满,从而导致更多异常。控制故障的最佳方法是使用故障转移接收器处理器并配置接收器组。这样,如果一个接收器发生故障,你将设置一个备份接收器,其中数据丢失非常小。根据我的经验,我已经设置了一个 Avro 接收器,该接收器转到拓扑中的第二个 Flume 代理跳跃,如果该 Flume 代理出现故障,那么我的故障转移接收器是 2 个不同的 Hadoop 集群,我通过 HDFS 接收器将 Flume 事件写入其中一个 Hadoop 集群。然后,您必须回填这些事件。我发现网猫源对此很有效。

 类似资料:
  • 某些HDFS接收器文件未关闭 有人说,如果接收器进程因超时条件等问题而失败,它不会再次尝试关闭文件。 我已经查看了水槽日志文件,但没有错误。然而,日志文件显示,每个周期,flume生成两个tmp文件,只关闭一个tmp。。。 对于配置的任何建议将不胜感激!谢谢!

  • 问题内容: 我正在尝试开发一个可检测用户何时拍照的应用程序。我设置了广播接收器类,并通过以下方式将其注册到清单文件中: 无论我做什么,该程序都不会收到广播。这是我的接收器类: 如果删除清单和活动中的mimeType行,则使用以下命令发送自己的广播 然后我成功接收到广播,可以看到日志和吐司窗口​​。我是否采用正确的方法?有什么需要补充的吗? 问题答案: 我解决了这个问题,但是使用了另一种方法。我没有

  • 我们使用Flume和S3来存储我们的事件。我认识到,只有当HDFS接收器滚动到下一个文件或Flume优雅地关闭时,事件才会传输到S3。 在我看来,这可能会导致潜在的数据丢失。Flume文档写道: ...Flume使用事务性方法来保证事件的可靠传递。。。 此处是我的配置: 我想我只是做错了什么,有什么想法吗?

  • 我尝试使用Flume 1.7将数据加载到HDFS中。我创建了以下配置: 之后,我使用 netcat 将以下文件发送到源: 该文件包含以下元素: 我面临的问题是,没有任何错误,flume正在写入hdfs,但只有一行传输的文件。如果您开始使用nectat多次将文件推送到源文件,那么有时flume会将多个文件写入hdfs,包括多个行。但很少是所有行。 我试图改变hdfs参数roll大小,批量大小和其他,

  • 我正在收听一个Activemq队列。 我的配置如下: 从控制台日志中,我可以看到尝试重新连接到该服务器。 [2014-08-20 08:57:43,303]INFO 236[ActiveMQ Task-1]-org.apache.activemq.transport.failover.FailoverTransport.doReconnect(FailoverTransport.java:1030

  • 我正在尝试基于非阻塞NIO消息开发自己的通信库。我已经阅读了1000篇关于它的教程和书中的章节,我认为最后我有了一些可以在几乎没有同时连接的情况下工作的东西。但是当我在服务器端有很多连接共存时,我遇到了一些问题。 我有4个私有方法的典型选择器实现:accept、finishConnect、read和write。我的问题在于前两个:接受和完成连接。 当客户端打开一个新的套接字,并且一个可接受的键唤醒