我需要帮助。
我已经下载了Apache Flume并安装在Hadoop之外,只是想尝试通过控制台进行netcat日志记录。我使用1.6.0版本。
这是我的confhttps://gist.github.com/ans-4175/297e2b4fc0a67d826b4b
这是我是如何开始的
bin/flume-ng agent -c conf -f conf/netcat.conf Dflume.root.logger=DEBUG,console -n Agent1
但是仅在打印这些输出后就卡住了
Info: Sourcing environment configuration script /root/apache-flume/conf/flume-env.sh
Info: Including Hive libraries found via () for Hive access
+ exec /usr/lib/jvm/java-1.7.0-openjdk-amd64/bin/java -Xms100m -Xmx2000m -cp '/root/apache-flume/conf:/root/apache-flume/lib/*:/root/apache-flume/lib/*:/lib/*' -Djava.library.path= org.apache.flume.node.Application -f conf/netcat.conf Dflume.root.logger=DEBUG,console -n Agent1
对于简单的启动和安装有什么建议吗?
谢谢
我傻了,这是应该的
bin/flume-ng agent -c conf -f conf/netcat.conf -Dflume.root.logger=DEBUG,console -n Agent1
我正在开发一个现有的Spring集成代码,该代码被卡住了。 代码: 在网上做了一些搜索之后,下面是我对代码的理解。如果我错了,请纠正我: 拆分器输出通道是容量为25的队列通道,这意味着它将从查询中获取一批25条记录。 现在,service activator中编写的代码将每100毫秒轮询一次,并从队列通道中获取25条消息。Service Activator与task executor一起在多线程环
我正在尝试使用hdfs水槽运行水槽。hdfs在不同的机器上正常运行,我甚至可以与水槽机器上的hdfs交互,但是当我运行水槽并向其发送事件时,我收到以下错误: 同样,一致性不是问题,因为我可以使用hadoop命令行与hdfs交互(水槽机不是datanode)。最奇怪的是,在杀死水槽后,我可以看到tmp文件是在hdfs中创建的,但它是空的(扩展名仍然是. tmp)。 关于为什么会发生这种情况的任何想法
我遇到了Flume的问题(Cloudera CDH 5.3上的1.5): 我想做的是:每5分钟,大约20个文件被推送到假脱机目录(从远程存储中抓取)。每个文件包含多行,每行是一个日志(在JSON中)。文件大小在10KB到1MB之间。 当我启动代理时,所有文件都被成功推送到HDFS。1分钟后(这是我在flume.conf中设置的),文件被滚动(删除. tmp后缀并关闭)。 但是,当在假脱机目录中找到
我想使用 flume 将数据从 hdfs 目录传输到 hdfs 中的目录,在此传输中,我想应用处理形态线。 例如:我的来源是 我的水槽是 有水槽可能吗? 如果是,源水槽的类型是什么?
我有一个在 Ubuntu 工作站上运行的 Flume 1.5 代理,它从各种设备收集日志并将日志重新格式化为具有很长行的逗号分隔文件。在收集和重新格式化日志后,它们被放入假脱机目录中,Flume 代理将日志文件发送到运行 Flume 代理的 Hadoop 服务器,以接受日志文件并将它们放在 HDFS 目录中。 除了当Flume将文件发送到HDFS目录时,每行每2048个字符后有换行符之外,一切都正
投了txyz一志愿测开二志愿前端 (鼠的前端水平局限于vue➕elementui,大部分代码都是gpt写的(对不起,课设而已。。。) 一志愿挂了,二志愿约面 本身前端知识就很少,但是因为tx本公司根本不约面,又因为打来的电话显示的是广州,还以为是广州的岗位。所以觉得还是要硬着头皮面一下子公司。 然后一面的时候就等了15分钟,等不到面试官,结果是面试官开会忙忘了重新约了时间。 面试官开了摄像头也道歉