当前位置: 首页 > 软件库 > 大数据 > 其他 >

Scribe

Facebook大量数据处理
授权协议 Apache
开发语言 C/C++
所属分类 大数据、 其他
软件类型 开源软件
地区 不详
投 递 者 胡志
操作系统 Linux
开源组织 Facebook
适用人群 未知
 软件概览

Scribe旨在帮助Facebook处理服务器上的大量数据,正像Scribe网页所述“如经常访问Facebook,请使用Scribe。”具体而言,Scribe就是一台服务器,实时收集用网站日志信息。

  • 备忘一个 Scribe is a server for aggregating log data that's streamed in real time from clients. It is designed to be scalable and reliable. scribe,facebook开源的日志服务器,做个记号,回头测测,看看怎么个实时法。如果靠谱还可以用做FTR的日志服务器。 =

  •   Facebook Scribe介绍 ------------------- 1. 介绍             Scribe是Facebook一个开源的实时分布式日志收集系统。它提高了大规模日志收集的可靠性和可扩展性。你可以在不同的节点上安装Scribe服务,然后这些服务会把收集到的信息发布到中心的服务集群上去。当中心服务不可得到时,本地的Scribe服务会暂时把收集到的信息存储到本地,等中心

  • scribe 是可靠的、容错的    scribe 设计的时候,考虑了网络故障、机器故障的问题,而没有考虑事务的支持。如果一个scribe的客户端实例,在发送信息给主机的时候出现了问题,那么它会将该部分信息暂时存到本地磁盘。当该问题解决之后,它会重新该部分信息发送给主机。为了避免在主机启动的时候给主机造成过重的负载,resender会等待一段时候后再去连接,目前这段时间是随机的。当主机的处理能力快

  • scribed 安装 转自 http://calmhawk.iteye.com/blog/1517303 最近做日志分流,早闻scribed大名,正好安装尝试一下.据说源码很简单,安装很麻烦. 公司yum源里其实有打好包的scribe,可惜是centos5的,苦逼的未升级的历史遗留centos4只能蛋疼的从源码安装. 刚开始借鉴的这篇: http://dongxicheng.org/search-

  • 参考http://www.54chen.com/java-ee/log-server-scribe-helper.html 最后一步有错误,应该如下: ./bootstrap.sh --prefix=/opt/soft/scribe --with-boost=/opt/soft/boost/ --with-thriftpath=/opt/soft/thrift/ --with-fb303path=

  •  前几天项目中用到的scribe日志系统。于是乎去网上看了一些资料。比较少,不过还是有一些的。又于是乎开始装。。。。结果装了5遍。还是没装上,怎么都编不过去。我快到崩溃的状态了。但是我还是比较死心眼的。。就是开始了第6回。T_T。 这次装的时候我把日志都打出来了。一步一步看。终于在此刻,装成功了。。。太不容易了。所以记录一下。。防止以后忘了。。 不说废话了。下面是我的安装步骤。仅供参考。 安装环境

  • scribe配置文件详解 1.全局配置项 (1)port:指示scribe服务器在哪一个端口上监听,默认是0,通过命令行参数选项-P可以指定端口,也能够通过配置文件指定。在源代码中就赋值给变量port。 (2)max_msg_per_second:默认值是0,如果这个参数值是0将被忽略。随着最近的改变这个参数很少被关联使用到,max_queue_size参数将被应用到限制每秒最大的消息数。在scr

  • scribe日志系统安装笔记 目前web访问日志为crontab定时清空,而且负载均衡后,访问随机分配到一台服务器。程序出错后需要分析日志时,需要登录几台机器查看,于是想用一台主机作日志主机,负责收集(按时间顺序而不用sort?)、分析日志。下面的是年前安装scribe日志系统的记录。 一、软件下载  wget http://www.monkey.org/~provos/libevent-2.0.

  •   我的独立博客网址是: http://wuyouqiang.sinaapp.com/ 。 我的新浪微博:http://weibo.com/freshairbrucewoo。 欢迎大家相互交流,共同提高技术。 以下是我在公司内部分享的关于分布式日志收集系统的PPT内容,现在与大家分享,希望对于需要使用的人能够起到基本的入门作用或是了解! 1.分布式日志收集系统:背景介绍 许多公司的平台每天会产生大

  • https://www.xiaomastack.com/2014/11/11/scribe-nginx-php/ 日志管理(4) 用scribe收集nginx和php日志 By  小马  · 十一月 11, 2014  ·  Scribe,  日志管理 ·  Leave a comment 介绍怎样用scribe收集各台服务器上nginx和php程序运行时自身产生的日志(error.log、acc

 相关资料
  • 问题内容: 我有一个Java应用程序,它需要显示大量数据(大约一百万个数据点)。数据并不需要全部同时显示,而仅在用户请求时才显示。该应用程序是桌面应用程序,未与应用程序服务器一起运行或未与任何集中式数据库连接。 我的想法是在计算机上运行数据库并在其中加载数据。在大多数时候,数据库都是只读的,因此我应该能够建立索引以帮助优化查询。如果我在本地系统上运行,则不确定是否应该尝试实现一些缓存(我不确定查询

  • 问题内容: 在我的代码中,用户可以上传一个excel文档,希望其中包含电话联系人列表。作为开发人员,我应阅读excel文件,将其转换为dataTable并将其插入数据库。问题是某些客户拥有大量的联系人,例如说5000个和更多的联系人,而当我尝试将这种数据量插入数据库时​​,它崩溃了,并给了我一个超时异常。避免这种异常的最佳方法是什么?它们的任何代码都可以减少insert语句的时间,从而使用户不必等

  • hive怎么进行增量更新呢?看到很多人是先分区例如根据create_time分区。每天根据create_time 新增数据。但是如果我的数据是会经常变动的呢?例如去年的数据,今年修改了。我应该如何更新这条数据进去。假设我现在数据是上亿的,应该怎么处理。 假设数据初始数据: 1 2024-08-10 15:18:00.000 wang 2 2024-08-10 15:18:00.000 xxx 3

  • 好吧,我对使用Scala/Spark还比较陌生,我想知道是否有一种设计模式可以在流媒体应用程序中使用大量数据帧(几个100k)? 在我的示例中,我有一个SparkStreaming应用程序,其消息负载类似于: 因此,当用户id为123的消息传入时,我需要使用特定于相关用户的SparkSQL拉入一些外部数据,并将其本地缓存,然后执行一些额外的计算,然后将新数据持久保存到数据库中。然后对流外传入的每条

  • 目前,我的应用程序的某些部分在将大量数据加载到报告表时遇到了速度问题。报告表中的数据是从多个表中提取的,并运行一些复杂的查询,但这是必需的。 除了优化代码,我的问题是,您个人如何处理需要向用户显示的大量数据,最佳实践是什么? 目前我正在处理所有的数据,然后通过javascript库生成数据表。 我知道的事情: 用户不需要一次看到所有数据 用户需要能够搜索所有数据 用户需要能够过滤数据 最好的方法真

  • 问题内容: 我用来并行化一些繁重的计算。 目标函数返回大量数据(庞大的列表)。我的RAM用完了。 如果不使用,我只需将生成的元素依次计算出来,就将目标函数更改为生成器。 我了解多处理不支持生成器- 它等待整个输出并立即返回,对吗?没有屈服。有没有一种方法可以使工作人员在数据可用时立即产生数据,而无需在RAM中构造整个结果数组? 简单的例子: 这是Python 2.7。 问题答案: 这听起来像是队列

  • 备忘 1 GB: 十亿个字节(Byte) 1(B) * 10*10^8 / 1024 / 1024 ≈ 953.67(MB) ≈ 1000(MB) ≈ 1(GB) 400 MB: 一亿个 4 字节(Byte) int 整型占用的内存 4(B) * 10^8 / 1024 / 1024 ≈ 381.57(MB) ≈ 382(MB) ≈ 400(MB) 10 亿个整型 -> 400(MB) * 10

  • 我有一个问题,在elasticsearch与mongob建立河流。如果日期的大小在一百万以内,我可以从mongob导入数据。但是当数据很大1000万或更大时,河流无法索引来自mongob集合的所有记录。 我在日志中看到这个错误 通常说river stale是错误的几次。此外,我在mongodb设置中的oplog大小为1024MB。