当前位置: 首页 > 软件库 > 程序开发 > 缓存系统 >

Localmemcache

高性能Ruby缓存系统
授权协议 未知
开发语言 C/C++ Ruby
所属分类 程序开发、 缓存系统
软件类型 开源软件
地区 不详
投 递 者 卫泉
操作系统 Linux
开源组织
适用人群 未知
 软件概览

Localmemcache 是一个高性能的基于 Unix/Linux mmap() 接口的 key-value 数据库,采用 Ruby 开发,同时也提供 C 语言的客户端接口。

安装方法:gem install localmemcache

示例代码:

require 'localmemcache'
# 1. the memcached way
# $lm = LocalMemCache.new :namespace => :viewcounters
# 2. the GDBM way
#$lm = LocalMemCache.new :filename => "./viewcounters.lmc"
# 3. Using LocalMemCache::SharedObjectStorage
$lm = LocalMemCache::SharedObjectStorage.new :filename =>
"./viewcounters.lmc"
$lm[:foo] = 1
$lm[:foo]
$lm.delete(:foo)

性能:

在一台配置为Intel(R) Xeon(R) CPU E5205 @ 1.86GHz 的服务器上对下面几个系统进行性能比较:

Ruby 压力测试伪码:

2_000_000.times {
index = rand(10000).to_s
$hash.set(index, index)
$hash.get(index)
}
MemCache:              253,326.122 ms
GDBM: 24,226.116 ms
Tokyo Cabinet: 9,092.707 ms
Localmemcache 0.4.0: 5,310.055 ms
Ruby Hash of Strings: 4,963.313 ms
 相关资料
  • 主要内容:(1)为什么要用缓存集群,(2)20万用户同时访问一个热点缓存,(3)基于流式计算技术的缓存热点自动发现,(4)热点缓存自动加载为JVM本地缓存,(5)限流熔断保护,(6)本文总结这篇文章,跟大家讲讲站在一个程序员的角度,自己的后台架构应该如何抗住一天3个热点涌入的巨大流量! (1)为什么要用缓存集群 其实使用缓存集群的时候,最怕的就是热key、大value这两种情况,那啥叫热key大value呢? 简单来说,热key,就是你的缓存集群中的某个key瞬间被数万甚至十万的并发请求打爆。大

  • 我必须使用StackExhange.redis C#在redis缓存中频繁添加N个(独立的)项,每个项都有不同的过期时间,以便在客户端有最小的时间,在服务器端有最小的阻塞和成本。Redis服务器每秒将收到数百个get请求,所以我不想打乱get时间。 我已经阅读了这里的文档并在这里回答。我找不到一个执行此操作的方法。考虑到不同的选择: null

  • ES 内针对不同阶段,设计有不同的缓存。以此提升数据检索时的响应性能。主要包括节点层面的 filter cache 和分片层面的 request cache。下面分别讲述。 filter cache ES 的 query DSL 在 2.0 版本之前分为 query 和 filter 两种,很多检索语法,是同时存在 query 和 filter 里的。比如最常用的 term、prefix、rang

  • 我已经在solrcloud 4.3.0中为我的索引配置了solr缓存。我还将自动提交策略配置为1h hard commit和opensearcher false。虽然我没有重新打开searcher,但似乎每1小时我的缓存就会被刷新并重置。据我所知,只有关闭和打开新的搜索程序才能导致缓存被刷新。但我不明白为什么会这样?

  • 我有一个相当大的java ee应用程序,它有一个巨大的类路径来执行大量的xml处理。目前,我正试图通过取样探查器来加速我的一些功能和定位缓慢的代码路径。 我注意到的一件事是,特别是我们的代码中有等调用的部分非常慢。我一直跟踪到方法,总是创建一个新的实例。在javadoc中,我找到了关于缓存的以下说明: 提供程序是懒惰地定位和实例化的,即按需提供。服务加载器维护到目前为止已加载的提供程序的缓存。迭代