DSE版本4.8.2
我用数据向集群添加了6个新节点,并将bootstrap:false。他们加入后,我正在对每一个进行重建。我相信1NODE已完成,但控制台上的命令仍在“运行”(例如,我还无法运行另一个命令)。我想确保它完全完成。该单元没有压实,也没有活动的溪流。更新:现在已经4天了,仍然处于命令提示符下。
除了compationstats和netstats,还有什么我可能缺少的吗?我看到它流式传输数据,然后它压缩了它,但是现在……
还有一个问题,在我完全完成重建和清理之后,我是否应该考虑其他任务来完全同步集群?
更新:
当我尝试运行重建时,我不断收到以下错误。我将Ubuntu 14.04中的文件限制提高到200,000,但我仍然收到错误。
信息〔MemtableFlushWriter:747〕2016-02-29 03:57:18114 Memtable。java:382-已完成刷新/media/slot02/cjd/match-b633b251a04f11e58b7b89a485a622c1/cjd-match-tmp-ka-127932-Data。db(71.866MiB)用于commitlog位置ReplayPosition(segmentId=1456708497054,position=14141564)INFO[ScheduledTasks:1]2016-02-29 03:58:33573 ColumnFamilyStore。java:905-排队刷新compaction_history:17177(0%)在堆上,0(0%)堆外信息[MemtableFlushWriter:748]2016-02-29 03:58:33574 Memtable。java:347-编写Memtable-compaction_history@971836863(3.428KiB序列化字节,123个操作,0%/0%的开/关堆限制)信息[MemtableFlushWriter:748]2016-02-29 03:58:33575 Memtable。java:382-已完成刷新/media/slot01/system/compaction_history-b4dbb7b4dc493fb5b3bfce6e434832ca/system-compaction_shistory-tmp-ka-142-Data。db(0.000KiB),用于commitlog位置ReplayPosition(segmentId=1456708497058,position=20942643)警告[STREAM-IN-/10.1.243]2016-02-29 04:00:02317 CLibrary。java:231-打开(/media/slot01/cjd/match-b633b251a04f11e58b7b89a485a622c1,O_RDONLY)失败,错误号(24)。错误[STREAM-IN-/10.1.243]2016-02-29 04:00:02541 JVM稳定性检查器。java:117-JVM状态被确定为不稳定。由于:java.io而强制退出。文件未找到异常:/media/slot01/cjd/match-b633b251a04f11e58b7b89a485a622c1/cjd-match-tmp-ka-128371-Index。db(打开的文件太多)位于java.io.RandomAccessFile。open0(本机方法)~[na:1.8.0_72]位于java.io.RandomAccessFile.open(RandomAccountFile.java:316)~[name:1.8.0_172]位于java.io.RandomAccessFile。(RandomAccessFile.java:243)~[na:1.8.0_272]位于org.apache.cassandra.io.util.SequentialWriter..java:111)~位于org.apache.cassandra.io.util.SequentialWriter.open(Sequential Writer.java:106)的[cassandra-all-2.1.11.908.jar:2.1.11.908]位于org.aaphe.cassndra.io.sstable.SSTableWriter$IndexWriter~位于org.apache.cassandra.io.sstable.SSTableWriter.(SSTableWriter.java:81)的[cassandra-all-2.1.11.908.jar:2.1.11.908]位于org.aaphe.casssandra.streaming.StreamReader.createWriter(StreamReader.java:135)的~[cassandera-all-2.111.908.jar:2.1.11.808]~位于org.apache.cassandra.streaming.messages.IncomingFileMessage$1.反序列化(IncomingFile Message.java:48)~[cassandra-all-2.1.11.908.jar:2.1.11.908]org.apache.cassandra.streaming.messages.StreamMessage.deserialize(StreamMessage.java:56)~[cassandra-all-2.1.11.908.jar:2.1.11.908]位于org.apacher.cassandra.streaming.ConnectionHandler$IncomingMessageHandler.run(ConnectionHandler.java:250)~[cassandra-all-2.1.11.808.jar=2.1.11.908]位于java.lang.Thread.run(Thread.java:745)[na:1.8.0_72]INFO[Thread-2]2016-02-29 04:00:2543 DseDaemon。java:418-DSE正在关闭。。。
我的OpenFile限制目前是ulimit -a的200,000。我可以尝试更高,但Cassandra建议限制为100,000。
如果我必须猜测,问题是一个节点无法压缩,因为数据来自的节点上有2个磁盘已满。当它从那里拉取重建数据时,它会拉取50,000个小文件,而不是其他节点拉取1-2个大文件。也许这就是我必须首先解决的问题?
真的需要帮助...谢谢!
谢谢,
一个棘手的问题是,无论您通过limits.conf设置什么,都会被limits.d/cassandra.conf中的设置覆盖,所以请记住,也要根据您的需要从那里编辑文件。
另外,正如@phact提到的,请确保您期望的内容确实通过上面的猫存在。
确保您的乌里米特已正确设置
cat /proc/<DSE pid>/limits
我经常看到人们认为他们设置了ulimited配置,但却是为错误的用户设置的。如果您检查特定的进程ID,您可以100%确定。
我在一个集群中添加了6个新节点,并放入bootstrap:false
首先,这是错误的,根据文档,在向集群添加新节点时,您应该输入auto_bootstrap = true
见此:http://docs . datas tax . com/en/Cassandra/2.1/Cassandra/operations/ops _ add _ node _ to _ cluster _ t . html
其次,建议一次添加一个或两个节点,而不是同时添加所有6个节点,因为这会给网络带来很大压力(因为数据流)
请看下面的代码,让我知道我哪里做错了? 使用: DSE版本-5.1.0 172.31.16.45:9042连接到测试群集。[cqlsh 5.0.1|Cassandra3.10.0.1652|DSE 5.1.0|CQL规范3.4.4|本地协议v4]使用HELP寻求帮助。 谢谢 斯卡拉 斯卡拉 斯卡拉 我在这里什么都得不到?甚至没有错误。
引用这篇文章: http://www.datastax.com/dev/blog/4-simple-rules-when-using-the-datastax-drivers-for-cassandra Cassandra的存储引擎进行了优化,以避免存储不必要的空列,但是当使用预准备语句时,那些未提供的参数会导致空值被传递给Cassandra(从而存储墓碑)。目前,这种情况的唯一解决方法是为最常见
我正在观看有关使用Cassandra的Uber实时位置存储的谈话,并对分区键感到好奇。我最初的思路是拥有以下字段: ride_id driver_id 时间戳 纬度 经度 对于分区键,我在以下各项之间: < li >复合主键(ride_id,driver_id) < li >主键(ride_id) < li >主键(driver_id) 查询时,我想查询给定行程的位置数据,并可能查询给定驱动程序的
刚才,我们使用datastax spark连接器计算了一些统计数据。重复的查询在每次执行时返回不同的结果。 这可能是卡桑德拉、火花或连接器的问题吗?在每一种情况下,是否存在一些配置方法来防止这种情况?
我用的是Spring boot < code > 1 . 3 . 8 . release 。为了使用cassandra 3.x驱动程序,我尝试了如下方法: 但我出错了; 我在https://github.com/spring-projects/spring-boot/issues/5835,有一个帖子; 在Spring Data Cassandra 1.5(Ingalls)中采用Cassandra
我已经和Cassandra合作了一段时间,并遵循了以下链接中的基准测试提示: http://www.datastax.com/dev/blog/how-not-to-benchmark-cassandra 我有4个节点运行Cassandra,2个不同的节点使用本机基准测试工具“cassandra-stress”为集群提供数据。我知道,由于Cassandra写操作的LSM特性,它们很难绑定到IO,但