我创建了一个MongoDB自动分片集群,其中包含3个分片服务器(无复制),1个配置服务器和1个Mongos实例。
下面是 sh.status() 输出。
mongos> sh.status()
--- Sharding Status ---
sharding version: {
"_id" : 1,
"minCompatibleVersion" : 5,
"currentVersion" : 6,
"clusterId" : ObjectId("56ffa36ab327ae2bee8fe804")
}
shards:
{ "_id" : "shard0000", "host" : "172.18.109.46:27018" }
{ "_id" : "shard0001", "host" : "172.18.109.60:27018" }
{ "_id" : "shard0002", "host" : "172.18.109.63:27018" }
balancer:
Currently enabled: yes
Currently running: no
Failed balancer rounds in last 5 attempts: 0
Migration Results for the last 24 hours:
3 : Failed with error 'aborted', from shard0000 to shard0001
749 : Failed with error 'data transfer error', from shard0000 to shard0001
databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "NLA_M", "partitioned" : true, "primary" : "shard0000" }
NLA_M.Read
shard key: { "Status.StatusCode" : 1 }
chunks:
shard0000 18
{ "Status.StatusCode" : { "$minKey" : 1 } } -->> { "Status.StatusCode" : 200
} on : shard0000 Timestamp(1, 1)
{ "Status.StatusCode" : 200 } -->> { "Status.StatusCode" : 202 } on : shard0
000 Timestamp(1, 14)
{ "Status.StatusCode" : 202 } -->> { "Status.StatusCode" : 300 } on : shard0
000 Timestamp(1, 15)
{ "Status.StatusCode" : 300 } -->> { "Status.StatusCode" : 301 } on : shard0
000 Timestamp(1, 16)
{ "Status.StatusCode" : 301 } -->> { "Status.StatusCode" : 302 } on : shard0
000 Timestamp(1, 3)
{ "Status.StatusCode" : 302 } -->> { "Status.StatusCode" : 303 } on : shard0
000 Timestamp(1, 4)
{ "Status.StatusCode" : 303 } -->> { "Status.StatusCode" : 400 } on : shard0
000 Timestamp(1, 5)
{ "Status.StatusCode" : 400 } -->> { "Status.StatusCode" : 401 } on : shard0
000 Timestamp(1, 17)
{ "Status.StatusCode" : 401 } -->> { "Status.StatusCode" : 403 } on : shard0
000 Timestamp(1, 18)
{ "Status.StatusCode" : 403 } -->> { "Status.StatusCode" : 404 } on : shard0
000 Timestamp(1, 19)
{ "Status.StatusCode" : 404 } -->> { "Status.StatusCode" : 406 } on : shard0
000 Timestamp(1, 7)
{ "Status.StatusCode" : 406 } -->> { "Status.StatusCode" : 498 } on : shard0
000 Timestamp(1, 8)
{ "Status.StatusCode" : 498 } -->> { "Status.StatusCode" : 500 } on : shard0
000 Timestamp(1, 9)
{ "Status.StatusCode" : 500 } -->> { "Status.StatusCode" : 501 } on : shard0
000 Timestamp(1, 11)
{ "Status.StatusCode" : 501 } -->> { "Status.StatusCode" : 503 } on : shard0
000 Timestamp(1, 20)
{ "Status.StatusCode" : 503 } -->> { "Status.StatusCode" : 504 } on : shard0
000 Timestamp(1, 21)
{ "Status.StatusCode" : 504 } -->> { "Status.StatusCode" : 524 } on : shard0
000 Timestamp(1, 22)
{ "Status.StatusCode" : 524 } -->> { "Status.StatusCode" : { "$maxKey" : 1 }
} on : shard0000 Timestamp(1, 13)
NLA_M.ReadTime
shard key: { "TimeElapsed" : 1 }
chunks:
shard0000 194
too many chunks to print, use verbose if you want to force print
{ "_id" : "test", "partitioned" : false, "primary" : "shard0001" }
mongos>
虽然这里的块数量很大,但所有数据都只存储在一个分片中。平衡器状态为“活动”,但它不是一直运行。一旦它只运行了5-10秒。它显示如下错误,
Failed balancer rounds in last 5 attempts: 0
Migration Results for the last 24 hours:
3 : Failed with error 'aborted', from shard0000 to shard0001
749 : Failed with error 'data transfer error', from shard0000 to shard0001
任何人都可以帮我解决它吗?我是MongoDB的新手,希望通过创建分片集群来学习和测试MongoDB的可扩展性。
如果有助于解决问题,以下是更多信息:
创建集群时,我遵循以下步骤。
我也用不同的分片键试过同样的方法(正如我所想的,选择分片键是个问题),但结果也是一样的。“NLA_M.Read”有一个分片密钥,其值的范围在100
如果我错过了什么,请告诉我。
谢谢:)
以前所有PC都有不同版本的MongoDB,例如,
Mongos server - 3.0.11
Config server - 3.2.4
Shard server 0 - 3.2.4
Shard server 1 - 2.6.12
Shard server 2 - 2.6.12
我认为不同版本的MongoDB可能是问题所在,因此我在所有3.2.4版本的PC上重新安装了MongoDB。
现在它运行良好。
谢谢你。:)
我在5台机器上安装了MongoDB 3.2.6,这些机器都形成了由2个碎片组成的碎片集群(每个碎片都是具有主次仲裁器配置的副本集)。 我还有一个数据库,其中包含非常大的集合(约50M记录,200GB),它是通过mongos导入的,mongos将其与其他集合一起放入主分片。 我在该集合上生成了散列ID,这将是我的分片密钥。 在thay之后,我用: 命令返回: 它开始碎裂。碎片的状态如下所示: 这一切
null
调整集群的分片分配 在ElasticSearch Server一书中,我们探讨了如何强制改变分片的分配方式,如何取消、如何使用一条API命令在集群中转移分片。然而在谈论到分片分配时,ElasticSearch允许我们做的不止如此,我们还可以定义以系列用于分片分配的规则。例如,假定一个4-节点的集群,图示如下: 正如你所看到的一样,集群由4个节点构成。每个节点都绑定了一个特定的IP地址,同时每个节点
主要内容:MongoDB 中的分片,分片实例分片是跨多台机器存储数据的过程,它是 MongoDB 满足数据增长需求的方法。随着数据的不断增加,单台机器可能不足以存储全部数据,也无法提供足够的读写吞吐量。通过分片,您可以添加更多计算机来满足数据增长和读/写操作的需求。 为什么要分片? 在复制中,所有写操作都将转到主节点; 对延迟敏感的查询仍会转到主查询; 单个副本集限制为 12 个节点; 当活动数据集很大时,会出现内存不足; 本地磁盘不够大;
我在localhost上设置了一个分片的mongo db环境,有3个配置服务器、2个分片的mongo实例和一个mongos。 集群启动后,我运行以下命令序列: 我启用数据库进行分片,并创建一个索引等。 以上所有操作的结果都是成功的。 但是一旦我做到了:db.foo.stats() 我看到所有的数据都在一个分片中结束,而没有被分发。和运行 生产: 然而,有趣的是,如果我从一个空白集合开始,并在向其中
我已经在一台具有三个不同端口(例如27018[master]、27019、27020)的机器中进行了复制。我还在一台机器上用两个不同的端口(比如27021、27022)进行了分片。 现在我必须为分片的计算机端口实现复制。我需要为27021和27022实现复制。我怎么能这么做?请帮我解决这个问题。 null