改变分片的默认分配方式
改变分片的默认分配方式
在前面的章节中,我们学习了很多关于分片的知识以及与之相关的特性。我们也讨论了shard allocation的工作方式(本章的调整集群的分片分配一节)。然而除了默认的分配方式,我们并没有探讨其它的内容。ElasticSearch提供了更多的分片分配策略来构建先进的系统。在本节,我们将更深入地了解在分片分配方面,我们还能做哪些事情。
ShardAllocator介绍
ShardAllocator是决定分片安置到哪个节点起主要作用的一个。 当ElasticSearch改变数据在节点上的分配时,比如集群拓扑结构的改变(当节点添加或者移出集群)或者用户强制集群进行再平衡操作,ElasticSearch中分片就需要重新分配。在ElasticSearch内部,分配器继承org.elasticsearch.cluster.routing.allocation.allocator.ShardsAllocator接口。ElasticSearch提供了两种类型的分配器,它们分别是:
- even\_shard
- balanced(默认实现)
even_shard 分片分配器
早在0.90.0版本之前,ElasticSearch就已经支持该分配器。它唯一的作用就是确保每个节点中分片数量都相同(当然,这一点并不总是能得到保证的)。它也不允许把主分片和它的副本存储在同一个节点上。当需要重新调整分片分布时,如果使用even_shard,只要集群没有达到完全平衡的状态或者分片间已经无法再移动了,ElasticSearch就会把一些分片从分片密集节点移动到分片稀疏节点。需要注意的是,这种分配器的应用层面并非索引层面,这意味着只要分片和它的副本分布在不同的节点上即可,它并不关心来自同一个索引的不同分片分配到哪个节点。
balanced 分片分配器
该分配器是ElasticSearch 0.90.0版本新引入的,它是基于服务器的重要程度来分配分片,这个重要程度是用户可以掌控的。与前面提到的even_shard分配器相比,它通过暴露一些参数接口给用户来实现分片分配过程的调整,这些参数可以用集群的update API实时更新,它们是:
- cluster.routing.allocation.balance.shard:默认值 0.45
- cluster.routing.allocation.balance.index:默认值 0.5
- cluster.routing.allocation.balance.primary:默认值 0.05
- cluster.routing.allocation.balance.threshold:默认值 1.0
第一个因子用来告诉ElasticSearch每个节点上分配数量相近的分片在用户心中的重要程度。第二个因子的作用差不多,只是不针对整个集群所有的分片,针对的是整个索引的所有分片。第三个因用来告诉ElasticSearch每个节点上分配数量相同的主分片在用户心中的重要程度。所以,如果你的集群中,保证每个节点拥有相同数量的主分片这一原则非常重要,那么就应该提升cluster.routing.allocation.balance.primary的权重因子值,同时降低除threshold外其它因子的权重值。
最后,如果所有因子乘以权重后的和如果比设置的threhold值要大,那么该索引的分片就需要进行重新分配了。如果由于某个原因,你希望一些因子不影响分片的分配,那么设置其值为0即可。
自定义ShardAllocator
有些情况下,系统内置的分配器可能不适用于用户的系统部署方案。比如,在在分配分片的过程中要考虑到索引的大小;又比如,一个由不同硬件组件,处理能力不同的CPU,数量不同的内存,容量不同的硬盘组成的超大集群。所有的这些因素都可能导致分布式系统分发数据到各个节点时效率不高。 令人高兴的是,在ElasticSearch中能够实现自己的解决方案,只需要编写自己的Java类,实现org.elaticsearch.cluster.routing.allocation.allocator.ShardsAllocator接口,然后把全限定类名作为cluster.routing.allocation.type属性的参数值,配置到集群中即可。
决策者(Deciders)
为了了解分片分配器是如何决定什么时候分片会被移动,又该移向哪个节点,我们需要探究ElaticSearch的内部实现方式,这个内部实现方式称为决策者(deciders)。它们就像是人的大脑一样制定分配决策。ElasticSearch允许用户同时使用多个决策者,所有的决策者在决策时进行投票。它们遵循一致性原则,比如,如果一个决策者反对重新分配一个分片,那么这个分片就不会被移动。如下的决策者是ElasticSearch内置的,它们的决策方式一成不变,除非修改源代码。让我们来看看哪些决策者是默认的
SameShardAllocationDecider
正如它的名字一样,这个决策者不允许数据及副本(主分片和分片副本)出现在同一个节点上的状况出现。原因很明显:我们不希望备份数据和源数据放在同一个地方。说到这个决策者,我们就不得不提cluster.routing.allocation.same\_shard.host属性。它控制着ElasticSearch是否关注分片所在的物理机。其默认值为false,因为多个节点可以运行在完全一样的服务器上,通过运行多虚拟机的方式。当设置它的值为true时,这个决策者就不允许把分片和它的分片副本分配到同一个物理机上。可能看起来有点奇怪,但是想想现在各种虚拟化技术大行其道,在现代社会甚至操作系统都无法决定其运行在哪台物理机。正因为如此,最好多依靠index.routing.allocation属性家族的其它设置方式来实现这一功能,相关的内容可以从本章调整集群的分片分配一节中了解。
ShardsLimitAllocationDecider
ShardsLimitAllocationDecider确保对于给定的索引,每个节点上分片的数量不会多于设定的数量,该值设定在index.routing.allocation.total\_shards\_per\_node属性中,可以将该属性添加在elasticsearh.yml文件中或者用update API实时更改。默认的值是-1,代表节点上分片的数量没有任何限制。需要注意,如降低该值会导致集群强制进行分片的重新分配,在集群平衡这个过程中引发额外的负载。
FilterAllocationDecider
FilterAllocationDecider用于添加分控制片分配的相关属性,即这些属性的名字都能匹配\*.routing.allocation.\*正则表达式。关于该决策者的工作方式,可以在本章的adjusting shard allocation一节中找到更多的信息。
ReplicaAfterPrimaryActiveAllocationDecider
该决策者使得ElasticSearch只会在主分片分配完毕后才开始分配分片副本。
ClusterRebalanceAllocationDecider
ClusterRebalanceAllocationDecider允许集群根据当前的状态改变集群再平衡的结束时间点。该决策者可以用cluster.routing.allocation.allow_rebalance属性控制,该属性有如下三种值可用:
- indices\_all\_active:它是默认值,表示只有集群中所有的节点分配完毕,才能认定集群再平衡完成。
- indices\_primaries\_active:这个值表示只要所有主分片分配完毕了,就可以认定集群再平衡完成。
- always:它表示即使当主分片和分片副本都没有分配,集群再平衡操作也是允许的。
ConcurrentRebalanceAllocationDecider
ConcurrentRebalanceAllocationDecider能够对分片重定位操作进行限制,通过 cluster.routing.allocation.cluster\_concurrent\_rebalance属性实现。利用该属性,我们可以设置给定集群中同时进行分片重定位的分片个数。系统默认值是2,表示集群中最多有两个分片可以同时移动。如果设置值为-1,就关闭了限制功能,这意味着rebalance的并发数不受限制。
DisableAllocationDecider
DisableAllocationDecider是另一种通过调整分片分配方式来满足业务需求的决策者,我们可以通过更改如下的设置(可以在elasticsearch.yml中静态修改或者用集群的settings API动态修改):
- cluster.routing.allocation.disable\_allocation:这个设置项用来停止所有分片的分配。
- cluster.routing.allocation.disable\_new\_allocation:这个设置项用来停止所有的新的主分片的分配。
- cluster.routing.allocation.disable\_replica\_allocation:这个设置项用来停止所有的分片副本的分配。
AwarenessAllocationDecider
AwarenessAllocationDecider负责分配感知(awareness)的功能。只要使用了cluster.routing.allocation.awareness.attributes设置项,这个决策者就会生效。更多相关的功能可以参看本章调整集群的分片分配一节的内容。
ThrottlingAllocationDecider
ThrottlingAllocationDecider跟前面提到的ConcurrentRebalanceAllocationDecider有些类似。这个决策者可以用来限制allocation过程中产生的系统负载。我们可以通过如下的属性来操控这个决策者:
- cluster.routing.allocation.node\_initial\_primaries\_recoveries:这个属性的默认值为4,它用来描述单个节点上允许recovery操作的初始主分片数量。
- cluster.routing.allocation.node\_concurrent\_recoveries:它的默认值是2,它用来限制单个节点上进行recovery操作的并发数。
RebalanceOnlyWhenActiveAllocationDecider
RebalanceOnlyWhenActiveAllocationDecider用来限制rebalancing过程只了生在所有分片都活跃于同一个分片复制组(主分片和它的分片副本)这一状态下。
DiskThresholdDecider
DiskThresholdDecider是在ElasticSearch 0.90.4版本引入的功能。它允许用户基于可用磁盘空间来分配分片。它默认是关闭的。如果想启动它,则需要把cluster.routing.allocation.disk.threshold_enabled属性设置为true。这个决策者可以通过配置阈值来控制何时可以将分片分配到该节点,何时ElasticSearch应该把分片分配到其它节点。
cluster.routing.allocation.disk.watermark.low属性允许用户指定一个百分比阈值或者绝对数值来控制何时能够进行分片分配。比如默认值是0.7,表示当可用磁盘空间低于70%时,新的分片才可以分配到该节点上。
cluster.routing.allocation.disk.watermark.high属性允许用户指定一个百分比阈值或者绝对数值来控制何时需要将分片分配到其它的节点。比如默认值是0.85,表示当可用磁盘空间高于85%时,ElasticSearch会重新把该节点的分片分配到其它节点。
cluster.routing.allocation.disk.watermark.low属性和cluster.routing.allocation.disk.watermark.high属性都可以指定一个百分比阈值(比如0.7或者0.85)或者绝对数值(比如1000mb)。来控制何时需要将分片分配到其它的节点。比如默认值是0.85,此外,上述属性都可以通过elasticsearch.yml静态设置或者用ElasticSearch API动态调整。