当前位置: 首页 > 知识库问答 >
问题:

向成员传播Hazelcast动态imap配置

翁昊乾
2023-03-14

上面写着

随着动态添加的数据结构配置在所有集群成员之间传播,可能会由于超时和网络分区等情况而发生故障。只要检测到成员资格更改,配置传播机制就会在内部重试添加配置。

这给我的印象是配置会传播。

hzInstance.getConfig.findMapConfig("testMap") #or .getMapConfig("testMap")

共有1个答案

袁文景
2023-03-14

每个成员都拥有IMAP的某些分区。成员的IMap配置仅对其拥有的分区有效。因此,当同一映射的条目具有不同的配置时,在不同的成员中看到不同的TTL值是正常的。正如您所说的,所有成员都应该具有相同的IMap配置,以具有集群范围的持久行为。否则,每个成员将对自己的分区应用自己的配置。

但是如果添加了一个动态配置,那么该配置就会传播给所有成员,并改变它们的行为。

简而言之,如果您在创建实例之前添加了配置,那就是本地配置。但是,如果您在创建实例之后添加它,那就是动态配置并传播到所有成员。

 类似资料:
  • 卷积神经网络其实是神经网络特征学习的一个典型例子。传统的机器学习算法其实需要人工的提取特征,比如很厉害的SVM。而卷积神经网络利用模板算子的参数也用以学习这个特点,把特征也学习出来了。其实不同的模板算子本质上就是抽象了图像的不同方面的特征。比如提取边缘,提取梯度的算子。用很多卷积核去提取,那就是 提取了很多的特征。一旦把参数w,b训练出来,意味着特征和目标之间的函数就被确定。今天分享下CNN的关键

  • 训练发散 理想的分类器应当是除了真实标签的概率为1,其余标签概率均为 0,这样计算得到其损失函数为 -ln(1) = 0 损失函数越大,说明该分类器在真实标签上分类概率越小,性能也就越差。一个非常差的分类器,可能在真实标签上的匪类概率接近于0,那么损失函数就接近于正无穷,我们成为训练发散,需要调小学习速率。 6.9 高原反应 在 ImageNet-1000 分类问题中,初始状态为均匀分布,每个类别

  • 我正在使用Hazelcast CP子系统,但我的应用程序运行在两个不同的数据中心中。由于许多原因,不可能在短时间内将其扩展到至少一个具有完整应用程序和所有内存中数据的数据中心。但我明白,如果没有第三个地方的成员,我就无法避免分裂大脑的情况。所以主要的问题是:有没有可能有一个Hazelcast成员,它不存储任何数据,但单独作为CP子系统成员? 对于一个仅充当两个数据中心之间的平衡器的小应用程序,我将

  • 前面几节里我们使用了小批量随机梯度下降的优化算法来训练模型。在实现中,我们只提供了模型的正向传播(forward propagation)的计算,即对输入计算模型输出,然后通过autograd模块来调用系统自动生成的backward函数计算梯度。基于反向传播(back-propagation)算法的自动求梯度极大简化了深度学习模型训练算法的实现。本节我们将使用数学和计算图(computationa

  • 我有一个用于缓存图像的服务人员,这个服务人员只在前端模板中注册,但它仍会不断扩展到我的管理模板中。 这导致我的表单在验证令牌受到影响时表现得不可预测。 用一些安慰。日志我认为安装事件是在进入请求页面之前触发的,但我无法确定当前/下一个URL。 如何防止服务人员扩散到管理面板并干扰页面?我只想缓存资产。 就相关而言,这是我的服务人员: