当前位置: 首页 > 知识库问答 >
问题:

关于Ignite中的群集配置

关苗宣
2023-03-14

现在我在复制的缓存上使用SQL select语句。现在这些缓存的写入同步模式是FULL_SYNC。

现在,我们只能在一个DC中工作客户端节点,而不能同时在两个DC中工作。假设我们有两个客户在DC1。

因此,节点总数为6个(在DC1中有2个客户端节点和2个服务器节点,在DC2中有2个服务器节点)。

我们的用例是这样一种方式…

  1. 2个客户端应该只查询DC1中的2个服务器节点,而不是DC2中的其他2个服务器。
  2. 所有缓存查询应与DC1中的2个服务器节点完全同步,DC1-DC2应在异步模式下完成。
  3. 我得到的一个疑问是,如果在客户端的节点discoveryspi中,如果I(X,Y)ip列表为服务器节点ips,那么即使整个拓扑包含X,Y,Z作为服务器节点,查询是否总是到达X,Y?

请有人提供我们的解决办法。

注意:我看到了一个Gridgain的集群-集群复制能力,但这是在付费版本下。我正在社区版中寻找解决方案。

共有1个答案

百里文景
2023-03-14

不,DiscoverySPI仅用于连接到集群,之后,客户端节点将与集群中的所有节点一起工作。

这样做是不可能的,集群中的一个缓存只能使用一种同步模式。

  1. 2个客户端应该只查询DC1中的2个服务器节点,而不是DC2中的其他2个服务器。
 类似资料:
  • 我是新点燃的。 步骤1:我在两个VM(ubuntu)中安装了Ignite 2.6.0,在一个VM中启动了节点。下面有COMAND。bin/ignite.sh examples/config/example-ignite.xml 步骤2:我的所有配置都在example-default.xml中 步骤3:在其他VM中执行包含datagrid逻辑的client.jar(该VM既是客户机也是节点)。 步骤

  • 我最近试图创建一个Apache Ignite集群,对此我还是个新手。在创建它并将旧数据库迁移到Apache Ignite时,我面临着几个问题。 这是目前面临的两个问题,并期待着对此的投入。 感谢和问候

  • 我有一个用例,我想建立一个Kafka集群,最初我有1个Kafka Broker(A)和1个Zookeeper节点。以下是我的疑问: > 在向集群添加新的Kafka Broker(B)时。代理A上存在的所有数据都会自动分发吗?如果不是,我需要做的是分发数据。 不,让我们假设情况以某种方式解决了!我的数据分布在两个代理上。现在由于一些维护问题,我想关闭服务器B。 如何将经纪商B的数据传输到已经存在的经

  • 今天回北京了,想把在外地做的集群移植回来,需要修改ip地址和一些配置参数,结果在配置的过程中,总是会有一些提示,说是我的机器之间的认证权限有问题。所以对照以前写的安装手册,把ssh重新配置了一遍。但是发现在启动的时候还是有提示,说是我的ssh有错误,还是需要输入yes和密码来登录。总结了一下,内容如下: 1、hadoop的ssh配置namenode无密码访问datanode需要配置各个机器,详细步

  • 一、环境 1、hadoop 0.20.2 2、操作系统 Linux 二、关于负载均衡 1、一般情况下,数据在录入集群的时候就进行负载均衡,根据各个节点的情况来做数据平衡分发存放。 2、但是如果在新增节点之后,如果想做到负载均衡则需要使用balancer的命令。对于这个命令,一般是有一个阀值,默认是10% 也就是说,节点之间差额不过10%,集群认为就是均衡的。 3、当然,负载的越平均,查询相对也较快

  • 我正在尝试使用apache-spark读取和写入Ignite集群,我可以使用JDBC瘦客户机,但不是本机方法,正如几个spark+Ignite示例中提到的那样。 现在,所有的spark+ignite示例都启动了一个本地ignite集群,但我希望我的代码作为客户端连接到已经存在的集群。 完整代码:-(sparkDSLExample)函数无法使用thin连接ignite远程群集 示例-default.