当前位置: 首页 > 知识库问答 >
问题:

nacos - Nacos2.2.0集群测试可用性期间,服务无法正常下线?

拓拔高畅
2023-11-01

问题描述

Nacos2.2.0在测试可用性时,我们重启了一台服务(服务器程序包括nacos节点和应用服务),发现服务无法下线,也将持久实例改成了临时实例,服务也无法下线。而且也没看到心跳日志(已改成debug级别);

问题出现的环境背景及自己尝试过哪些方法

服务端使用的是Nacos2.2.0,客户端也是2.2.0,k8s容器部署。nacos三台集群,应用也是三台负载;

相关代码

spring:
cloud:

nacos:  discovery:    metadata:      preserved.heart.beat.interval: 1000 #该实例在客户端上报心跳的间隔时间。(单位:毫秒)      preserved.heart.beat.timeout: 3000 #该实例在客户端上报心跳的间隔时间。(单位:毫秒)      preserved.ip.delete.timeout: 3000 #该实例在不发送心跳后,被nacos下掉该实例的时间。(单位:毫秒)

你期待的结果是什么?实际看到的错误信息又是什么?

在测试可用性期间,服务器宕机后,实例能正常下线

共有1个答案

终波涛
2023-11-01

这个问题似乎与Nacos2.2.0的集群测试可用性以及服务无法正常下线有关。根据问题描述,服务端和客户端都使用的是Nacos2.2.0,并且是在Kubernetes容器部署的环境下进行测试。

首先,让我们来分析一下可能的原因。服务无法正常下线可能是由于多种原因引起的,比如网络问题、配置错误、心跳机制异常等。在Nacos中,服务实例的心跳上报是维护服务实例在线状态的重要机制。因此,首先要检查的就是心跳机制是否正常工作。

根据问题描述,已经更改了心跳日志的级别为debug,但是还是没有看到心跳日志。这可能意味着心跳上报的过程中存在问题。可以尝试查看Nacos的日志,看是否有关于心跳上报的错误信息。另外,也要确保客户端和服务端的心跳配置是一致的。

此外,还要检查网络连接。如果网络连接存在问题,那么服务实例的心跳上报可能会失败,导致服务无法正常下线。

在代码中,preserved.heart.beat.intervalpreserved.heart.beat.timeout以及preserved.ip.delete.timeout这三个参数是关于心跳机制的配置。它们分别代表客户端在该实例在线的时候,多久上报一次心跳、多久没上报心跳就认为该实例下线、多久没上报心跳就把ip删除掉。这些参数的配置可能需要根据实际情况进行调整。

最后,如果以上方法都不能解决问题,那么可能需要进一步检查Nacos的配置和实现,或者考虑是否存在其他环境因素导致的问题。

总之,解决这个问题需要从多个方面进行排查,包括心跳机制、网络连接、配置参数等。希望以上信息能帮助你解决问题。

 类似资料:
  • 测试目的 主要了解Nacos的服务发现性能负载和容量,协助我们更好的管理Nacos性能质量,帮助用户更快的运用评估Nacos系统负荷。 测试工具 我们使用自研的PAS性能评估服务平台进行压测,其原理是基于利用JMeter引擎,使用PAS自动生成的JMeter脚本,进行智能压测。 测试环境 1.环境 指标 参数 机器 CPU 16核,内存32G 集群规模 3节点 Nacos版本 1.0.0 2.设置

  • 测试目的 主要让大家了解Nacos的性能负载和容量,协助我们更好的管理Nacos性能质量,帮助用户更快的运用评估Nacos系统负荷。 测试工具 我们使用自研的PAS性能评估服务平台进行压测,其原理是基于利用JMeter引擎,使用PAS自动生成的JMeter脚本,进行智能压测。 测试环境 1.环境 指标 参数 机器 CPU 8核,内存16G 集群规模 单机,3节点,10节点,100节点 Nacos版

  • 测试目的 Nacos2.0对连接模型,服务发现的数据模型也运作模式进行了大范围的重构,因此需要在相同或类似的场景下,了解Nacos2的服务发现性能负载和容量与Nacos1的区别,帮助用户更快的运用评估Nacos系统负荷。 Nacos1.0性能测试参考 服务发现性能测试报告 测试工具 我们使用自研的PAS性能评估服务平台进行压测,其原理是基于利用JMeter引擎,使用PAS自动生成的JMeter脚本

  • 测试目的 长链接各项业务指标的最高值 长链接相比短链接的差异数据对比 测试工具 我们使用自研的PAS性能评估服务平台进行压测,其原理是基于利用JMeter引擎,使用PAS自动生成的JMeter脚本,进行智能压测。 测试环境 1.环境 指标 参数 机器 CPU 8核,内存16G 集群规模 单机 Nacos版本 Nacos 2.0.0-ALPHA2, Nacos 1.4.0 数据库 32C128G 2

  • 本文档介绍如何构建测试场景对 DM 集群进行性能测试,包括数据迁移速度、延迟等。 迁移数据流 可以使用简单的迁移数据流来测试 DM 集群的数据迁移性能,即单个 MySQL 实例到 TiDB 的数据迁移:MySQL -> DM -> TiDB。 部署测试环境 使用 TiUP 部署 TiDB 测试集群,所有配置使用 TiUP 提供的默认配置。 部署 MySQL 服务,开启 ROW 模式 binlog,

  • 对于测试期间的批量归一化,如何计算每个激活输入(在每个层和输入维度中)的平均值和方差?是否记录训练的均值和方差,计算整个训练集的均值和方差,或计算整个测试集的均值和方差? 很多人说你要预先计算均值和方差,但如果用计算整个测试集均值和方差的方法,那岂不是在进行前向传播(而不是“预先”)的同时,还需要计算整个测试集的均值和方差? 非常感谢你所有的帮助!