VMware vSphere 7.0 发行说明文档

孙才捷
2023-12-01

新增功能

此版本的 VMware vSphere 7.0 包括 VMware ESXi 7.0 和 VMware vCenter Server 7.0。请阅读《vSphere 7.0 的新增功能》,了解有关此版本中的新功能和增强功能的信息。

国际化

vSphere 7.0 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 西班牙语
  • 日语
  • 韩语
  • 简体中文
  • 繁体中文

vSphere 7.0 的组件(包括 vCenter Server、ESXi、vSphere Client 和 vSphere Host Client)不接受非 ASCII 输入。

兼容性

ESXi 和 vCenter Server 版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Lifecycle Manager 及 vSphere Client 与 vCenter Server 打包在一起。

ESXi 的硬件兼容性

要查看与 vSphere 7.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 7.0 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 7.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 7.0 的信息。

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 7.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 7.0 的信息。

ESXi 的虚拟机兼容性

ESXi 7.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 7.0 上使用此类虚拟机,请升级虚拟机兼容性。请参见《ESXi 升级》文档。

开始前

vSphere 7.0 需要一个最多可支持 32 个物理内核的 CPU 许可证。如果 CPU 的内核超过 32 个,则需要额外的 CPU 许可证,如“VMware 按 CPU 的定价模型更新”中所述。在升级 ESXi 主机之前,您可以使用“计算新 VMware 许可策略下所需的 CPU 许可证”中所述的许可证计数工具来确定所需的许可证数量。

此版本的安装与升级

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《ESXi 安装和设置》 和 《vCenter Server 安装和设置》

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

VMware 最高配置工具可帮助您规划 vSphere 部署。使用此工具可以查看虚拟机、ESXi、vCenter Server、vSAN、网络连接等的限制。您还可以比较两个或更多产品版本的限制。最好在台式机和笔记本电脑等更大幅面的设备上查看 VMware 最高配置工具。

ESXi 7.0 中 VMware Tools 捆绑变更

在 ESXi 7.0 中,部分 VMware Tools 11.0.5 和 VMware Tools 10.3.21 ISO 映像与 ESXi 7.0 主机捆绑在一起。

以下 VMware Tools 11.0.5 ISO 映像会与 ESXi 捆绑在一起:

  • windows.iso:适用于 Windows Vista 或更高版本的 VMware Tools 映像

以下 VMware Tools 10.3.21 ISO 映像会与 ESXi 捆绑在一起:

  • linux.iso:适用于安装 glibc 2.5 或更高版本的 Linux 操作系统的 VMware Tools 映像

以下 VMware Tools 11.0.5 ISO 映像可供下载:

  • darwin.iso:适用于 OSX 的 VMware Tools 映像

下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:

迁移第三方解决方案

有关使用第三方自定义进行升级的信息,请参见《ESXi 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见《ESXi 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

与 vSphere 6.7 所支持的处理器相比较,vSphere 7.0 不再支持以下处理器:

  • Intel 系列 6,型号 = 2C (Westmere-EP)
  • Intel 系列 6,型号 = 2F (Westmere-EX)

在安装或升级过程中,安装程序检查主机 CPU 与 vSphere 7.0 的兼容性。如果您的主机硬件不兼容,将显示包含不兼容性说明消息的紫色屏幕,并且 vSphere 7.0 安装过程会停止。

以下 CPU 在 vSphere 7.0 版本中受支持,但不一定在将来的 vSphere 版本中受支持。请进行相应的规划:

  • Intel 系列 6、型号 = 2A(Sandy Bridge DT/EN,GA 2011)
  • Intel 系列 6、型号 = 2D(Sandy Bridge EP,GA 2012)
  • Intel 系列 6、型号 = 3A(Ivy Bridge DT/EN,GA 2012)
  • AMD 系列 0x15,型号 = 01(Bulldozer,GA 2012)

此版本的升级说明

有关升级 ESXi 主机和 vCenter Server 的说明,请参见《ESXi 升级》《vCenter Server 升级》文档。

vSphere 7.0 的开源组件

有关适用于 vSphere 7.0 中分发的开源软件组件的版权声明和许可证,请访问 http://www.vmware.com。您需要登录您的 My VMware 帐户。然后,在下载菜单中选择 vSphere。在开源选项卡中,还可以下载需向 vSphere 最新可用版本提供其源代码或源代码变更的所有 GPL、LGPL 或其他类似许可证的源文件。

产品支持注意事项

  • VMware vSphere Client

    在 vSphere 7.0 中,可以利用 vSphere Client (HTML5) 中提供的功能。基于闪存的 vSphere Web Client 已弃用且不再提供。有关详细信息,请参见《再见,vSphere Web Client》

    VMware Host Client 是一个基于 Web 的应用程序,可用于管理未连接到 vCenter Server 系统的各个 ESXi 主机。

  • VMware vSphere 7.0 和 TLS 协议

    在 vSphere 7.0 中,默认启用 TLS 1.2。默认已禁用 TLS 1.0 和 TLS 1.1。如果将 vCenter Server 升级到 7.0,并且该 vCenter Server 实例连接到 ESXi 主机、其他 vCenter Server 实例或其他服务,那么您可能会遇到通信问题。

    要解决此问题,您可以使用 TLS Configurator 实用程序在 7.0 系统上临时启用较旧版本的协议。在所有连接都使用 TLS 1.2 后,可以禁用安全性较低的较旧版本。有关信息,请参见《使用 TLS Configurator 实用程序管理 TLS 协议配置》

  • 移除外部 Platform Services Controller

    在 vSphere 7.0 中部署或升级 vCenter Server 需要使用 vCenter Server Appliance,它是针对运行 vCenter Server 而优化的预配置 Linux 虚拟机。新的 vCenter Server 包含所有 Platform Services Controller (PSC) 服务,同时保留功能和工作流,包括身份验证、证书管理和许可。不再需要也无法部署和使用外部 Platform Services Controller。所有 PSC 服务都已整合到 vCenter Server 中,并且已简化部署和管理。

  • 移除适用于 Windows 的 vCenter Server 支持

    在 vSphere 7.0 中,适用于 Windows 的 vCenter Server 已移除且不再受支持。有关详细信息,请参见《再见,适用于 Windows 的 vCenter Server》

  • 弃用对 vCenter Server 的基于映像的备份和还原支持

    vCenter Server 的基于映像的备份和还原在 vCenter Server 7.0 中已弃用,并且在未来的 vSphere 版本中将不受支持。

  • 从 ESXi 移除 VNC 服务器

    在 vSphere 7.0 中,ESXi 内置 VNC 服务器已移除。用户将无法再通过将 RemoteDisplay.vnc.enable 配置设置为 true 来使用 VNC 客户端连接到虚拟机。相反,用户应通过 vSphere Client、ESXi Host Client 或 VMware Remote Console 来使用虚拟机控制台连接虚拟机。需要对虚拟机进行 VNC 访问的客户应使用可提供基于 Websocket 的 VNC 连接的 VirtualMachine.AcquireTicket("webmks") API。webmks 票证针对虚拟机控制台提供经身份验证的访问。有关详细信息,请参阅 VMware HTML Console SDK 文档

  • 弃用 VMKLinux

    在 vSphere 7.0 中,已弃用并移除 VMKLinux 驱动程序兼容性。vSphere 7.0 将不再支持 VMKLinux API 及关联的 VMKLinux 驱动程序。自定义 ISO 将无法具有任何 VMKLinux 异步驱动程序。ISO 中包含的所有驱动程序都必须是本机驱动程序。本机驱动程序不支持的所有当前受支持设备都将无法正常运行,并且在安装或升级过程中将无法识别这些设备。VCG 不会将本机驱动程序不支持的任何设备显示为在 vSphere 7.0 中受支持。

  • 弃用 32 位用户环境支持

    在 vSphere 7.0 中,已弃用 32 位用户环境支持。用户环境是合作伙伴用于提供驱动程序、插件和其他系统扩展(以 VIB 形式分发)的 ESXi 组件。客户无法访问用户环境。

    vSphere 7.0 通过合作伙伴开发工具包提供 64 位用户环境支持,并且将在此主要版本中保留 32 位用户环境支持。在下一个主要 ESXi 版本中,将永久移除 32 位用户环境支持。为了避免功能丢失,在升级到 vSphere 7.0 及更高版本之前,客户应确保使用的任何供应商提供的 VIB 都迁移到 64 位。

  • 弃用 Update Manager 插件

    在 vSphere 7.0 中,用于管理 vSphere Update Manager 的 Update Manager 插件已替换为 Lifecycle Manager 插件。在 Lifecycle Manager 插件下,vSphere Update Manager 的管理操作仍然可用,同时还可以使用 vSphere Lifecycle Manager 的新功能。

  • 弃用集成 Windows 身份验证

    vSphere 7.0 中已弃用集成 Windows 身份验证 (IWA),并将在未来版本中移除。有关详细信息,请参见 Vmware 知识库文章 78506

  • 弃用 DCUI 智能卡身份验证

    在未来的 vSphere 版本中,将不再支持 DCUI 中的智能卡身份验证。鼓励用户通过 vCenter、PowerCLI、API 调用或使用用户名和密码登录来执行操作,以取代使用个人身份验证 (PIV)、通用访问卡 (CAC) 或 SC650 智能卡来访问 DCUI。

  • 弃用主机配置文件中的核心分区配置文件

    在 vSphere 7.0 中,已弃用对主机配置文件中 Coredump 分区的支持。用户应转为使用 Coredump 文件来代替 Coredump 分区。

  • MyVMware 中的供应商加载项可用于 vSphere Lifecycle Manager

    在 vSphere 7.0 中,如果 vCenter Server 实例配置为使用代理或 Update Manager Download Service,则可以通过 vCenter Server 的 vSphere Lifecycle Manager 访问供应商加载项。要从 MyVMware 访问加载项,请导航到自定义 ISO 和加载项选项卡。在 OEM 自定义的安装程序 CD 和加载项下,可以找到每个供应商提供的自定义加载项。有关 vSphere Lifecycle Manager 和供应商加载项的详细信息,请参见管理主机和集群生命周期文档。

已知问题

已知问题分为如下类别。

安装、升级和迁移问题

  • vCenter 升级/迁移预检查失败,并显示“意外错误 87 (Unexpected error 87)”当 Security Token Service (STS) 证书不包含主体备用名称 (SAN) 字段时,vCenter Server 升级/迁移预检查将失败。如果已将 vCenter 5.5 Single Sign-on 证书替换为没有 SAN 字段的自定义证书,并且尝试升级到 vCenter Server 7.0,则会出现这种情况。此升级会将 STS 证书视为无效,并且预检查将阻止升级过程继续进行。

    解决办法:将 STS 证书替换为包含 SAN 字段的有效证书,然后再执行 vCenter Server 7.0 升级/迁移。

  • 使用预先存在的 CIM 提供程序升级到 vSphere 7.0 时出现问题升级后,之前安装的 32 位 CIM 提供程序停止工作,因为 ESXi 需要 64 位 CIM 提供程序。客户可能会丢失与 CIMPDK、NDDK(本机 DDK)、HEXDK、VAIODK(IO 筛选器)相关的管理 API 功能,并看到与 uwglibc 依赖关系相关的错误。
    Syslog 报告模块缺失,“未加载 32 位共享库 (32 bit shared libraries not loaded)。”

    解决办法:没有解决办法。修复方法是从供应商下载新的 64 位 CIM 提供程序。

  • 升级到 vCenter Server 7.0 后,智能卡和 RSA SecurID 身份验证可能停止工作如果您已为智能卡或 RSA SecurID 身份验证配置 vCenter Server,请参见位于 https://kb.vmware.com/s/article/78057 的 VMware 知识库文章,然后再开始 vSphere 7.0 升级过程。如果未按照知识库文章所述采取解决办法,您可能会看到以下错误消息,并且智能卡或 RSA SecurID 身份验证无法工作。

    “智能卡身份验证可能停止工作。可能不会保留智能卡设置,并且智能卡身份验证可能停止工作 (Smart card authentication may stop working. Smart card settings may not be preserved, and smart card authentication may stop working)。”

    “RSA SecurID 身份验证可能停止工作。可能不会保留 RSA SecurID 设置,并且 RSA SecurID 身份验证可能停止工作 (RSA SecurID authentication may stop working. RSA SecurID settings may not be preserved, and RSA SecurID authentication may stop working)。”

    解决办法:在升级到 vSphere 7.0 之前,请参见 VMware 知识库文章,网址为 https://kb.vmware.com/s/article/78057

  • 将具有外部 Platform Services Controller 部署的 vCenter Server 从 6.7u3 升级到 7.0 失败,并显示 VMAFD 错误升级使用外部 Platform Services Controller 部署的 vCenter Server 部署时,将该 Platform Services Controller 融合为 vCenter Server Appliance 。如果升级失败并显示错误 install.vmafd.vmdir_vdcpromo_error_21,则 VMAFD 首次引导过程已失败。VMAFD 首次引导过程从源 Platform Services Controller 和复制合作伙伴 vCenter Server Appliance 中复制 VMware Directory Service 数据库 (data.mdb)。

    解决办法:在升级具有外部 Platform Services Controller 部署的 vCenter Server 之前,在源 Platform Services Controller 或复制合作伙伴 vCenter Server Appliance 的以太网适配器上禁用 TCP 分段负载分流 (TSO) 和通用分段负载分流 (GSO)。请参见知识库文章:https://kb.vmware.com/s/article/74678

  • 使用 CLI 升级 vCenter Server 时错误地保留 vSphere Authentication Proxy 服务的传输安全层 (TLS) 配置如果将 vSphere Authentication Proxy 服务 (vmcam) 配置为使用不同于默认 TLS 1.2 协议的特定 TLS 协议,则会在 CLI 升级过程中保留此配置。默认情况下,vSphere 支持 TLS 1.2 加密协议。如果必须使用 TLS 1.0 和 TLS 1.1 协议为不支持 TLS 1.2 的产品或服务提供支持,请使用 TLS Configurator 实用程序启用或禁用不同的 TLS 协议版本。

    解决办法:使用 TLS Configurator 实用程序配置 vmcam 端口。要了解如何管理 TLS 协议配置以及使用 TLS Configurator 实用程序,请参见《VMware 安全》文档。

  • 在 vCenter Server 升级期间,可能不会保留智能卡和 RSA SecurID 设置升级到 vCenter Server 7.0 后,使用 RSA SecurID 的身份验证将不起作用。尝试使用 RSA SecurID 登录名登录时,将显示一条错误消息,提示您解决此问题。

    解决办法:重新配置智能卡或 RSA SecureID。

  • 将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0 失败,并显示网络错误消息将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0 失败,并显示网络中已存在 IP (IP already exists in the network) 错误消息。这会导致迁移过程中无法在新的 vCenter Server Appliance 上配置网络参数。有关详细信息,请查看日志文件:/var/log/vmware/upgrade/UpgradeRunner.log

    解决办法:

    1. 确认已在适用于 Windows 的源 vCenter Server 实例上完成所有 Windows 更新,或者禁用自动 Windows 更新,直到迁移完成后为止。
    2. 重新尝试将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0。
  • 使用 max_vfs 模块参数为 SR-IOV 设备配置虚拟功能的数量时,所做更改可能不会生效在 vSphere 7.0 中,可以使用 Virtual Infrastructure Management (VIM) API(例如,通过 vSphere Client)为 SR-IOV 设备配置虚拟功能的数量。该任务不需要重新引导 ESXi 主机。使用 VIM API 配置后,如果尝试使用 max_vfs 模块参数配置 SR-IOV 虚拟功能的数量,则所做更改可能不会生效,因为 VIM API 配置会覆盖这些更改。

    解决办法:无。要为 SR-IOV 设备配置虚拟功能的数量,请每次使用相同的方法。使用 VIM API 或使用 max_vfs 模块参数,然后重新引导 ESXi 主机。

  • 升级后的 vCenter Server Appliance 实例不会保留源实例中的所有辅助网络(网卡)在主要升级过程中,如果为 vCenter Server Appliance 的源实例配置了不同于 VCHA 网卡的多个辅助网络,目标 vCenter Server 实例不会保留除 VCHA 网卡以外的辅助网络。如果源实例配置有多个属于 DVS 端口组的网卡,在升级过程中不会保留网卡配置。将保留属于标准端口组的 vCenter Server Appliance 实例配置。

    解决办法:无。在目标 vCenter Server Appliance 实例中手动配置辅助网络。

  • 升级或迁移具有外部 Platform Services Controller 部署的 vCenter Server 后,使用 Active Directory 进行身份验证的用户失去对新升级的 vCenter Server 实例的访问权限升级或迁移具有外部 Platform Services Controller 部署的 vCenter Server 后,如果新升级的 vCenter Server 未加入 Active Directory 域,则使用 Active Directory 进行身份验证的用户将失去对该 vCenter Server 实例的访问权限。

    解决办法:确认新的 vCenter Server 实例已加入 Active Directory 域。请参见知识库文章:https://kb.vmware.com/s/article/2118543

  • 使用 Oracle 数据库迁移具有外部 Platform Services Controller 部署的适用于 Windows 的 vCenter Server 失败如果 Oracle 事件和任务表中存在非 ASCII 字符串,则迁移过程会在导出事件和任务数据时失败。将显示以下错误消息:UnicodeDecodeError

    解决办法:无。

  • ESXi 主机升级后,主机配置文件合规性检查显示不合规状态,并且主机修复任务失败不合规状态表示配置文件与主机之间存在不一致。

    出现此不一致的原因可能是 ESXi 7.0 不允许使用重复的声明规则,但您使用的配置文件包含重复规则。例如,如果在将 ESXi 6.5 或 ESXi 6.7 升级到版本 7.0 之前尝试使用从主机提取的主机配置文件,并且该主机配置文件包含系统默认规则的任何重复声明规则,则可能会遇到这些问题。

    解决办法:

    1. 从主机配置文件文档中移除系统默认规则的任何重复声明规则。
    2. 检查合规性状态。
    3. 修复主机。
    4. 如果上述步骤无法解决此问题,请重新引导主机。
  • vCenter Server 管理界面中显示错误消息安装或升级到 vCenter Server 7.0 后,导航到 vCenter Server 管理界面中的“更新”面板时,将显示错误消息“请检查 URL,然后重试 (Check the URL and try again)”。该错误消息不会阻止您使用“更新”面板中的功能,您可以查看、转储和安装任何可用更新。

    解决办法:无。

安全功能问题

  • 启用 HA 的受信任集群包含未认证的主机时,加密虚拟机无法打开电源在 VMware® vSphere Trust Authority™ 中,如果在受信任集群上启用了 HA,并且该集群中的一个或多个主机未通过认证,则加密虚拟机将无法打开电源。

    解决办法:从受信任集群中移除或修复所有未认证的主机。

  • 启用 DRS 的受信任集群包含未认证的主机时,加密虚拟机无法打开电源在 VMware® vSphere Trust Authority™ 中,如果在受信任集群上启用了 DRS,并且集群中的一个或多个主机未通过认证,DRS 可能尝试在集群中打开未认证主机上的加密虚拟机的电源。此操作会将虚拟机置于锁定状态。

    解决办法:从受信任集群中移除或修复所有未认证的主机。

  • 尝试使用 vSphere Client 在 vCenter Server 实例之间迁移或克隆加密虚拟机失败如果尝试使用 vSphere Client 在 vCenter Server 实例之间迁移或克隆加密虚拟机,操作将失败,并显示以下错误消息:“在当前状态下不允许执行此操作 (The operation is not allowed in the current state)。”

    解决办法:必须使用 vSphere API 在 vCenter Server 实例之间迁移或克隆加密虚拟机。

网络连接问题

  • Intel 82599/X540/X550 网卡上的网络性能存在吞吐量降低问题与 vSphere 6.7 相比,在 vSphere 7.0 的某些工作负载下,为了提高 Intel 82599EB/X540/X550 系列网卡上的网络性能而将新队列对功能添加到 ixgben 驱动程序时,可能会降低吞吐量。

    解决办法:要实现与 vSphere 6.7 相同的网络性能,可以使用模块参数禁用队列对。要禁用队列对,请运行以下命令:

    # esxcli system module parameters set -p "QPair=0,0,0,0..."-m ixgben

    运行命令后,请重新引导。

  • 在启用 Network I/O Control (NetIOC) 时,高吞吐量虚拟机可能出现网络性能下降问题在启用 NetIOC 的情况下,从 vSphere 6.7 升级到 vSphere 7.0 时,需要高网络吞吐量的虚拟机可能出现吞吐量下降问题。

    解决办法:调整 ethernetx.ctxPerDev 设置以启用多个环境。

  • IPv6 流量无法通过使用 IPsec 的 VMkernel 端口将 VMkernel 端口从一个端口组迁移到另一个端口组时,IPv6 流量不会通过使用 IPsec 的 VMkernel 端口。

    解决办法:从受影响的服务器中移除 IPsec 安全关联 (SA),然后重新应用 SA。要了解如何设置和移除 IPsec SA,请参见《vSphere 安全性》文档。

  • 更高的 ESX 网络性能使 CPU 使用情况值增大ESX 网络性能提高时可能增大 CPU 使用情况值。

    解决办法:移除和添加仅包含 1 个 rx 分派队列的网络接口。例如:

    esxcli network ip interface remove --interface-name=vmk1

    esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1

  • 热添加、热移除或 Storage vMotion 后,虚拟机可能丢失以太网流量热添加、热移除或 Storage vMotion 后,虚拟机可能停止接收以太网流量。此问题会影响 VNIC 的上行链路已启用 SR-IOV 的虚拟机。当虚拟网络的上行链路为 Mellanox 支持 RDMA 的网卡并且已配置 RDMA 命名空间时,PVRDMA 虚拟网卡出现此问题。

    解决办法:可以热移除和热添加受影响的虚拟机以太网网卡以还原流量。在 Linux 客户机操作系统上,重新启动网络也可能会解决该问题。如果这些解决办法不起作用,可以重新引导虚拟机以还原网络连接。

  • 为使用静态 IP 地址部署的 VCSA 更改 IP 地址时,需要提前创建 DNS 记录在引入 DDNS 的过程中,DNS 记录更新仅适用于使用 DHCP 配置的网络部署的 VCSA。通过 VAMI 更改 vCenter Server 的 IP 地址时,显示以下错误:

    指定的 IP 地址未解析为指定的主机名 (The specified IP address does not resolve to the specified hostname)。

    解决办法:有两种可行的解决办法。

    1. 创建一个具有相同 FQDN 和所需 IP 地址的其他 DNS 条目。登录到 VAMI,然后执行用于更改 IP 地址的步骤。
    2. 使用 SSH 登录到 VCSA。执行以下脚本:./opt/vmware/share/vami/vami_config_net

      使用选项 6 更改 eth0 的 IP 地址。更改后,请执行以下脚本:

      ./opt/likewise/bin/lw-update-dns

      重新启动 VCSA 上的所有服务,以更新 DNS 服务器上的 IP 信息。

  • 在 NSX Manager 中删除相应的逻辑交换机后,可能需要几秒钟时间才能移除 NSX 分布式虚拟端口组 (NSX DVPG)。随着逻辑交换机数量的增加,在 NSX Manager 中删除相应的逻辑交换机后,可能需要更长时间才能移除 vCenter Server 中的 NSX DVPG。在具有 12000 个逻辑交换机的环境中,从 vCenter Server 中删除 NSX DVPG 大约需要 10 秒的时间。

    解决办法:无。

  • 如果创建了大量 NSX 分布式虚拟端口组,Hostd 将耗尽内存并失败。在 vSphere 7.0 中,NSX 分布式虚拟端口组消耗的内存量远大于含糊网络。因此,在给定相同内存量的情况下,NSX 分布式虚拟端口组无法支持与含糊网络相同的规模。

    解决办法:要支持使用 NSX 分布式虚拟端口组,请增加 ESXi 主机中的内存量。如果您确认系统具有足够的内存来支持虚拟机,则可以使用以下命令直接增加 hostd 的内存。

    localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048

    请注意,这会导致 hostd 使用通常为环境的虚拟机预留的内存。这可能会导致 ESXi 主机可支持的虚拟机数量减少。

  • 如果在虚拟机上配置网络预留,DRS 可能会错误地启动 vMotion如果在虚拟机上配置网络预留,则 DRS 会认定仅将虚拟机迁移到满足指定要求的主机。在具有 NSX 传输节点的集群中,如果某些传输节点通过 NSX-T 虚拟分布式交换机 (N-VDS) 加入传输区域,而其他传输节点通过 vSphere Distributed Switch (VDS) 7.0 加入传输区域,则 DRS 可能会错误地启动 vMotion。在以下情况下,您可能会遇到此问题:
    • 虚拟机连接到已配置网络预留的 NSX 逻辑交换机。
    • 某些传输节点使用 N-VDS 加入传输区域,而其他传输节点使用 VDS 7.0 加入传输区域,或者传输节点通过不同的 VDS 7.0 实例加入传输区域。

    解决办法:使所有传输节点都通过 N-VDS 或同一 VDS 7.0 实例加入传输区域。

  • 将 VMkernel 网卡 (vmknic) 添加到 NSX 端口组时,vCenter Server 会报告错误“不支持将 VMKernel 适配器连接到无状态主机上的 NSX 端口组。请改用分布式端口组 (Connecting VMKernel adapter to a NSX Portgroup on a Stateless host is not a supported operation. Please use Distributed Port Group instead)。”
    • 对于分布式虚拟交换机 (DVS) 上的无状态 ESXi,将阻止 NSX 端口组上的 vmknic。您必须改为使用分布式端口组。
    • 对于 DVS 上的有状态 ESXi,支持 NSX 端口组上的 vmknic,但如果 vSAN 在 NSX 端口组上使用 vmknic,则 vSAN 可能会遇到问题。

    解决办法:在同一 DVS 上使用分布式端口组。

  • 从 vCenter for QLogic 4x10GE QL41164HFCU CNA 启用 SRIOV 可能会失败如果导航到物理网络适配器的编辑设置对话框,并尝试启用 SR-IOV,则在使用 QLogic 4x10GE QL41164HFCU CNA 时,该操作可能会失败。尝试启用 SR-IOV 可能会导致 ESXi 主机的网络中断。

    解决办法:在 ESXi 主机上使用以下命令来启用 SRIOV:

    esxcfg-module

存储问题

  • 在具有 SmartPQI 控制器的 HPE Gen10 服务器上执行磁盘热移除和热插入后,未自动挂载 VMFS 数据存储在没有扩展器的情况下将具有 SmartPQI 控制器的 HPE Gen10 服务器上的 SATA 磁盘热移除并热插回同一台计算机的不同磁盘托架时,或者在以不同的顺序热移除并热插回多个磁盘时,有时会向这种磁盘分配新本地名称。这种磁盘上的 VMFS 数据存储显示为快照,并且不会自动重新挂载,因为设备名称已更改。

    解决办法:无。SmartPQI 控制器不支持未排序的热移除和热插入操作。

  • 为 nvme_pcie 驱动程序设置 loglevel 失败并显示错误使用命令 esxcli nvme driver loglevel set -l <log level> 设置 nvme_pcie 驱动程序的 loglevel 时,操作失败并显示以下错误消息:

    无法设置日志级别 0x2 (Failed to set log level 0x2)。

    保留此命令是为了确保与 NVMe 驱动程序的兼容性,但 nvme_pcie 驱动程序不支持此命令。

    解决办法:无。启用 nvme_pcie 功能后,将会存在这种情况。

  • ESXi 可能会因所有活动路径上的错误而终止 NVMeOF 设备的 I/O有时,由于链路问题或控制器状态,NVMeOF 设备的所有活动路径都会注册 I/O 错误。如果其中一个路径的状态更改为“不活动”,高性能插件 (HPP) 可能不会选择其他路径(如果显示大量错误)。因此,I/O 会失败。

    解决办法:禁用配置选项 /Misc/HppManageDegradedPaths 以取消阻止 I/O。

  • 基于 NVMe 的 VMFS 数据存储的 VOMA 检查失败并显示错误基于 NVMe 的 VMFS 数据存储不支持 VOMA 检查,该检查将失败并显示以下错误:
    错误: 无法保留设备。功能未实现 (ERROR: Failed to reserve device. Function not implemented)

    例如:

    # voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
    Running VMFS Checker version 2.1 in check mode
    Initializing LVM metadata, Basic Checks will be done
    
    Checking for filesystem activity
    Performing filesystem liveness check..|Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
    错误: 无法保留设备。Function not implemented
    Aborting VMFS volume check
    VOMA failed to check device : General Error

    解决办法:无。如果需要分析 VMFS 元数据,请使用 -l 选项收集这些数据,并将其传递给 VMware 客户支持。用于收集转储的命令为:

    voma -l -f dump -d /vmfs/devices/disks/:<partition#>
  • 使用虚拟机重新配置 API 将加密的第一类磁盘附加到加密虚拟机可能失败并显示错误如果使用不同的加密密钥对 FCD 和虚拟机进行加密,则尝试使用虚拟机重新配置 API 将加密的 FCD 附加到加密虚拟机可能会失败,并显示以下错误消息:
    无法对磁盘进行解密,因为密钥或密码错误 (Cannot decrypt disk because key or password is incorrect)。

    解决办法:使用 attachDisk API,而不是虚拟机重新配置 API,以将加密的 FCD 附加到加密虚拟机。

  • 如果 ESXi 主机的跨区 VMFS 数据存储的非主数据区进入永久设备丢失 (PDL) 状态,该主机可能进入无响应状态如果跨区的 VMFS 数据存储的非主数据区与主数据区都发生故障,则不会出现此问题。在这种情况下,整个数据存储将变得无法访问,并且不再允许 I/O。

    相反,如果只有非主数据区发生故障,但主数据区仍可访问,则数据存储检测信号显示正常。主机与数据存储之间的 I/O 将继续。但是,任何依赖发生故障的非主数据区的 I/O 也开始发生故障。其他 I/O 事务可能会在等待故障 I/O 修复时累积,并导致主机进入无响应状态。

    解决办法:修复非主数据区的 PDL 情况以解决此问题。

  • 从 APD 或 PDL 情况中恢复后,已启用集群虚拟磁盘支持的 VMFS 数据存储可能仍不可访问仅在已启用集群虚拟磁盘支持的数据存储上才会遇到此问题。当数据存储从全部路径异常 (APD) 或永久设备丢失 (PDL) 情况中恢复时,它仍然不可访问。VMkernel 日志可能显示类似以下内容的多个 SCSI3 reservation conflict 消息:

    2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"

    发生此问题可能是因为加入集群的 ESXi 主机丢失了数据存储的 SCSI 预留,并且在数据存储恢复后,不能始终自动重新获取这些预留。

    解决办法:使用以下命令手动注册预留:

    vmkfstools -L registerkey /vmfs/devices/disks/<device name>

    其中,<device name> 是创建的数据存储所在的设备的名称。

  • 虚拟 NVMe 控制器是 Windows 10 客户机操作系统的默认磁盘控制器使用硬件版本 15 或更高版本时,虚拟 NVMe 控制器是以下客户机操作系统的默认磁盘控制器:

    Windows 10
    Windows Server 2016
    Windows Server 2019

    使用虚拟 NVMe 控制器时,某些功能可能不可用。有关详细信息,请参见 https://kb.vmware.com/s/article/2147714

    注意:某些客户端使用之前默认的 LSI Logic SAS。这包括 ESXi Host Client 和 PowerCLI。

    解决办法:如果需要虚拟 NVMe 上未提供的功能,请切换到 VMware 准虚拟 SCSI (PVSCSI) 或 LSI Logic SAS。有关使用 VMware 准虚拟 SCSI (PVSCSI) 的信息,请参见 https://kb.vmware.com/s/article/1010398

  • 已设置合规性状态筛选的 CNS 查询可能需要非常长的时间才能完成CNS QueryVolume API 可用于获取有关 CNS 卷的信息,如卷运行状况和合规性状态。检查单个卷的合规性状态时,可快速获取结果。但是,当调用 CNS QueryVolume API 检查多个卷(数十个或几百个)的合规性状态时,查询的运行速度可能很慢。

    解决办法:避免使用批量查询。当需要获取合规性状态时,一次查询一个卷或将查询 API 中的卷数限制为 20 个或更少。使用查询时,避免运行其他 CNS 操作才可获得最佳性能。

  • ESXi 主机升级到 vSphere 7.0 后,存在重复的核心声明规则可能会导致意外行为声明规则确定哪个多路径插件(如 NMP、HPP 等)拥有通往特定存储设备的路径。ESXi 7.0 不支持重复声明规则。但是,如果将重复规则添加到通过自旧版的升级继承的现有声明规则,则 ESXi 7.0 主机不会发出警示。由于使用重复规则,存储设备可能由意外插件声明,这可能会导致意外的结果。

    解决办法:不要使用重复的核心声明规则。在添加新声明规则之前,请删除任何现有的匹配声明规则。

vCenter Server 和 vSphere Client 问题

  • PNID 更改后供应商提供程序脱机更改 vCenter IP 地址(PNID 更改)时,已注册的供应商提供程序脱机。

    解决办法:重新注册供应商提供程序。

  • 跨 vCenter 迁移虚拟机失败并显示错误使用跨 vCenter vMotion 将虚拟机的存储和主机移到其他 vCenter server 实例时,您可能会收到错误在当前状况下不允许执行此操作 (The operation is not allowed in the current state)

    如果虚拟机具有一个包含基于主机的规则(如加密或任何其他 IO 筛选器规则)的已分配存储策略,则 UI 向导将在“主机选择”步骤后和“数据存储选择”步骤之前显示此错误。

    解决办法:将虚拟机及其磁盘分配给不含基于主机的规则的存储策略。如果源虚拟机已加密,可能需要对该虚拟机进行解密。然后重试跨 vCenter vMotion 操作。

  • “硬件运行状况”选项卡中的“存储传感器”信息在 vCenter UI、主机 UI 和 MOB 上显示不正确的值导航到 vCenter UI 上的主机 > 监控 > 硬件运行状况 > 存储传感器时,存储信息显示不正确或未知的值。在主机 UI 和 MOB 路径 “runtime.hardwareStatusInfo.storageStatusInfo” 上也会出现相同的问题。

    解决办法:无。

  • vSphere UI 主机高级设置将当前产品锁存器位置显示为空,且默认为空vSphere UI 主机高级设置将当前产品锁存器位置显示为空,且默认为空。这存在不一致情况,因为实际产品位置 symlink 已创建并且有效。这会导致用户混淆。无法从 UI 更正默认设置。

    解决办法:用户可以使用主机上的 esxcli 命令更正当前产品锁存器位置默认设置,如下所示。

    1.使用以下命令移除现有产品锁存器位置设置:"esxcli system settings advanced remove -o ProductLockerLocation"

    2.使用相应的默认值重新添加产品锁存器位置设置:

    2.a.  如果 ESXi 是完整安装,则默认值为 "/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"

    2.b.如果 ESXi 是 autodeploy 等 PXEboot 配置,则默认值为:"/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"

    运行以下命令以自动确定位置:export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`

    添加以下设置:esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT

    您可以通过发出以下单个命令,将上述步骤 2 中的所有步骤组合在一起:

    esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`

  • 如果 vCenter Cloud Gateway 链接到 SDDC,则链接的软件定义的数据中心 (SDDC) vCenter Server 实例显示在内部部署 vSphere Client 中。当 vCenter Cloud Gateway 部署在与内部部署 vCenter Server 相同的环境中并链接到 SDDC 时,SDDC vCenter Server 将显示在内部部署 vSphere Client 中。这是意外行为,应忽略链接 SDDC vCenter Server。应在 vCenter Cloud Gateway 中运行的 vSphere Client 上执行涉及链接 SDDC vCenter Server 的所有操作。

    解决办法:无。

虚拟机管理问题

  • 自定义脚本的 postcustomization 部分在客户机自定义之前运行运行 Linux 客户机操作系统的客户机自定义脚本时,自定义规范中定义的自定义脚本的 precustomization 部分在客户机自定义之前运行,随后会运行 postcustomization 部分。如果在虚拟机的客户机操作系统中启用 Cloud-Init,则 postcustomization 部分在自定义之前运行,因为 Cloud-Init 中存在已知问题。

    解决办法:禁用 Cloud-Init 并使用标准客户机自定义。

  • 在没有共享存储的情况下,vSphere vMotion、Storage vMotion 和 vMotion 中的组迁移操作失败,并出现错误在具有多个磁盘和多级别快照的虚拟机上执行组迁移操作时,操作可能失败,并显示错误 com.vmware.vc.GenericVmConfigFault 等待数据失败。错误 195887167。可能由于超时,远程主机已关闭连接 (com.vmware.vc.GenericVmConfigFault Failed waiting for data. Error 195887167. Connection closed by remote host, possibly due to timeout)。

    解决办法:每次在发生故障的虚拟机上重试一次迁移操作。

  • 从 URL 部署 OVF 或 OVA 模板失败,并显示 403 禁止的错误包含 HTTP 查询参数的 URL 不受支持。例如,http://webaddress.com?file=abc.ovf 或 Amazon 预签名 S3 URL。

    解决办法:从本地文件系统下载文件并进行部署。

  • 导入或部署名称中包含非 ASCII 字符的本地 OVF 文件可能失败并显示错误导入的本地 .ovf 文件的名称中包含非 ASCII 字符时,您可能会收到 400 错误的请求错误 (400 Bad Request Error)。使用此类 .ovf 文件在 vSphere Client 中部署虚拟机时,部署过程将在 0% 处停止。因此,您可能会收到 400 错误的请求错误 (400 Bad Request Error) 或 500 内部服务器错误 (500 Internal Server Error)

    解决办法:

    1. 从 .ovf 和 .vmdk 文件名中移除非 ASCII 字符。
      • 要编辑 .ovf 文件中,请使用文本编辑器打开该文件。
      • 搜索非 ASCII .vmdk 文件名,并将其更改为 ASCII。
    2. 再次导入或部署保存的文件。

vSphere HA 和 Fault Tolerance 问题

  • 从存储无法访问状况(如集群范围的 APD)中恢复后,集群中的虚拟机可能处于孤立状态在集群范围的 APD 恢复后,某些虚拟机可能处于孤立状态,即使在集群上启用了 HA 和 VMCP 也是如此。

    同时出现以下情况时,可能会遇到此问题:

    • 集群中的所有主机都出现 APD,并且在达到 VMCP 超时前不会恢复。
    • 由于主机上的 APD,HA 主代理启动故障切换。
    • 由于以下原因之一,HA 故障切换期间打开 API 的电源失败:
      • 同一主机上的 APD
      • 整个集群中的级联 APD
      • 存储问题
      • 资源不可用问题
    • 在 FDM 尚未取消注册故障虚拟机的期间内,FDM 取消注册和 VC 挪用虚拟机逻辑可能启动,并且 VC 的主机同步做出多个主机正在报告同一虚拟机的响应。FDM 和 VC 从不同主机取消注册同一虚拟机的不同注册副本,导致虚拟机处于孤立状态。

    解决办法:在 APD 恢复后,必须在集群中手动取消注册和重新注册孤立的虚拟机。

    如果不手动重新注册孤立的虚拟机,HA 会尝试故障切换孤立的虚拟机,但可能需要 5 到 10 小时的时间,具体取决于 APD 恢复的时间。

    在这些情况下,集群的整体功能不受影响,并且 HA 将继续保护虚拟机。这是出现问题期间 VC 上显示的异常。

vSphere Lifecycle Manager 问题

  • 如果已为集群启用集中管理所有主机上的映像设置和更新的功能,无法在该集群上启用 NSX-TNSX-T 与 vSphere Lifecycle Manager 的映像管理功能不兼容。在为集群启用集中管理其所有主机上的映像设置和更新的功能时,无法在该集群上启用 NSX-T。但是,可以将 NSX Edge 部署到此集群。

    解决办法:将主机移至可使用基准管理的新集群,并且在该新集群上启用 NSX-T。

  • 在 vSphere 7.0 版本中,无法在 vSAN 集群上同时启用 vSphere Lifecycle Manager 和 vSAN 文件服务如果在集群上启用了 vSphere Lifecycle Manager,则无法在同一集群上启用 vSAN 文件服务,反之亦然。要在已启用 vSAN 文件服务的集群上启用 vSphere Lifecycle Manager,请先禁用 vSAN 文件服务,然后重试操作。请注意,如果转换到由单个映像管理的集群,则无法在该集群上禁用 vSphere Lifecycle Manager。

    解决办法:无。

  • 无法使用 vSphere Auto Deploy 将 ESXi 7.0 主机添加到使用单个映像管理的集群中尝试使用 vSphere Auto Deploy 中的“添加到清单”工作流将 ESXi 主机添加到使用单个映像管理的集群失败。出现此故障的原因是现有 Auto Deploy 规则集中未匹配任何模式。该任务失败且无提示,并且主机仍保留在“发现的主机”选项卡中。

    解决办法:

    1. 从“发现的主机”选项卡中移除与规则集不匹配的 ESXi 主机。
    2. 创建规则或编辑现有 Auto Deploy 规则,其中主机目标位置是由映像管理的集群。
    3. 重新引导主机。

    这些主机将添加到通过 vSphere Lifecycle Manager 中的映像管理的集群。

  • 硬件支持管理器不可用时,vSphere High Availability (HA) 功能会受到影响如果集群由单个映像管理并且已从中选择固件和驱动程序加载项并启用 vSphere HA,则硬件支持管理器不可用于该集群时,vSphere HA 功能会受到影响。您可能会遇到以下错误。
    • 在集群上配置 vSphere HA 失败。
    • 无法在主机上完成 vSphere HA 代理配置:在集群上应用 HA VIB 时遇到故障 (Applying HA VIBs on the cluster encountered a failure)。
    • 修复 vSphere HA 失败:出现了常规系统错误: 无法获取有效的组件映射 (A general system error occurred: Failed to get Effective Component map)。
    • 禁用 vSphere HA 失败:删除解决方案任务失败。出现了常规系统错误: 在库中或硬件支持管理器中找不到硬件支持软件包 (A general system error occurred: Cannot find hardware support package from depot or hardware support manager)。

    解决办法:

    • 如果硬件支持管理器暂时不可用,请执行以下步骤。
    1. 将硬件支持管理器重新连接到 vCenter Server。
    2. 从“主机和集群”菜单中选择集群。
    3. 选择“配置”选项卡。
    4. 在“服务”下,单击“vSphere 可用性”。
    5. 重新启用 vSphere HA。
    • 如果硬件支持管理器永久不可用,请执行以下步骤。
    1. 从映像规范中移除硬件支持管理器和硬件支持包。
    2. 重新启用 vSphere HA。
    3. 从“主机和集群”菜单中选择集群。
    4. 选择“更新”选项卡。
    5. 单击“编辑”。
    6. 移除固件和驱动程序加载项,然后单击“保存”。
    7. 选择“配置”选项卡。
    8. 在“服务”下,单击“vSphere 可用性”。
    9. 重新启用 vSphere HA。
  • vSphere Lifecycle Manager 中的修复过程完成后,未从集群中移除 I/O 筛选器通过在 vSphere Lifecycle Manager 中修复集群来从集群中移除 I/O 筛选器失败,并显示以下错误消息:IO 筛选器 XXX 已存在 (iofilter XXX already exists)。IO 筛选器仍列为“已安装”。

    解决办法:

    1. 从 vCenter Server 受管对象 (IoFilterManager) 调用 IOFilter API UninstallIoFilter_Task
    2. 在 vSphere Lifecycle Manager 中修复集群。
    3. 从 vCenter Server 受管对象 (IoFilterManager) 中调用 IOFilter API ResolveInstallationErrorsOnCluster_Task 以更新数据库。
  • 在 vSphere Lifecycle Manager 中修复已启用 vSphere HA 的集群时,添加主机会导致出现 vSphere HA 错误状态在已启用 vSphere HA 的集群的修复过程中添加一个或多个 ESXi 主机时,会导致出现以下错误消息:在集群上应用 HA VIB 时遇到故障 (Applying HA VIBs on the cluster encountered a failure)。

    解决办法:集群修复操作完成后,请执行以下任务之一。

    • 右键单击出现故障的 ESXi 主机,然后选择“重新配置 vSphere HA”。
    • 为集群禁用并重新启用 vSphere HA。
  • 在 vSphere Lifecycle Manager 中修复已启用的 vSphere HA 的集群时,禁用并重新启用 vSphere HA 会导致出现 vSphere HA 错误状态在集群修复过程中禁用并重新启用 vSphere HA 时,可能会由于 vSphere HA 运行状况检查报告主机未安装 vSphere HA VIB 而导致修复过程失败。您可能会看到以下错误消息:为集群设置所需的映像规范失败 (Setting desired image spec for cluster failed)

    解决办法:在集群修复操作完成后,为集群禁用并重新启用 vSphere HA。

  • 在 vSphere Lifecycle Manager 中检查大型集群中的建议映像时存在性能缓慢问题在具有超过 16 个主机的大型集群中,建议生成任务可能需要超过一小时才能完成,或者可能显示为挂起。建议任务的完成时间取决于在每个主机上配置的设备的数量,以及在获取建议的有效映像之前 vSphere Lifecycle Manager 需要从库中处理的候选映像的数量。

    解决办法:无。

  • 在 vSphere Lifecycle Manager 中检查大型集群中的硬件兼容性时存在性能缓慢问题在具有超过 16 个主机的大型集群中,验证报告生成任务可能需要长达 30 分钟的时间才能完成,或者可能显示为挂起。完成时间取决于在每个主机上配置的设备的数量以及在集群中配置的主机的数量。

    解决办法:无

  • 修复 vSphere Lifecycle Manager 中的集群时,显示非英语语言的不完整错误消息在 vCenter Server 用户界面中,您可能会遇到本地化语言的不完整错误消息。vSphere Lifecycle Manager 中的集群修复过程失败后,将显示这些消息。例如,您可能会看到以下错误消息。

    英文语言的错误消息:Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx

    法语语言的错误消息:La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx

    解决办法:无。

  • 将没有供应商加载项、组件或者固件和驱动程序加载项的映像导入到所含映像中包含此类元素的集群时,未移除现有映像的映像元素只有 ESXi 基础映像替换为所导入映像中的映像。

    解决办法:导入过程完成后,编辑映像,并根据需要移除供应商加载项、组件以及固件和驱动程序加载项。

  • 将使用基准的集群转换为使用单个映像的集群时,显示一条警告,指出将移除 vSphere HA VIB将使用基准并且已启用 vSphere HA 的集群转换为使用单个映像的集群时,可能会出现一条警告消息,指出将移除 vmware-fdm 组件。

    解决办法:可忽略此消息。转换过程中将安装 vmware-fdm 组件。

  • 如果 vSphere Update Manager 配置为通过代理服务器从 Internet 下载修补程序更新,则在升级到将 Update Manager 转换为 vSphere Lifecycle Manager 的 vSphere 7.0 后,从 VMware 修补程序存储库下载修补程序可能失败在早期版本的 vCenter Server 中,您可以为 vCenter Server 和 vSphere Update Manager 配置独立的代理设置。升级到 vSphere 7.0 后,vSphere Update Manager 服务将成为 vSphere Lifecycle Manager 服务的一部分。对于 vSphere Lifecycle Manager 服务,将从 vCenter Server Appliance 设置中配置代理设置。如果您已将 Update Manager 配置为通过代理服务器从 Internet 下载修补程序更新,但 vCenter Server Appliance 没有代理设置配置,则在 vCenter Server 升级到版本 7.0 后,vSphere Lifecycle Manager 无法连接到 VMware 库,并且无法下载修补程序或更新。

    解决办法:登录到 vCenter Server Appliance 管理界面 https://vcenter-server-appliance-FQDN-or-IP-address:5480,为 vCenter Server Appliance 配置代理设置并将 vSphere Lifecycle Manager 启用为使用代理。

其他问题

  • 将版本为 6.5 的主机配置文件应用于版本为 7.0 的 ESXi 主机时,合规性检查失败将版本为 6.5 的主机配置文件应用于版本为 7.0 的 ESXi 主机时,会将 Coredump 文件配置文件报告为与主机不兼容。

    解决办法:有两种可行的解决办法。

    1. 在创建版本为 6.5 的主机配置文件时,请在 ESXi 主机上将高级配置选项 VMkernel.Boot.autoCreateDumpFile 设置为 false。
    2. 应用版本为 6.5 的现有主机配置文件时,在主机配置文件中添加高级配置选项 VMkernel.Boot.autoCreateDumpFile,将该选项配置为固定策略,并将值设置为 false。
  • 当您的浏览器设置非英语的语言时,“操作”下拉菜单中不包含任何项目如果您的浏览器设置为非英语的语言,则您在 vSphere Client 清单的虚拟机摘要选项卡中单击切换到新视图按钮时,客户机操作系统面板中的操作下拉菜单中不包含任何项目。

    解决办法:选择虚拟机页面顶部的操作下拉菜单。

  • 在打开动态接收方调整 (DYN_RSS) 或通用 RSS (GEN_RSS) 功能时,Mellanox ConnectX-4 或 ConnectX-5 本机 ESXi 驱动程序可能出现轻微的吞吐量下降当 DYN_RSS 和 GEN_RSS 功能处于开启状态时,Mellanox ConnectX-4 或 ConnectX-5 本机 ESXi 驱动程序可能会出现低于 5% 的吞吐量下降,这很可能会影响正常工作负载。

    解决办法:可以使用以下命令禁用 DYN_RSS 和 GEN_RSS 功能:

    # esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"

    # reboot

  • 在 PVRDMA 环境中,同一主机上两个虚拟机之间的 RDMA 通信可能失败在 PVRDMA 环境的 vSphere 7.0 实施中,如果存在 HCA,虚拟机通过 HCA 传递流量以进行本地通信。但是,RDMA 流量环回在 qedrntv 驱动程序上不起作用。  例如,在同一上行链路端口下配置的虚拟机上运行的 RDMA 队列对无法相互通信。

    在 vSphere 6.7 及更低版本中,如果已启用 SRQ,则 HCA 用于本地 RDMA 流量。如果虚拟机使用已启用 SRQ 的 PVRDMA 版本以及使用 RoCE v2 的硬件版本 14 及以上版本,vSphere 7.0 将对这些虚拟机使用 HCA 环回。

    当前版本的 Marvell FastLinQ 适配器固件不支持同一 PF 或端口的 QP 之间的环回流量。

    解决办法:已在针对 vSphere 7.0 认证的原生驱动程序中添加所需支持。如果您使用的是内置 qedrntv 驱动程序,则必须使用 3 主机配置并将虚拟机迁移到第三个主机。

  • 在 qedrntv 驱动程序中不可靠的数据报流量 QP 存在限制Marvell FastLinQ qedrntv RoCE 驱动程序与不可靠的数据报 (UD) 流量存在限制。涉及批量流量的 UD 应用程序可能会因 qedrntv 驱动程序而失败。此外,UD QP 只能使用 DMA 内存区域 (MR)。不支持物理 MR 或 FRMR。尝试将物理 MR 或 FRMR 与 UD QP 配合使用的应用程序在与 qedrntv 驱动程序一起使用时无法传递流量。此类测试应用程序的已知示例为 ibv_ud_pingpong 和 ib_send_bw

    VMware ESXi 环境(如 iSER、NVMe-oF (RoCE) 和 PVRDMA)中的标准 RoCE 和 RoCEv2 用例不受此问题的影响。UD 流量的用例有限,此问题会影响需要批量 UD 流量的一小部分应用程序。

    Marvell FastLinQ 硬件不支持 RDMA UD 流量卸载。为了满足关于支持 GSI QP 的 VMware PVRDMA 要求,qedrntv 驱动程序中添加了 UD QP 支持的受限仅软件实施。此实施的目标是提供对控制路径 GSI 通信的支持,而不是支持批量流量和高级功能的完整 UD QP 实施。

    由于在软件中实施 UD 支持,此实施可能不适应大量流量,并且数据包可能会丢失。这可能会导致批量 UD 流量出现故障。

    解决办法:qedrntv 驱动程序不支持批量 UD QP 流量,目前尚无解决办法。如 iSER、NVMe、RDMA 和 PVRDMA 等 VMware ESXi RDMA (RoCE) 用例不受此问题的影响。

  • 在频繁连接或断开 iSCSI LUN 时,配备 QLogic 578xx 网卡的服务器可能失败如果在短时间内频繁触发 QLogic 578xx 网卡 iSCSI 连接或断开连接,服务器可能会由于 qfle3 驱动程序问题而失败。这是设备固件中的一个已知缺陷所致。

    解决办法:无。

  • 在基于 FC 的 Broadcom NVMe 环境中,在执行驱动程序卸载或控制器断开连接操作期间,ESXi 可能失败在基于 FC 的 Broadcom NVMe 环境中,在执行驱动程序卸载或控制器断开连接操作期间,ESXi 可能会失败,并且显示类似以下内容的错误消息:@BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19

    解决办法:无。

  • 在某些 Dell 服务器上,ESXi 不显示 i350/X550 网卡的 OEM 固件版本号内置 ixgben 驱动程序仅识别 i350/X550 网卡的固件数据版本或签名。在某些 Dell 服务器上,OEM 固件版本号已编程到 OEM 软件包版本区域,而内置 ixgben 驱动程序不会读取此信息。仅显示 8 位固件签名。

    解决办法:要显示 OEM 固件版本号,请安装异步 ixgben 驱动程序版本 1.7.15 或更高版本。

  • X710 或 XL710 网卡在 ESXi 中可能发生故障在对 X710 或 XL710 网卡启动某些破坏性操作(例如重置网卡或操作 VMKernel 的内部设备树)时,网卡硬件可能会从非数据包内存中读取数据。

    解决办法:请勿重置网卡或操作 VMkernel 内部设备状态。

  • 系统重新引导后,NVMe-oF 不保证持久 VMHBA 名称NVMe-oF 是 vSphere 7.0 中的新功能。如果服务器具有使用 vmhba30+ 的 USB 存储安装,并且还具有 NVMe over RDMA 配置,则在系统重新引导后,VMHBA 名称可能会发生变化。这是因为 NVMe over RDMA 的 VMHBA 名称分配不同于 PCIe 设备。ESXi 不保证持久性。

    解决办法:无。

  • vCenter 数据库大小为 300 GB 或更大时备份失败如果 vCenter 数据库大小为 300 GB 或更大,基于文件的备份将失败,并显示超时。将显示以下错误消息:超时! 无法在 72000 秒内完成 (Timeout! Failed to complete in 72000 seconds)

    解决办法:无。

  • 根据版本为 6.5 或 6.7 的主机配置文件检查 ESXi 7.0 主机的合规性状态时导致 vmhba 和 vmrdma 设备出现错误根据版本为 6.5 或 6.7 的主机配置文件检查使用 nmlx5_core 或 nvme_pcie 驱动程序的 ESXi 7.0 主机的合规性时,您可能会看到以下错误,其中 address1 和 address2 特定于受影响的系统。
    • 您的主机上不存在总线类型为“逻辑”、地址为“address1”的 vmhba 设备 (A vmhba device with bus type logical, address1 is not present on your host)。
    • 您的主机上不存在总线类型为“逻辑”、地址为“address2”的 vmrdma 设备 (A vmrdma device with bus type logical, address2 is not present on your host)。

    出现此错误的原因是,ESXi 版本 7.0 及更低版本中的 nmlx5_core 或 nvme_pcie 驱动程序生成的设备地址不匹配。

    解决办法:可以忽略该错误。ESXi 主机功能不受影响。要解决合规性状态错误,请从 ESXi 主机版本 7.0 中重新提取主机配置文件,并将新主机配置文件应用到主机。

  • 还原从具有外部 Platform Services Controller 部署的 vCenter Server 6.x 升级到 vCenter Server 7.0 的 vCenter Server 7.0 可能会失败还原从具有外部 Platform Services Controller 部署的 vCenter Server 6.x 升级到 vCenter Server 7.0 的 vCenter Server 7.0 时,还原可能会失败并显示以下错误:无法检索设备存储列表 (Failed to retrieve appliance storage list)

    解决办法:在还原过程的第一阶段,提高 vCenter Server 7.0 的存储级别。例如,如果 vCenter Server 6.7 外部 Platform Services Controller 设置存储类型为“小型”,请选择存储类型“大型”以执行还原过程。

  • 在主机配置文件修复过程中,未配置已启用的 SSL 协议配置参数在主机配置文件修复期间未配置已启用的 SSL 协议 (Enabled SSL protocols) 配置参数,仅启用了系统默认协议 tlsv1.2。在 vCenter Server 7.0 环境中,版本为 7.0 及更低版本的主机配置文件会出现此行为。

    解决办法:要为 SFCB 启用 TLSV 1.0 或 TLSV 1.1 SSL 协议,请使用 SSH 登录到 ESXi 主机,然后运行以下 ESXCLI 命令:esxcli system wbem -P <protocol_name>

  • 无法使用主机配置文件配置锁定模式设置无法使用安全主机配置文件配置锁定模式,也无法将该模式同时应用于多个 ESXi 主机。必须手动配置每个主机。

    解决办法:在 vCenter Server 7.0 中,可以使用安全主机配置文件配置锁定模式和管理锁定模式例外用户列表。

  • 将主机配置文件应用于集群时,ESXi 主机中缺少增强型 vMotion 兼容性 (EVC) 设置VMware 配置文件 /etc/vmware/config 中的某些设置不受主机配置文件管理,并且在修改该 VMware 配置文件时被列入黑名单。因此,将主机配置文件应用于集群时,EVC 设置丢失,导致 EVC 功能丢失。例如,未屏蔽的 CPU 可能向工作负载公开。

    解决办法:在集群上重新配置相关的 EVC 基准以恢复 EVC 设置。

  • 使用主机配置文件在 vCenter Server 7.0 中定义核心转储分区时导致发生错误在 vCenter Server 7.0 中,无法在主机配置文件中配置和管理核心转储分区。尝试应用主机配置文件来定义核心转储分区时,导致出现以下错误:未找到任何有效的 coredump 分区。

    解决办法:无。在 vCenter Server 7.0 中,主机配置文件仅支持基于文件的核心转储。

  • 在从 ESXi 主机复制主机配置文件或者编辑主机配置文件时,用户输入值丢失某些主机配置文件密钥从哈希计算生成,即使提供了密钥生成的显式规则也是如此。因此,在从主机复制设置或者编辑主机配置文件时,应答文件中的用户输入值会丢失。

    解决办法:在 vCenter Server 7.0 中,从 ESXi 主机复制主机配置文件或修改主机配置文件时,将保留用户输入设置。

  • 从某些库到 vSphere 的 HTTP 请求可能被拒绝vSphere 7.0 中的 HTTP 反向代理强制实施比以前版本更严格的标准合规性。这可能导致在应用程序用于对 vSphere 执行 SOAP 调用的某些第三方库中出现预先存在的问题。

    如果您开发使用此类库的 vSphere 应用程序,或者在 vSphere 堆栈中包含依赖于此类库的应用程序,那么当这些库向 VMOMI 发送 HTTP 请求时,可能会遇到连接问题。例如,从 vijava 库发出的 HTTP 请求可能采用以下形式:

    POST /sdk HTTP/1.1 SOAPAction Content-Type: text/xml; charset=utf-8 User-Agent: Java/1.8.0_221

    此示例中的语法违反了在 SOAPAction 后必须使用冒号的 HTTP 协议标头字段要求。因此,请求在执行时被拒绝。

    解决办法:在应用程序中利用不合规库的开发人员可以考虑改为使用遵循 HTTP 标准的库。例如,使用 vijava 库的开发人员可以考虑改为使用最新版本的 yavijava 库。

  • 在主机配置文件中编辑高级选项参数并将值设置为 false 时,导致该值设置为 true尝试将主机配置文件中高级选项参数的值设置为 false 时,用户界面会创建一个非空字符串值。不为空的值将解释为 true,并且该高级选项参数在主机配置文件中收到 true 值。

    解决办法:有两种可行的解决办法。

    • 在引用 ESXi 主机上将该高级选项参数设置为 false,并在主机配置文件中复制此主机上的设置。
      注意:主机必须与主机配置文件兼容,才可在主机上修改高级选项参数。
    • 在引用 ESXi 主机上将高级选项参数设置为 false,并且从此主机创建主机配置文件。然后,将主机配置文件设置从新主机配置文件复制到现有主机配置文件中。
  • 在修复过程中,主机配置文件修改 SNMP 动态防火墙规则集SNMP 防火墙规则集是动态状况,在运行时期间进行处理。应用主机配置文件时,规则集的配置由主机配置文件和 SNMP 同时进行管理,这可能导致意外地修改防火墙设置。

    解决办法:有两种可行的解决办法。

    • 要允许规则集对自身进行动态管理,请在主机配置文件的配置中排除 SNMP 防火墙规则集选项。
    • 要继续对规则集进行双重管理,请在需要时更正防火墙规则集状态。
  • 使用 Broadcom 驱动程序 lsi_msgpt3、lsi_msgpt35 和 lsi_mr3 时,可能会显示转储文件使用 lsi_msgpt3、lsi_msgpt35 和 lsi_mr3 控制器时,存在显示转储文件 lsuv2-lsi-drivers-plugin-util-zdump 的潜在风险。退出此插件实用程序中使用的 storelib 时出现问题。对 ESXi 操作没有任何影响,可以忽略该转储文件。

    解决办法:可放心地忽略此消息。可以使用以下命令移除 lsuv2-lsi-drivers-plugin:

    esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin

  • 在 vCenter 中配置 PCI 设备的 SR-IOV 后,您可能会看到不需要重新引导,但第三方扩展执行的设备配置可能会丢失,需要重新引导才能重新应用。在 ESXi 7.0 中,无需重新引导即可应用 SR-IOV 配置,并重新加载设备驱动程序。ESXi 主机可能让第三方扩展执行设备配置,这些配置需要在引导期间加载设备驱动程序后运行。要使这些第三方扩展重新应用设备配置,需要重新引导。

    解决办法:在配置 SR-IOV 以应用第三方设备配置后,必须重新引导。

 类似资料: