当前位置: 首页 > 知识库问答 >
问题:

在IBM Websphere环境中安装负载均衡器服务器

穆嘉
2023-03-14

我正在使用websphere网络部署。我编写了一个应用程序,它部署在同一个单元上的两个不同节点上。现在我想用粘滞会话选项来平衡两个服务器的负载。是否有一种方法可以在websphere环境中创建负载平衡服务器?我见过一个叫做按需路由的选项,它等于负载均衡器吗?非常感谢你在这方面的帮助。顺便说一下,我使用的是WebSphere8.5.x。谢了。

共有1个答案

万俟沛
2023-03-14

是的,随需应变路由器是WebSphere单元的本地负载平衡器。然后您只需使用“weight”特性来控制请求的分布。

设置权重--在管理控制台中,转到“服务器>集群>[您的集群类型]>[您的集群名称]”,然后在“附加属性”标题下单击“集群成员”。

将它们的“配置权重”设置为相等的值,然后对集群进行ripplestart(或单独循环)。注意,“运行时权重”立即生效,但只要服务器启动,就会重置为配置的权重。

在你的情况下,只需将它们设置为相同的重量。

 类似资料:
  • 本文向大家介绍CentOS6.5环境安装nginx服务器及负载均衡配置操作详解,包括了CentOS6.5环境安装nginx服务器及负载均衡配置操作详解的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了CentOS6.5环境安装nginx服务器及负载均衡配置操作。分享给大家供大家参考,具体如下: 1、下载PCRE, 是一个用C语言编写的正则表达式函数库 2、下载zlib库 4、下载SSL 5、

  • 用于设置容器内pod的访问方式。 服务 服务定义了访问后端Pod的访问方式。 路由 路由是允许访问集群内路由的规则集合。

  • 负载均衡即服务(Load Balance as a Service,LBaaS)是一项网络高级服务。 顾名思义,它允许租户动态的在自己的网络创建一个负载均衡设备。 负载均衡,可以说是分布式系统中比较基础的组件,它接收前端过来的请求,然后将请求按照某种均衡的策略转发给后端资源池中的某个处理单元,以完成处理。进而可以实现高可用性和横向的扩展性。 OpenStack Neutron 通过高级服务扩展的形

  • 我正在尝试使用ELB部署一些nodejs站点,但ELB和EC2实例的安全组都存在一些问题。 我想做的是允许ELB接受端口80请求,并将这些请求转发到EC2实例上的端口3000,我不希望EC2实例可以从Internet直接访问,它们应该只能通过负载均衡器(在端口3000上)访问。 因此,在我的公有子网的 VPC 中,我有: < li >设置转发80 (HTTP)到3000 (HTTP)的ELB <

  • 我们目前有一个google云设置,在TCP负载平衡器后面有一个后端服务(一个由3台vm机器组成的托管实例组)。在前端配置中,我们有一个静态外部ip地址,将流量重定向到端口6443,并在连接到负载平衡器的端口6443上进行tcp健康检查。在后端服务中的3个vm实例中,最初只有一台计算机在端口6443上运行服务。因此,负载平衡器在负载平衡器详细信息页面中正确检测到一个运行状况实例和两个不正常实例。为了

  • Kubernetes在设计之初就充分考虑了针对容器的服务发现与负载均衡机制,提供了Service资源,并通过kube-proxy配合cloud provider来适应不同的应用场景。随着kubernetes用户的激增,用户场景的不断丰富,又产生了一些新的负载均衡机制。目前,kubernetes中的负载均衡大致可以分为以下几种机制,每种机制都有其特定的应用场景: Service:直接用Service