集群 集群,是 DaoCloud 平台上资源的结合。集群为用户提供了统一管理计算资源的一种方式。 集群是一个逻辑概念,您可以创建自有集群,并向集群中添加属于自己的主机。集群用来区分不同目的的资源和应用交付目的地,比如供团队内部测试和交付的部门测试集群、位于公司私有云或公有云之上的大规模应用预发布平台。 使用容器化软件交付,在完成镜像构建后,我们可以非常方便的把一个或者一组镜像部署到不同的集群之上,
本文介绍 Kubernetes 上的 TiDB 集群常见问题以及解决方案。 如何修改时区设置? 默认情况下,在 Kubernetes 集群上部署的 TiDB 集群各组件容器中的时区为 UTC,如果要修改时区配置,有下面两种情况: 第一次部署集群 配置 TidbCluster CR 的 .spec.timezone 属性,例如: ... spec: timezone: Asia/Shanghai
本文介绍 TiDB 集群运行过程中常见异常以及处理办法。 TiKV Store 异常进入 Tombstone 状态 正常情况下,当 TiKV Pod 处于健康状态时(Pod 状态为 Running),对应的 TiKV Store 状态也是健康的(Store 状态为 UP)。但并发进行 TiKV 组件的扩容和缩容可能会导致部分 TiKV Store 异常并进入 Tombstone 状态。此时,可以按
滚动更新 TiDB 集群时,会按 PD、TiKV、TiDB 的顺序,串行删除 Pod,并创建新版本的 Pod,当新版本的 Pod 正常运行后,再处理下一个 Pod。 滚动升级过程会自动处理 PD、TiKV 的 Leader 迁移与 TiDB 的 DDL Owner 迁移。因此,在多节点的部署拓扑下(最小环境:PD * 3、TiKV * 3、TiDB * 2),滚动更新 TiKV、PD 不会影响业务
本文介绍如何对 Kubernetes 上的集群进行初始化配置完成初始化账号和密码设置,以及批量自动执行 SQL 语句对数据库进行初始化。 注意: 如果 TiDB 集群创建完以后手动修改过 root 用户的密码,初始化会失败。 以下功能只在 TiDB 集群创建后第一次执行起作用,执行完以后再修改不会生效。 配置 TidbInitializer 请参考 TidbInitializer 示例和 API
本文主要描述了如何在标准的 Kubernetes 集群上通过 TiDB Operator 部署 TiDB 集群。 前置条件 TiDB Operator 部署完成。 部署 TiDB 集群 在部署 TiDB 集群之前,需要先配置 TiDB 集群。请参阅在 Kubernetes 中配置 TiDB 集群。 配置 TiDB 集群后,请按照以下步骤部署 TiDB 集群: 创建 Namespace: kubec
本文介绍在 Kubernetes 上部署 TiDB 集群的软硬件环境需求。 软件版本要求 软件名称 版本 Docker Docker CE 18.09.6 Kubernetes v1.12.5+ CentOS CentOS 7.6,内核要求为 3.10.0-957 或之后版本 配置防火墙 建议关闭防火墙: systemctl stop firewalld systemctl disable fir
本文介绍了如何使用个人电脑(Linux 或 macOS 系统)在阿里云上部署 TiDB 集群。 环境需求 aliyun-cli >= 3.0.15 并且配置 aliyun-cli 注意: Access Key 需要具有操作相应资源的权限。 kubectl >= 1.12 helm >= 2.11.0 && < 3.0.0 && != 2.16.4 jq >= 1.6 terraform 0.12.
DM 支持主流的 Linux 操作系统环境,可以很好的部署和运行在 Intel 架构服务器环境及主流虚拟化环境。 Linux 操作系统版本要求 Linux 操作系统平台 版本 Red Hat Enterprise Linux 7.3 及以上 CentOS 7.3 及以上 Oracle Enterprise Linux 7.3 及以上 Ubuntu LTS 16.04 及以上 注意: 以上 Linu
只要你的表单包含「手机」或「邮件」字段,金数据完全可以作为一个短信/邮件平台来为你的客户群发信息,例如活动报名成功后的通知、购买后的反馈,甚至直接从 Excel 批量导入手机号码/邮箱地址后给任意一群人发送信息。短信比邮件多一种发送途径,下面为你逐一介绍。 在数据页面直接发短信 你可以在「数据」下找到发短信的按钮,选中联系人,点击按钮,提交短信模板即可,如图 1、2 所示。 图1 数据页面发短信
如果您要以编程方式创建您的 Vert.x 实例,通过将 Vert.x 实例配置获得集群的event bus; VertxOptions options = new VertxOptions(); Vertx.clusteredVertx(options, res -> { if (res.succeeded()) { Vertx vertx = res.result(); Ev
Event Bus并不仅仅存在于一个单一的Vert.x实例。通过网络上的不同集群实例Vert.x一起就可以形成一个单一的,分布式的,Event Bus。
Kubernetes v1.9 单集群最大支持 5000 个节点,也就是说 Kubernetes 最新稳定版的单个集群支持 不超过 5000 个节点 不超过 150000 个 Pod 不超过 300000 个容器 每台 Node 上不超过 100 个 Pod 公有云配额 对于公有云上的 Kubernetes 集群,规模大了之后很容器碰到配额问题,需要提前在云平台上增大配额。这些需要增大的配额包括
Kubernetes 组件都是无状态的,所有的群集状态都储存在 etcd 集群中。 本部分内容将部署一套三节点的 etcd 群集,并配置高可用以及远程加密访问。 事前准备 本部分的命令需要在每个控制节点上都运行以便,包括 controller-0、controller-1 和 controller-2。可以使用 gcloud 命令登录每个控制节点,比如 gcloud compute ssh con
Kubernetes 集群架构 etcd 集群 从 https://discovery.etcd.io/new?size=3 获取 token 后,把 https://kubernetes.io/docs/admin/high-availability/etcd.yaml 放到每台机器的 /etc/kubernetes/manifests/etcd.yaml,并替换掉 ${DISCOVERY_TO