在 Kubernetes 集群内访问 TiDB 时,使用 TiDB service 域名 ${cluster_name}-tidb.${namespace} 即可。 若需要在集群外访问,则需将 TiDB 服务端口暴露出去。在 TidbCluster CR 中,通过 spec.tidb.service 字段进行配置: spec: ... tidb: service: ty
本文介绍如何对 Kubernetes 上的集群进行初始化配置完成初始化账号和密码设置,以及批量自动执行 SQL 语句对数据库进行初始化。 注意: 如果 TiDB 集群创建完以后手动修改过 root 用户的密码,初始化会失败。 以下功能只在 TiDB 集群创建后第一次执行起作用,执行完以后再修改不会生效。 配置 TidbInitializer 请参考 TidbInitializer 示例和 API
本文主要描述了如何在标准的 Kubernetes 集群上通过 TiDB Operator 部署 TiDB 集群。 前置条件 TiDB Operator 部署完成。 部署 TiDB 集群 在部署 TiDB 集群之前,需要先配置 TiDB 集群。请参阅在 Kubernetes 中配置 TiDB 集群。 配置 TiDB 集群后,请按照以下步骤部署 TiDB 集群: 创建 Namespace: kubec
本文介绍如何在 Kubernetes 上部署 TiDB Operator。 准备环境 TiDB Operator 部署前,请确认以下软件需求: Kubernetes v1.12 或者更高版本 DNS 插件 PersistentVolume RBAC 启用(可选) Helm 版本 >= 2.11.0 && < 3.0.0 && != 2.16.4 部署 Kubernetes 集群 TiDB Oper
TiDB 集群中 PD、TiKV、监控等组件以及 TiDB Binlog 和备份等工具都需要使用将数据持久化的存储。Kubernetes 上的数据持久化需要使用 PersistentVolume (PV)。Kubernetes 提供多种存储类型,主要分为两大类: 网络存储 存储介质不在当前节点,而是通过网络方式挂载到当前节点。一般有多副本冗余提供高可用保证,在节点出现故障时,对应网络存储可以再挂载
本文介绍在 Kubernetes 上部署 TiDB 集群的软硬件环境需求。 软件版本要求 软件名称 版本 Docker Docker CE 18.09.6 Kubernetes v1.12.5+ CentOS CentOS 7.6,内核要求为 3.10.0-957 或之后版本 配置防火墙 建议关闭防火墙: systemctl stop firewalld systemctl disable fir
本文档介绍了如何创建一个简单的 Kubernetes 集群,部署 TiDB Operator,并使用 TiDB Operator 部署 TiDB 集群。 警告: 本文中部署例子仅用于测试目的。不要直接用于生产环境。 基本步骤如下: 创建 Kubernetes 集群 本节介绍了两种创建简单 Kubernetes 集群的方法,可用于测试在 TiDB Operator 下运行的 TiDB 集群。选择最适
环境说明 CentOS 7.4 购买自阿里云普通的 ECS 华南地区(如果你是购买美国地区的服务器,则直接使用 kubespray 原项目,那些镜像地址不用修改,其他照着文档即可) 所有机子都是干净的不需要先安装 Docker 等其他容器相关的东西 机器简称 内网 IP 地址 部署软件 系统环境 硬件配置 操作机 172.18.243.242 ansible CentOS 7.4 1 vCPU +
Play with Kubernetes提供了一个免费的Kubernets体验环境,每次创建的集群最长可以使用4小时。 集群初始化 打开play-with-k8s.com,点击”ADD NEW INSTANCE”,并在新INSTANCE(名字为node1)的TERMINAL中初始化kubernetes master: $ kubeadm init --apiserver-advertise-add
本部分将删除该教程所创建的全部计算资源。 计算节点 删除所有的控制节点和 worker 节点: gcloud -q compute instances delete controller-0 controller-1 controller-2 worker-0 worker-1 worker-2 网路 删除外部负载均衡器以及网络资源: gcloud -q compute forwardin
本部分将会运行一系列的测试来验证 Kubernetes 集群的功能正常。 数据加密 本节将会验证 encrypt secret data at rest 的功能。 创建一个 Secret: kubectl create secret generic kubernetes-the-hard-way --from-literal="mykey=mydata" 查询存在 etcd 里 16 进位编码
本部分将部署 DNS 扩展,用于为集群内的应用提供服务发现。 DNS 扩展 部属 kube-dns 群集扩展: kubectl create -f https://storage.googleapis.com/kubernetes-the-hard-way/kube-dns.yaml 输出为 serviceaccount "kube-dns" created configmap "kube-dns
每个 Pod 都会从所在 Node 的 Pod CIDR 中分配一个 IP 地址。由于网络 路由 还没有配置,跨节点的 Pod 之间还无法通信。 本部分将为每个 worker 节点创建一条路由,将匹配 Pod CIDR 的网络请求路由到 Node 的内网 IP 地址上。 也可以选择 其他方法 来实现 Kubernetes 网络模型。 路由表 本节将为创建 kubernetes-the-hard-w
本部分将生成一个用于 admin 用户的 kubeconfig 文件。 注意:在生成 admin 客户端证书的目录来运行本部分的指令。 admin kubeconfig 每一个 kubeconfig 都需要一个 Kuberntes API Server 地址。为了保证高可用,这里将使用 API Servers 前端外部负载均衡器的 IP 地址。 查询 kubernetes-the-hard-way
本部分将会部署三个 Kubernetes Worker 节点。每个节点上将会安装以下服务: runc container networking plugins cri-containerd kubelet kube-proxy 事前準备 以下命令需要在所有 worker 节点上面都运行一遍,包括 worker-0, worker-1 和 worker-2。可以使用 gcloud 命令登录到 wor