准备工作 在所有安装mgr组件的节点上执行如下操作: 安装zabbix_sender: yum install -y zabbix-sender 开启zabbix模块: ceph mgr module enable zabbix 2.配置zabbix连接信息,格式为ceph zabbix config-set <key> <value>形式: 配置zabbix-server或zabbi
微信公众号:运维开发故事,作者:wanger 使用zabbix有多种方式可以监控ceph集群,这里依次介绍一下,本文只是提供监控ceph的思路或者方法,不涉及详细的配置 1.使用agent2监控ceph 从zabbix5.0开始,zabbix agent2开始支持对ceph的监控,ceph提供了Restful的模块,利用restful模块调用命令获取ceph的相关状态,restful模块的监听端口
部署Ceph集群 安装前准备 Ceph版本来源介绍 Ceph 社区最新版本是 14,而 Ceph 12 是市面用的最广的稳定版本。 第一个 Ceph 版本是 0.1 ,要回溯到 2008 年 1 月。多年来,版本号方案一直没变,直到 2015 年 4 月 0.94.1 ( Hammer 的第一个修正版)发布后,为了避免 0.99 (以及 0.100 或 1.00 ?),制定了新策略。 x.0.z
应用背景: 网上监控ceph集群的资料不算多,git上有个开源的监控项目,是跟zabbix结合的,主要包含一个shell写的脚本和zabbix监控模板,拿来测试小记一下。 开源地址: https://github.com/BodihTao/ceph-zabbix 测试环境: 一台ceph集群中的ceph-monitor主机(CentOS 7.2) 一台Zabbix Server(CentO
wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add - echo deb http://download.ceph.com/debian-{ceph-stable-release}/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d
第六课 ceph基础学习-Ceph的管理监控和故障排查 第一节 dashboard安装和使用 yum isntall ceph-mgr-dashboard # 启动dashboard ceph mgr module enable dashboard ceph mgr module enable dashboard --force # 看下启动状态 ceph mgr module ls |les
Ceph存储介绍 为什么要用Ceph Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域
安装ceph 官方文档 0. 部署前的准备 在部署之前需要准备好三台CentOS主机,我这里使用的是CentOS7.5,并将系统内核升级到4.x长期支持版本,相关的配置信息如下: 节点主机名和IP信息 local-node-1: 10.0.0.1 local-node-2: 10.0.0.2 local-node-3: 10.0.0.3 配置hosts解析三台节点的主机名,并将三台节点配置为无密码
ceph命令 General usage: ============== usage: ceph [-h] [-c CEPHCONF] [-i INPUT_FILE] [-o OUTPUT_FILE] [--setuser SETUSER] [--setgroup SETGROUP] [--id CLIENT_ID] [--name CLIEN
Ceph 文件系统( Ceph FS )是个 POSIX 兼容的文件系统,它使用 Ceph 存储集群来存储数据。 Ceph 文件系统与 Ceph 块设备、同时提供 S3 和 Swift API 的 Ceph 对象存储、或者原生库( librados )一样,都使用着相同的 Ceph 存储集群系统。 Important 当前, CephFS 还缺乏健壮得像 ‘fsck’ 这样的检查和修复功能。存储重
所有 Ceph 部署都始于 Ceph 存储集群。基于 RADOS 的 Ceph 对象存储集群包括两类守护进程:term:对象存储守护进程( OSD )把存储节点上的数据存储为对象; term:Ceph 监视器( MON )维护集群运行图的主拷贝。一个 Ceph 集群可以包含数千个存储节点,最简系统至少需要一个监视器和两个 OSD 才能做到数据复制。 Ceph 文件系统、 Ceph 对象存储、和 C
Ceph 存储集群提供了消息传递层协议,用于客户端与 Ceph 监视器和 OSD 交互, librados 以库形式为 Ceph 客户端提供了这个功能。所有 Ceph 客户端可以用 librados 或 librados 里封装的相同功能和对象存储交互,例如 librbd 和 libcephfs 就利用了此功能。你可以用 librados 直接和 Ceph 交互(如和 Ceph 兼容的应用程序、你
Tip ceph fs new 命令是从 Ceph 0.84 起引入的,在此之前,无需手动创建文件系统,名为 data 和 metadata 的存储池默认即存在。 Ceph 命令行现在有了创建和删除文件系统的命令,但是当前一套集群只能有一个文件系统存在。 一个 Ceph 文件系统需要至少两个 RADOS 存储池,一个用于数据、一个用于元数据。配置这些存储池时需考虑: 为元数据存储池设置较高的副本水
本指南说明了如何手动安装 Ceph 软件包,此方法只适用于那些没采用部署工具(如 ceph-deploy 、 chef 、 juju 等)的用户。 Tip 你也可以用 ceph-deploy 安装 Ceph 软件包,也许它更方便,因为只需一个命令就可以把 ceph 安装到多台主机。 用 APT 安装 只要把正式版或开发版软件包源加入了 APT ,你就可以更新 APT 数据库并安装 Ceph 了:
提纲ceph-conf -c conffile –list-all-sections ceph-conf -c conffile -L ceph-conf -c conffile -l prefix ceph-conf key -s section1 ... ceph-conf [-s section ] [-r] –lookup key ceph-conf [-s section ] key 描