主从复制可以用来做数据库的备份,故障恢复,读写分离。
本实验使用Mongodb 3.2版本,我们先查看一下mongod的帮助
[root@localhost mongodb]# mongod --help .....省略 Master/slave options (old; use replica sets instead): --master master mode --slave slave mode --source arg when slave: specify master as <server:port> --only arg when slave: specify a single database to replicate --slavedelay arg specify delay (in seconds) to be used when applying master ops to slave --autoresync automatically resync if slave data is stale .....省略
主从复制已经是过期的功能,目前使用副本集代替。主从复制和副本集的区别,可以简单的理解成主从复制不能自动故障转移,副本集中的集群在主节点宕机后,可以使用选举的策略选择一个新的主节点出来。实现自动的故障转移。
从节点可以是一个,也可以是多个。
下面我们在一台机器上,使用两个实例的方式实现主从复制。
建立数据库目录
[root@localhost data]# mkdir -p /application/mongodb/data/{master,slave}
2. 启动master实例
[root@localhost data]# mongod --dbpath=/application/mongodb/data/master/ --port 27017 --master
--master 指定该实例是主服务器 。
3. 启动从实例
[root@localhost ~]# mongod --dbpath=/application/mongodb/data/slave/ --port 27018 --slave --source 127.0.0.1:27017
--slave 指定该实例为从服务器
--source 指定主服务器是谁?
从服务器启动后,即不断的想主服务器请求同步数据
2016-01-16T10:30:10.208+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:11.210+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:12.211+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:14.196+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:15.197+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:16.199+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:17.202+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:18.204+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:19.207+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:30:20.209+0800 I REPL [replslave] syncing from host:127.0.0.1:27017
至此,主从复制已经配置完成,就是这么的简单。
对于从服务器,还有三个参数需要解释一下。
--only arg
从节点指定只复制某个特定的数据库(默认复制所有数据库)
--slavedelay arg
指定从服务器延迟多久时间再同步,此选项在主服务器发生人为操作失误时,比较有用。发现错误时,从服务器还没有同步错误。这样可以避免错误的发生。
--autoresync
如果从节点的数据与主节点发生断裂(某些oplog中的数据还未被同步,即被覆盖了),那么该选项将是从节点自动的从新从头开始同步数据库。
下面我们验证一下,数据的同步是否有效。
在主库中插入数据。
[root@localhost ~]# mongo 127.0.0.1:27017 MongoDB shell version: 3.2.1 connecting to: 127.0.0.1:27017/test > db.user.insert({"name":"jack","age":40,"job":"moive star"}) WriteResult({ "nInserted" : 1 }) > db.user.insert({"name":"vicent","age":25,"job":"teacher"}) WriteResult({ "nInserted" : 1 })
登录从数据库,检查数据是否同步
[root@localhost ~]# mongo 127.0.0.1:27018 MongoDB shell version: 3.2.1 connecting to: 127.0.0.1:27018/test > > db.user.find() { "_id" : ObjectId("5699af720102a61caffb76e8"), "name" : "jack", "age" : 40, "job" : "moive star" } { "_id" : ObjectId("5699af920102a61caffb76e9"), "name" : "vicent", "age" : 25, "job" : "teacher" }
可以看到数据已经同步啦~
默认情况下,要想在从库开启查询功能,必须告知服务器,你接受从服务器的数据(有可能同步有延迟,数据不一致,你能够接受这种不一致)
> show collections 2016-01-16T10:52:04.363+0800 E QUERY [thread1] Error: listCollections failed: { "ok" : 0, "errmsg" : "not master and slaveOk=false", "code" : 13435 } : _getErrorWithCode@src/mongo/shell/utils.js:23:13 DB.prototype._getCollectionInfosCommand@src/mongo/shell/db.js:746:1 DB.prototype.getCollectionInfos@src/mongo/shell/db.js:758:15 DB.prototype.getCollectionNames@src/mongo/shell/db.js:769:12 shellHelper.show@src/mongo/shell/utils.js:695:9 shellHelper@src/mongo/shell/utils.js:594:15 @(shellhelp2):1:1
执行rs.slaveOK
> rs.slaveOk() > show collections user >
在从服务的local数据库中有个sources集合,记录了主服务的信息
> use local switched to db local > show collections me sources startup_log > db.sources.find().pretty() { "_id" : ObjectId("5699aaafa33311c25ab793df"), "host" : "127.0.0.1:27017", "source" : "main", "syncedTo" : Timestamp(1452913003, 1) }
我们再次启动从库时,就无需指定source参数啦。
[root@localhost ~]# mongod --dbpath=/application/mongodb/data/slave/ --port 27018 --slave 2016-01-16T10:57:45.965+0800 I CONTROL [initandlisten] MongoDB starting : pid=21820 port=27018 dbpath=/application/mongodb/data/slave/ slave=1 64-bit host=localhost.localdomain 2016-01-16T10:57:45.967+0800 I CONTROL [initandlisten] db version v3.2.1 2016-01-16T10:57:45.968+0800 I CONTROL [initandlisten] git version: a14d55980c2cdc565d4704a7e3ad37e4e535c1b2 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] OpenSSL version: OpenSSL 1.0.1e-fips 11 Feb 2013 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] allocator: tcmalloc 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] modules: none 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] build environment: 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] distmod: rhel62 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] distarch: x86_64 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] target_arch: x86_64 2016-01-16T10:57:45.969+0800 I CONTROL [initandlisten] options: { net: { port: 27018 }, slave: true, storage: { dbPath: "/application/mongodb/data/slave/" } } 2016-01-16T10:57:46.010+0800 I - [initandlisten] Detected data files in /application/mongodb/data/slave/ created by the 'wiredTiger' storage engine, so setting the active storage engine to 'wiredTiger'. 2016-01-16T10:57:46.011+0800 I STORAGE [initandlisten] wiredtiger_open config: create,cache_size=1G,session_max=20000,eviction=(threads_max=4),config_base=false,statistics=(fast),log=(enabled=true,archive=true,path=journal,compressor=snappy),file_manager=(close_idle_time=100000),checkpoint=(wait=60,log_size=2GB),statistics_log=(wait=0), 2016-01-16T10:57:48.485+0800 I CONTROL [initandlisten] ** WARNING: You are running this process as the root user, which is not recommended. 2016-01-16T10:57:48.486+0800 I CONTROL [initandlisten] 2016-01-16T10:57:48.488+0800 I CONTROL [initandlisten] 2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] ** WARNING: /sys/kernel/mm/transparent_hugepage/enabled is 'always'. 2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] ** We suggest setting it to 'never' 2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] 2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] ** WARNING: /sys/kernel/mm/transparent_hugepage/defrag is 'always'. 2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] ** We suggest setting it to 'never' 2016-01-16T10:57:48.490+0800 I CONTROL [initandlisten] 2016-01-16T10:57:48.493+0800 I FTDC [initandlisten] Initializing full-time diagnostic data capture with directory '/application/mongodb/data/slave/diagnostic.data' 2016-01-16T10:57:48.494+0800 I NETWORK [initandlisten] waiting for connections on port 27018 2016-01-16T10:57:48.495+0800 I NETWORK [HostnameCanonicalizationWorker] Starting hostname canonicalization worker 2016-01-16T10:57:49.497+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:57:50.503+0800 I REPL [replslave] sleep 1 sec before next pass 2016-01-16T10:57:51.504+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:57:52.505+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:57:54.295+0800 I REPL [replslave] syncing from host:127.0.0.1:27017 2016-01-16T10:57:55.296+0800 I REPL [replslave] syncing from host:127.0.0.1:27017
主从库之间利用oplog日志进行同步。oplog存在于主库的local数据库,oplog.$main集合。
> use local switched to db local > db.oplog.$main.find({"op":"i"}).sort({"ts":-1}).pretty() { "ts" : Timestamp(1452916694, 1), "h" : NumberLong(0), "v" : 2, "op" : "i", "ns" : "test.user", "o" : { "_id" : ObjectId("5699bfd6647c735cb3a50e0c"), "name" : "zhangcong" } } { "ts" : Timestamp(1452913156, 1), "h" : NumberLong(0), "v" : 2, "op" : "i", "ns" : "test.user", "o" : { "_id" : ObjectId("5699b204358c4672cad1cc6e"), "name" : "zhangdd", "age" : 30, "job" : "teacher" } } { "ts" : Timestamp(1452912530, 1), "h" : NumberLong(0), "v" : 2, "op" : "i", "ns" : "test.user", "o" : { "_id" : ObjectId("5699af920102a61caffb76e9"), "name" : "vicent", "age" : 25, "job" : "teacher" } } { "ts" : Timestamp(1452912498, 2), "h" : NumberLong(0), "v" : 2, "op" : "i", "ns" : "test.user", "o" : { "_id" : ObjectId("5699af720102a61caffb76e8"), "name" : "jack", "age" : 40, "job" : "moive star" } }
该集合属于固定集合。在一定时间后,旧日志会被覆盖。如果日志已经被覆盖,从库还没有来的及同步。那么从库就无法再同步数据了。只有使用--autoresync让其重新同步数据。
备注:命令行参数指定的参数值,可以写到config文件中,启动时使用
mongod --config /path/to/file.conf
mongod 2.4以后的版本使用YAML的格式来编写配置文件。关于主从复制的配置如何在配置文件中声明,官方文件没有给出方法。试了几种写法都不正确。 因为mongodb使用副本集代替了主从复制,从而可能配置文件不再支持主从复制。
感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!
MySQL主从复制 MySQL主从复制原理过程 主数据库配置步骤 从数据库配置步骤 MySQL主从复制生产标准实践过程 MySQL主从同步配置步骤 定义服务器角色 数据库环境准备 主库上需要执行的操作 编辑主库的配置文件 查看开启结果 建立同步账号密码 从库上需要执行的操作 将全备导入到数据库 登陆从库执行change master语句 开启同步 查看是否同步成功语句 一些常用语句 MySQL主从
本文向大家介绍MongoDB单表数据的导出和恢复实例讲解,包括了MongoDB单表数据的导出和恢复实例讲解的使用技巧和注意事项,需要的朋友参考一下 MongoDB 是一个跨平台的,面向文档的数据库,提供高性能,高可用性和可扩展性方便。 MongoDB 工作在收集和文件的概念。 数据库 数据库是一个物理容器集合。每个数据库都有自己的一套文件系统上的文件。一个单一的MongoDB服务器通常有多个数据库
本文向大家介绍讲一下redis的主从复制怎么做的?相关面试题,主要包含被问及讲一下redis的主从复制怎么做的?时的应答技巧和注意事项,需要的朋友参考一下 考察点: 第一阶段:与master建立连接 第二阶段:向master发起同步请求(SYNC) 第三阶段:接受master发来的RDB数据 第四阶段:载入RDB文件
本文向大家介绍详解mongoDB主从复制搭建详细过程,包括了详解mongoDB主从复制搭建详细过程的使用技巧和注意事项,需要的朋友参考一下 详解mongoDB主从复制搭建详细过程 实验目的搭建mongoDB主从复制 mongodb的安装 1: 下载mongodb www.mongodb.org 下载最新的stable版 查看自己服务器 适合哪个种方式下载(wget 不可以的 可以用下面方式下载)
本文向大家介绍MongoDB的Master-Slave主从模式配置及主从复制要点解析,包括了MongoDB的Master-Slave主从模式配置及主从复制要点解析的使用技巧和注意事项,需要的朋友参考一下 主从配置 mongodb的master-slave模式配置方式如下 1.keyFile 生成key_file 将mongo_key 分别置于master 和 slave mongodb user可
本文向大家介绍MongoDB入门教程之主从复制配置详解,包括了MongoDB入门教程之主从复制配置详解的使用技巧和注意事项,需要的朋友参考一下 从这一篇开始我们主要讨论mongodb的部署技术。 我们知道sql server能够做到读写分离,双机热备份和集群部署,当然mongodb也能做到,实际应用中我们不希望数据库采用单点部署, 如果碰到数据库宕机或者被毁灭性破坏那是多么的糟糕。