MySQL复制架构的搭建及配置过程
一主多从复制架构
在实际应用场景中,MySQL复制90%以上都是一个Master复制到一个或者多个Slave的架构模式。
在主库读取请求压力非常大的场景下,可以通过配置一主多从复制架构实现读写分离,把大量的对实时性要求不是特别高的读请求通过负载均衡分部到多个从库上(对于实时性要求很高的读请求可以让从主库去读),降低主库的读取压力,如下图所示。
缺点:
- master不能停机,停机就不能接收写请求
- slave过多会出现延迟
由于master需要进行常规维护停机了,那么必须要把一个slave提成master,选哪一个是一个问题?
某一个slave提成master了,就存在当前master和之前的master数据不一致的情况,并且之前master并没有保存当前master节点的binlog文件和pos位置。
多主复制架构
多主复制架构解决了一主多从复制架构中master的单点故障问题。
可以配合一个第三方的工具,比如keepalived轻松做到IP的漂移,这样master停机维护也不会影响写操作。
级联复制架构
一主多从中如果slave过多,会导致主库的I/O压力和网络压力会随着从库的增加而增长,因为每个从库都会在主库上有一个独立的BINLOG Dump线程来发送事件,而级联复制架构解决了一主多从场景下的,主库额外的I/O和网络压力。
如下图所示。
对比一主多从的架构,级联复制仅仅是从主库Master复制到少量的从库,其他从库再从这少量的从库中复制数据,这样就减轻了主库Master的压力。
当然也有缺点:MySQL的传统复制是异步的,级联复制场景下主库的数据是经历两次复制才到达其他从库中,期间的延迟要比一主多从复制场景下只经历一次复制的还大。
可以通过在二级slave上选择表引擎为BLACKHOLE来降低级联复制的延迟。顾名思义,BLACKHOLE引擎是一个“黑洞”引擎,写入BLACKHOLE表的数据并不会写会到磁盘上,BLACKHOLE表永远都是空表,INSERT、UPDATE、DELETE操作仅仅在BINLOG中记录事件。
下面演示下BLACKHOLE引擎:
-> `id` int NOT NULL AUTO_INCREMENT PRIMARY KEY,
-> `name` varchar(255) NOT NULL DEFAULT ”,
-> `age` tinyint unsigned NOT NULL DEFAULT 0
-> )ENGINE=BLACKHOLE charset=utf8mb4;
Query OK, 0 rows affected (0.00 sec)
mysql> INSERT INTO `user` (`name`,`age`) values(“itbsl”, “26”);
Query OK, 1 row affected (0.00 sec)
mysql> select * from user;
Empty set (0.00 sec)
可以看到,存储引擎为BLACKHOLE的user表里没有数据。
多主与级联复制结合架构
结合多主与级联复制架构,这样解决了单点master的问题,解决了slave级联延迟的问题。
多主复制架构的搭建
主机规划:
- master1:docker,端口3314
- master2:docker,端口3315
master1的配置
配置文件my.cnf:
[mysqld]
character_set_server=utf8
init_connect=’SET NAMES utf8′
symbolic-links=0
lower_case_table_names=1
server-id=1403314
log-bin=mysql-bin
binlog-format=ROW
auto_increment_increment=2 # 几个主库,这里就配几
auto_increment_offset=1 # 每个主库的偏移量需要不一致
gtid_mode=ON
enforce-gtid-consistency=true
binlog-do-db=order # 要同步的数据库
启动docker:
添加用于复制的用户并授权:
Query OK, 0 rows affected, 1 warning (0.01 sec)
mysql> FLUSH PRIVILEGES;
Query OK, 0 rows affected (0.01 sec)
开启同步master1(这里的user来自master2):
Query OK, 0 rows affected, 2 warnings (0.03 sec)
mysql> start slave;
Query OK, 0 rows affected (0.00 sec)
master2的配置
master2的配置与master1类似。
主要区别在于my.cnf中有一个属性需要不一致:
测试:
在master2创建表,并添加数据:
Query OK, 0 rows affected (0.01 sec)
mysql> insert into t_order(name) values(“A”);
Query OK, 1 row affected (0.01 sec)
mysql> insert into t_order(name) values(“B”);
Query OK, 1 row affected (0.00 sec)
mysql> select * from t_order;
+—-+——+
| id | name |
| 2 | A |
| 4 | B |
2 rows in set (0.00 sec)
可以发现master2中id的步长为2,且从2开始自增。
然后在master1查询数据,并添加:
+—-+——+
| id | name |
| 2 | A |
| 4 | B |
2 rows in set (0.00 sec)
mysql> insert into t_order(name) values(“E”);
Query OK, 1 row affected (0.00 sec)
| 5 | E |
3 rows in set (0.00 sec)
可以发现master1中id的步长为2,且从1开始自增,再去master2中查询能发现id为5的数据,说明主主复制配置没有问题。
为什么两个主中id自增的偏移量要不一致呢?当两个主同时接受到插入请求时就能保证id不冲突,其实这样只能保证插入数据不冲突,无法保证删除和修改导致的数据不一致。
所以在实际的应用场景中,只能暴露一个主给客户端才能保证数据的一致性。
MySQL高可用的搭建
这里借助keepalived来对上面的多主复制架构改造来实现MySQL的高可用。
keepalived的安装:
keepalived.conf
! Configuration File for keepalived
#简单的头部,这里主要可以做邮件通知报警等的设置,此处就暂不配置了;
global_defs {
#notificationd LVS_DEVEL
}
#预先定义一个脚本,方便后面调用,也可以定义多个,方便选择;
vrrp_script chk_haproxy {
script “/etc/keepalived/chkmysql.sh” #具体脚本路径
interval 2 #脚本循环运行间隔
}
#VRRP虚拟路由冗余协议配置
vrrp_instance VI_1 { #VI_1 是自定义的名称;
state BACKUP #MASTER表示是一台主设备,BACKUP表示为备用设备【我们这里因为设置为开启不抢占,所以都设置为备用】
nopreempt #开启不抢占
interface eth0 #指定VIP需要绑定的物理网卡
virtual_router_id 11 #VRID虚拟路由标识,也叫做分组名称,该组内的设备需要相同
priority 130 #定义这台设备的优先级 1-254;开启了不抢占,所以此处优先级必须高于另一台
advert_int 1 #生存检测时的组播信息发送间隔,组内一致
authentication { #设置验证信息,组内一致
auth_type PASS #有PASS 和 AH 两种,常用 PASS
auth_pass asd #密码
}
virtual_ipaddress {
172.23.252.200 #指定VIP地址,组内一致,可以设置多个IP
}
track_script { #使用在这个域中使用预先定义的脚本,上面定义的
chk_haproxy
}
#notify_backup “/etc/init.d/haproxy restart” #表示当切换到backup状态时,要执行的脚本
#notify_fault “/etc/init.d/haproxy stop” #故障时执行的脚本
}
/etc/keepalived/chkmysql.sh
#!/bin/bash
mysql -uroot -proot -P 3314 -e “show status;” > /dev/null 2>&1
if [ $? == 0 ];
then
echo “$host mysql login successfully”
exit 0
else
echo “$host login failed”
killall keepalived
exit 2
fi
到此这篇关于MySQL复制架构的文章就介绍到这了,更多相关MySQL复制架构内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!