MySql更新优化策略
模拟场景一:
给数据库中的一张表的结构调整,添加几个字段,后面对之前的数据进行刷新,刷新的内容是对其中的一个已有字段url进行匹配,然后更新新加的字段type和typeid。
后来就写了个shell脚本来刷数据,结果运行shell脚本后我就懵了,怎么这么慢~~~
情景再现
`uin` bigint(20) unsigned NOT NULL DEFAULT 0,
`id` int(11) unsigned NOT NULL DEFAULT 0,
`url` varchar(255) NOT NULL DEFAULT ”,
`type` int(11) unsigned NOT NULL DEFAULT 0,
`typeid` varchar(64) NOT NULL DEFAULT ”,
……
KEY `uin_id` (`uin`,`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
表结构大概是上面这样的(省略了好多字段),表中只有一个联合索引uin_id,而我在更新的时候是下面的思路:
首先根据一个id范围获取到一定数量的数据
遍历所有的数据,对每一条数据进行更新
#首先对数据进行处理,匹配获取type和typeid
按照上面的思路搞了之后,发现更新特别的慢,平均每秒钟3~5个左右,我也是醉了,我看看要更新的数据,总共有32w+条,这样更新下来大概需要24h+,也就是1天还要多,额~~哭了,想想肯定是哪里出问题了。
发现问题
首先我想到的是是不是因为只有一个进程在更新,导致很慢,我启动了5个进程,将id分段了,就像下面这样
./update_url.sh 10000 20001 &
./update_url.sh 20001 30001 &
./update_url.sh 30002 40002 &
./update_url.sh 40003 50003 &
运行之后发现还是那样,速度没有提升多少,还是每秒钟更新3~5个左右,想想也是啊,时间不可能花费在插入数据之前的那些步骤(匹配、组装sql语句、。。。),应该是插入的时候有问题
再来看看我的sql语句
这里,试着在命令行执行了下,结果如下
Empty set (0.18 sec)
竟然花了0.18秒,这个时候我猜恍然大悟,联合索引我没有使用到,联合索引生效的条件是——必须要有左边的字段,用explain验证下,果然是这样:
+————-+——+—————+——+———+——+——–+————-+
| table | type | possible_keys | key | key_len | ref | rows | Extra |
+————-+——+—————+——+———+——+——–+————-+
| funkSpeed | ALL | NULL | NULL | NULL | NULL | 324746 | Using where |
+————-+——+—————+——+———+——+——–+————-+
1 row in set (0.00 sec)
然后使用联合索引:
+————+———-+
| uin | id |
+————+———-+
| 10023 | 162 |
+————+———-+
1 row in set (0.00 sec)
mysql> explain select uin,id from funkSpeed where uin=10023 and id=162;
+————-+——+—————+———-+———+————-+——+————-+
| table | type | possible_keys | key | key_len | ref | rows | Extra |
+————-+——+—————+———-+———+————-+——+————-+
| funkSpeed | ref | uin_id | uin_id | 12 | const,const | 4 | Using index |
+————-+——+—————+———-+———+————-+——+————-+
1 row in set (0.00 sec)
可以看到几乎是秒查,这个时候基本可以断定问题是出现在索引这个地方了
我select的时候次数比较少,每两个select之间id相差10000,所以这里可以忽略掉,而且这里没办法优化,除非在id上面添加索引。
问题发生在
这里在更新的时候也是会用到查询的,我的mysql版本是5.5,不能explain update,不然肯定可以验证我所说的,这里要更新32w+条数据,每条数据都会去更新,每条数据0.2s左右,这太吓人了~~
解决问题
问题找到了,解决起来就容易多了~~
select的时候加了一个字段uin,改为下面这样
然后更新的时候使用
这样一来索引就是用上了。
三下五除二改好了代码,试着启动了一个进程,看看效果如何,果然,效果提升的不是一点点,平均30+次/s,这样大概3个小时左右就可以完成所有的更新了。
模拟场景二:
需求6个表 pid字段 写到对应的brand_id字段
问题sql背景:项目有6个表的要根据pid字段要写入对应的brand_id字段。但是这个其中有两个表是千万级别的。我的worker运行之后,线上的mysql主从同步立刻延迟了!运行了一个多小时之后,居然延迟到了40分钟,而且只更新了十几万行数据。问题sql如下:
<update id=”updateBrandIdByPid” parameterClass=”com.jd.chat.worker.domain.param.UpdateBrandIdParam”>
UPDATE $tableName$
SET brand_id = #newBrandId#
WHERE pid = #pid#
AND brand_id = 0
</update>
项目组的mysql专家帮我分析了下,因为pid字段没有索引,mysql引擎要逐行扫描出与传入的pid值相等的列,然后更新数据,也就是要扫描完1000W+行磁盘数据才能执行完这个sql。更严重的是,这个千万级的表里面有多少个不同的pid,我就要执行多少个这样的sql。
同事给我的建议的根据id字段进行sql代码层次的纵向分表。每次更新1000行的数据,这样mysql引擎就不用每次在扫全表了,数据库压力是之前的万分之一。而且id作为主键,是有索引的有索引,有索引能大大优化查询性能,优化后的sql如下:
<update id=”updateBrandIdByPid” parameterClass=”com.jd.chat.worker.domain.param.UpdateBrandIdParam”>
UPDATE $tableName$
SET brand_id = #newBrandId#
WHERE pid = #pid#
AND brand_id = 0
AND id BETWEEN #startNum# AND #endNum#
</update>
仅仅用了id限区间的语句,将一个千万级的大表代码层次上进行纵向切割。重新上线worker后,mysql主从没有任何延迟!而且经过监视,短短10分钟就更新了十几万数据,效率是之前的6倍!更重要的是数据库负载均衡,应用健康运行。
以上通过两个问题模拟场景再现分析MySql更新优化策略,希望对大家在数据库方面有所帮助。