Rubin's Blog

  • 首页
  • 关于作者
  • 隐私政策
享受恬静与美好~~~
分享生活的点点滴滴~~~
  1. 首页
  2. MySQL
  3. 正文

MySQL之性能优化

2021年 10月 27日 751点热度 0人点赞 0条评论

据库优化维度有四个:硬件升级、系统配置、表结构设计、SQL语句及索引。

优化选择:

  • 优化成本:硬件升级>系统配置>表结构设计>SQL语句及索引
  • 优化效果:硬件升级<系统配置<表结构设计<SQL语句及索引

系统配置优化

保证从内存中读取数据

MySQL会在内存中保存一定的数据,通过LRU算法将不常访问的数据保存在硬盘文件中。所以尽可能的扩大内存中的数据量,将数据保存在内存中,从内存中读取数据,可以提升MySQL性能。

扩大innodb_buffer_pool_size,能够全然从内存中读取数据。最大限度降低磁盘操作。

确定innodb_buffer_pool_size 足够大的方法:

mysql> show global status like 'innodb_buffer_pool_pages_%';
+----------------------------------+-------+
| Variable_name          | Value |
+----------------------------------+-------+
| Innodb_buffer_pool_pages_data  | 8190 |
| Innodb_buffer_pool_pages_dirty  | 0   |
| Innodb_buffer_pool_pages_flushed | 12646 |
| Innodb_buffer_pool_pages_free  | 0   |  0 表示已经被用光
| Innodb_buffer_pool_pages_misc  | 1   |
| Innodb_buffer_pool_pages_total  | 8191 |
+----------------------------------+-------+

innodb_buffer_pool_size默认为128M,理论上可以扩大到内存的3/4或4/5。

修改 my.cnf

innodb_buffer_pool_size = 750M

如果是专用的MySQL Server可以禁用SWAP

# 查看swap
cat /proc/swaps 
Filename                Type      Size  Used  Priority
/dev/sda2                partition    1048572 0    -1
# 关闭所有交换设备和文件.
swapoff -a

数据预热

默认情况,仅仅有某条数据被读取一次,才会缓存在 innodb_buffer_pool。所以,数据库刚刚启动,须要进行数据预热,将磁盘上的全部数据缓存到内存中。

对于InnoDB数据库,进行数据预热的脚本是:

SELECT DISTINCT CONCAT('SELECT ', ndxcollist, ' FROM ', db, '.', tb, ' ORDER BY ', ndxcollist,
                       ';') SelectQueryToLoadCache
FROM (
         SELECT ENGINE,
                table_schema                                    db,
                table_name                                      tb,
                index_name,
                GROUP_CONCAT(column_name ORDER BY seq_in_index) ndxcollist
         FROM (
                  SELECT B.ENGINE,
                         A.table_schema,
                         A.table_name,
                         A.index_name,
                         A.column_name,
                         A.seq_in_index
                  FROM information_schema.statistics A
                           INNER JOIN (SELECT ENGINE, table_schema, table_name
                                       FROM information_schema.TABLES
                                       WHERE ENGINE = 'InnoDB') B USING (table_schema, table_name)
                  WHERE B.table_schema NOT IN ('information_schema', 'mysql')
                  ORDER BY table_schema,
                           table_name,
                           index_name,
                           seq_in_index
              ) A
         GROUP BY table_schema,
                  table_name,
                  index_name
     ) AA
ORDER BY db,
         tb;

将该脚本保存为:loadtomem.sql。

执行命令:

mysql -uroot -proot -AN < /root/loadtomem.sql > /root/loadtomem.sql

在需要数据预热时,比如重启数据库。执行命令:

mysql -uroot < /root/loadtomem.sql > /dev/null 2>&1 

降低磁盘写入次数

  • 增大redolog,减少落盘次数

innodb_log_file_size 设置为 0.25 * innodb_buffer_pool_size

  • 通用查询日志、慢查询日志可以不开 ,binlog开
  • 写redolog策略 innodb_flush_log_at_trx_commit设置为0或2

如果不涉及非常高的安全性 (金融系统),或者基础架构足够安全,或者事务都非常小,都能够用 0或者 2 来减少磁盘操作。

提高磁盘读写性能

使用SSD或者内存磁盘。

表结构设计优化

  • 设计中间表:设计中间表,一般针对于统计分析功能,或者实时性不高的需求(OLTP、OLAP)
  • 设计冗余字段:为减少关联查询,创建合理的冗余字段(创建冗余字段还需要注意数据一致性问题)
  • 拆表:对于字段太多的大表,考虑拆表(比如一个表有100多个字段);对于表中经常不被使用的字段或者存储数据比较多的字段,考虑拆表
  • 主键优化:每张表建议都要有一个主键(主键索引),而且主键类型最好是int类型,建议自增主键(不考虑分布式系统的情况下 雪花算法)
  • 字段的设计:数据库中的表越小,在它上面执行的查询也就会越快。因此,在创建表的时候,为了获得更好的性能,我们可以将表中字段的宽度设得尽可能小。尽量把字段设置为NOT NULL,这样在将来执行查询的时候,数据库不用去比较NULL值。对于某些文本字段,例如“省份”或者“性别”,我们可以将它们定义为ENUM类型。因为在MySQL中,ENUM类型被当作数值型数据来处理,而数值型数据被处理起来的速度要比文本类型快得多。这样,我们又可以提高数据库的性能。能用数字的用数值类型

SQL语句及索引优化

设计一个表:tbiguser

CREATE TABLE `tbiguser` (
  `id` bigint NOT NULL AUTO_INCREMENT COMMENT '主键',
  `nickname` varchar(255) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '昵称',
  `loginname` varchar(255) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '用户名',
  `age` int NOT NULL DEFAULT '0' COMMENT '年龄',
  `sex` tinyint unsigned NOT NULL DEFAULT '0' COMMENT '性别 0 女 1 男',
  `status` tinyint unsigned NOT NULL DEFAULT '0' COMMENT '状态 0 有效 1 失效',
  `address` varchar(255) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '地址',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;

向该表中写入10000000条数据

package com.rubin.mvn.demos.jdbc;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.SQLException;
import java.util.Arrays;
import java.util.Date;
import java.util.List;
import java.util.Random;

public class BatchInsertDemo {

    public static Random random = new Random();
    public static List<String> addresses = Arrays.asList("beijing", "tianjin", "shanghai", "shangdong", "guangzhou", "xianggang", "hebei", "shanxi", "gansu", "zhejiang", "hangzhou", "chongqi", "aomen", "fujian", "jiangsu", "shenzhen", "baoding", "xizang", "xinjiang");
    public static List<String> addresses1 = Arrays.asList("xizang", "xinjiang", "menggu");
    public static List<String> names = Arrays.asList("zhaoyun", "zhangfei", "diaochan");

    public static void main(String[] args) throws ClassNotFoundException, SQLException {
        String url = "jdbc:mysql://127.0.0.1:3306/rubin?characterEncoding=utf8&serverTimezone=Asia/Shanghai&useSSL=false&allowPublicKeyRetrieval=true";
        String name = "com.mysql.jdbc.Driver";
        String username = "root";
        String password = "123456";
        Connection conn = null;
        Class.forName(name);
        conn = DriverManager.getConnection(url, username, password);
        if (conn != null) {
            System.out.println("获取连接成功");
            insertBatch4Tbiguser(conn);
//            insertBatch4User(conn, "tuser1", false);
//            insertBatch4User(conn, "tuser2", true);
        } else {
            System.out.println("获取连接失败");
        }
    }

    private static void insertBatch4User(Connection conn, String tableName, boolean needClose) {
        Long begin = new Date().getTime();
        String prefix = "INSERT INTO " + tableName + " (`name`, `address`) VALUES ";
        try {
            StringBuffer suffix = new StringBuffer();
            conn.setAutoCommit(false);
            PreparedStatement pst = conn.prepareStatement("select * from tuser1");
            for (int i = 1; i <= 20; i++) {
                suffix.append("('");
                suffix.append(names.get(random.nextInt(names.size())));
                suffix.append("','");
                suffix.append(addresses1.get(random.nextInt(addresses1.size())));
                suffix.append("'),");
            }
            String sql = prefix + suffix.substring(0, suffix.length() - 1);
            pst.addBatch(sql);
            pst.executeBatch();
            conn.commit();
            pst.close();
            if (needClose) {
                conn.close();
            }
        } catch (SQLException e) {
            e.printStackTrace();
        }
        Long end = new Date().getTime();
        System.out.println("20条数据插入花费时间 : " + (end - begin) / 1000 + " s");
        System.out.println("插入完成");
    }

    private static void insertBatch4Tbiguser(Connection conn) {
        Long begin = new Date().getTime();
        String prefix = "INSERT INTO tbiguser (`nickname`,`loginname`,`age`,`sex`,`status`,`address`) VALUES ";
        try {
            StringBuffer suffix = new StringBuffer();
            conn.setAutoCommit(false);
            PreparedStatement pst = conn.prepareStatement("select * from tbiguser");
            for (int i = 1; i <= 200; i++) {
                suffix.append("('zy");
                suffix.append(i);
                suffix.append("','zhaoyun");
                suffix.append(i);
                suffix.append("',23,1,1,'");
                suffix.append(addresses.get(random.nextInt(addresses.size())));
                suffix.append("'),");
                if (i % 100000 == 0) {
                    String sql = prefix + suffix.substring(0, suffix.length() - 1);
                    pst.addBatch(sql);
                    pst.executeBatch();
                    conn.commit();
                    suffix = new StringBuffer();
                }
            }
            pst.close();
            conn.close();
        } catch (SQLException e) {
            e.printStackTrace();
        }
        Long end = new Date().getTime();
        System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
        System.out.println("插入完成");
    }

}
<dependency>
     <groupId>mysql</groupId>
     <artifactId>mysql-connector-java</artifactId>
     <version>8.0.26</version>
</dependency>

执行程序可以插入10000000条数据

mysql> select count(*) from tbiguser;
+----------+
| count(*) |
+----------+
| 10000000 |
+----------+

使用【慢查询日志】功能,去获取所有查询时间比较长的SQL语句 3秒-5秒

mysql> explain select * from tbiguser where loginname='zhaoyun1' and
 nickname='zy1';
+----+-------------+----------+------+---------------+--------------+---------+-
------+------+------------------------------------+
| id | select_type | table  | type | possible_keys | key     | key_len |
ref  | rows | Extra               |
+----+-------------+----------+------+---------------+--------------+---------+-
------+------+------------------------------------+
|  1 | SIMPLE   | tbiguser | ref | idx_nickname | idx_nickname | 768   |
const |   1 | Using index condition; Using where |
+----+-------------+----------+------+---------------+--------------+---------+-
------+------+------------------------------------+
1 row in set (0.00 sec)
  • type列,连接类型。一个好的SQL语句至少要达到range级别。杜绝出现all级别
  • key列,使用到的索引名。如果没有选择索引,值是NULL。可以采取强制索引方式
  • key_len列,索引长度
  • rows列,扫描行数。该值是个预估值
  • extra列,详细说明。注意,常见的不太友好的值,如下:Using filesort,Using temporary

基于以上性能参考项,我们SQL语句和索引的优化建议如下:

  • SQL语句中IN包含的值不应过多:MySQL对于IN做了相应的优化,即将IN中的常量全部存储在一个数组里面,而且这个数组是排好序的。但是如果数值较多,产生的消耗也是比较大的
  • SELECT语句务必指明字段名称:SELECT * 增加很多不必要的消耗(CPU、IO、内存、网络带宽);减少了使用覆盖索引的可能性;当表结构发生改变时,前端也需要更新
  • 当只需要一条数据的时候,使用limit 1:limit 是可以停止全表扫描的
  • 排序字段加索引
  • 如果限制条件中其他字段没有索引,尽量少用or:or两边的字段中,如果有一个不是索引字段,会造成该查询不走索引的情况
  • 尽量用union all代替union:union和union all的差异主要是前者需要将结果集合并后再进行唯一性过滤操作,这就会涉及到排序,增加大量的CPU运算,加大资源消耗及延迟。当然,union all的前提条件是两个结果集没有重复数据
  • 不使用ORDER BY RAND():ORDER BY RAND() 不走索引
  • 区分in和exists、not in和not exists:区分in和exists主要是造成了驱动顺序的改变(这是性能变化的关键),如果是exists,那么以外层表为驱动表,先被访问,如果是in,那么先执行子查询。所以in适合于外表大而内表小的情况;exists适合于外表小而内表大的情况。关于not in和not exists,推荐使用not exists,不仅仅是效率问题,not in可能存在逻辑问题

如何高效的写出一个替代not exists的SQL语句?

原SQL语句:

select colname … from A表 where a.id not in (select b.id from B表)

高效的SQL语句:

select colname … from A表 Left join B表 on where a.id = b.id where b.id is null
  • 使用合理的分页方式以提高分页的效率:分页使用 limit m,n ,尽量让m小。利用主键的定位,可以减小m的值(select * from user where id>= (select id from user limit 10000,1) limit 100;)
  • 分段查询:一些用户选择页面中,可能一些用户选择的范围过大,造成查询缓慢。主要的原因是扫描行数过多。这个时候可以通过程序,分段进行查询,循环遍历,将结果合并处理进行展示
  • 不建议使用%前缀模糊查询:例如LIKE “%name”或者LIKE “%name%”,这种查询会导致索引失效而进行全表扫描。但是可以使用LIKE “name%”
  • 避免在where子句中对字段进行表达式操作:select user_id,user_project from user_base where age*2=36; -> select user_id,user_project from user_base where age=36/2;
  • 避免隐式类型转换:where子句中出现column字段的类型和传入的参数类型不一致的时候发生的类型转换,建议先确定where中的参数类型
  • 对于联合索引来说,要遵守最左前缀法则:举列来说索引含有字段id、name、school,可以直接用id字段,也可以id、name这样的顺序,但是name;school都无法使用这个索引。所以在创建联合索引的时候一定要注意索引字段顺序,常用的查询字段放在最前面
  • 必要时可以使用force index来强制查询走某个索引:有的时候MySQL优化器采取它认为合适的索引来检索SQL语句,但是可能它所采用的索引并不是我们想要的。这时就可以采用force index来强制优化器使用我们制定的索引
  • 注意范围查询语句:对于联合索引来说,如果存在范围查询,比如between、>、<等条件时,会造成后面的索引字段失效
  • 使用JOIN优化:LEFT JOIN A表为驱动表,INNER JOIN MySQL会自动找出那个数据少的表作用驱动表,RIGHT JOIN B表为驱动表。被驱动表的索引字段作为on的限制字段

MySQL开发规约

我们知道各大公司都有自己的MySQL开发规约,我们以阿里为例,阿里的MySQL开发规约如下:

建表规约

  • 【强制】表达是与否概念的字段,必须使用 is_xxx 的方式命名,数据类型是 unsigned tinyint (1 表示是,0 表示否)

说明:任何字段如果为非负数,必须是 unsigned。

注意:POJO 类中的任何布尔类型的变量,都不要加 is 前缀,所以,需要在设置从 is_xxx 到 Xxx 的映射关系。数据库表示是与否的值,使用 tinyint 类型,坚持 is_xxx 的命名方式是为了明确其取值含义与取值范围。

正例:表达逻辑删除的字段名 is_deleted,1 表示删除,0 表示未删除。

  • 【强制】表名、字段名必须使用小写字母或数字,禁止出现数字开头,禁止两个下划线中间只出现数字。数据库字段名的修改代价很大,因为无法进行预发布,所以字段名称需要慎重考虑

说明:MySQL 在 Windows 下不区分大小写,但在 Linux 下默认是区分大小写。因此,数据库名、表名、字段名,都不允许出现任何大写字母,避免节外生枝。

正例:aliyun_admin,rdc_config,level3_name

反例:AliyunAdmin,rdcConfig,level_3_name

  • 【强制】表名不使用复数名词

说明:表名应该仅仅表示表里面的实体内容,不应该表示实体数量,对应于 DO 类名也是单数形式,符合表达习惯。

  • 【强制】禁用保留字,如 desc、range、match、delayed 等,请参考 MySQL 官方保留字
  • 【强制】主键索引名为 pk字段名;唯一索引名为 uk字段名;普通索引名则为 idx_字段名

说明:pk_ 即 primary key;uk_ 即 unique key;idx_ 即 index 的简称

  • 【强制】小数类型为 decimal,禁止使用 float 和 double

说明:float 和 double 在存储的时候,存在精度损失的问题,很可能在值的比较时,得到不正确的结果。如果存储的数据范围超过 decimal 的范围,建议将数据拆成整数和小数分开存储。

  • 【强制】如果存储的字符串长度几乎相等,使用 char 定长字符串类型
  • 【强制】varchar 是可变长字符串,不预先分配存储空间,长度不要超过 5000,如果存储长度大于此值,定义字段类型为 text,独立出来一张表,用主键来对应,避免影响其它字段索引效率。
  • 【强制】表必备三字段:id, gmt_create, gmt_modified

说明:其中 id 必为主键,类型为 bigint unsigned、单表时自增、步长为 1。gmt_create,gmt_modified 的类型均为 datetime 类型,前者现在时表示主动创建,后者过去分词表示被动更新。

  • 【推荐】表的命名最好是加上“业务名称_表的作用”

正例:alipay_task / force_project / trade_config

  • 【推荐】库名与应用名称尽量一致
  • 【推荐】如果修改字段含义或对字段表示的状态追加时,需要及时更新字段注释
  • 【推荐】字段允许适当冗余,以提高查询性能,但必须考虑数据一致。冗余字段应遵循:不是频繁修改的字段、不是 varchar 超长字段,更不能是 text 字段

正例:商品类目名称使用频率高,字段长度短,名称基本一成不变,可在相关联的表中冗余存储类目名称,避免关联查询。

  • 【推荐】单表行数超过 500 万行或者单表容量超过 2GB,才推荐进行分库分表

说明:如果预计三年后的数据量根本达不到这个级别,请不要在创建表时就分库分表。

  • 【参考】合适的字符存储长度,不但节约数据库表空间、节约索引存储,更重要的是提升检索速度

正例:如下表,其中无符号值可以避免误存负数,且扩大了表示范围。

对象年龄区间类型字节表示范围
人150 岁之内tinyint unsigned1无符号值:0 到 255
龟数百岁smallint unsigned2无符号值:0 到 65535
恐龙化石数千万年int unsigned4无符号值:0 到约 42.9 亿
太阳约 50 亿年bigint unsigned8无符号值:0 到约 10 的 19 次方

索引规约

  • 【强制】业务上具有唯一特性的字段,即使是多个字段的组合,也必须建成唯一索引

说明:不要以为唯一索引影响了 insert 速度,这个速度损耗可以忽略,但提高查找速度是明显的;另外,即使在应用层做了非常完善的校验控制,只要没有唯一索引,根据墨菲定律,必然有脏数据产生。

  • 【强制】三个表以上禁止 join。需要 join 的字段,数据类型必须绝对一致;多表关联查询时,保证被关联的字段需要有索引

说明:即使双表 join 也要注意表索引、SQL 性能。

  • 【强制】在 varchar 字段上建立索引时,必须指定索引长度,没必要对全字段建立索引,根据实际文本区分度决定索引长度即可

说明:索引的长度与区分度是一对矛盾体,一般对字符串类型数据,长度为 20 的索引,区分度会高达 90%以上,可以使用 count(distinct left(列名, 索引长度))/count(*)的区分度来确定。

  • 【强制】页面搜索严禁左模糊或者全模糊,如果需要请走搜索引擎来解决

说明:索引文件具有 B-Tree 的最左前缀匹配特性,如果左边的值未确定,那么无法使用此索引。

  • 【推荐】如果有 order by 的场景,请注意利用索引的有序性。order by 最后的字段是组合索引的一部分,并且放在索引组合顺序的最后,避免出现 file_sort 的情况,影响查询性能

正例:where a=? and b=? order by c; 索引:a_b_c。

反例:索引中有范围查找,那么索引有序性无法利用,如:WHERE a>10 ORDER BY b; 索引a_b 无法排序。

  • 【推荐】利用覆盖索引来进行查询操作,避免回表

说明:如果一本书需要知道第 11 章是什么标题,会翻开第 11 章对应的那一页吗?目录浏览一下就好,这个目录就是起到覆盖索引的作用。

正例:能够建立索引的种类分为主键索引、唯一索引、普通索引三种,而覆盖索引只是一种查询的一种效果,用 explain 的结果,extra 列会出现:using index。

  • 【推荐】利用延迟关联或者子查询优化超多分页场景

说明:MySQL 并不是跳过 offset 行,而是取 offset+N 行,然后返回放弃前 offset 行,返回N 行,那当 offset 特别大的时候,效率就非常的低下,要么控制返回的总页数,要么对超过特定阈值的页数进行 SQL 改写。

正例:先快速定位需要获取的 id 段,然后再关联:SELECT a.* FROM 表 1 a, (select id from 表 1 where 条件 LIMIT 100000,20 ) b where a.id=b.id;

  • 【推荐】SQL 性能优化的目标:至少要达到 range 级别,要求是 ref 级别,如果可以是 consts最好

说明:consts 单表中最多只有一个匹配行(主键或者唯一索引),在优化阶段即可读取到数据。ref 指的是使用普通的索引(normal index)。range 对索引进行范围检索。

反例:explain 表的结果,type=index,索引物理文件全扫描,速度非常慢,这个 index 级别比较 range 还低,与全表扫描是小巫见大巫。

  • 【推荐】建组合索引的时候,区分度最高的在最左边

正例:如果 where a=? and b=? ,如果 a 列的几乎接近于唯一值,那么只需要单建 idx_a索引即可。

说明:存在非等号和等号混合时,在建索引时,请把等号条件的列前置。如:where c>? and d=? 那么即使 c 的区分度更高,也必须把 d 放在索引的最前列,即索引 idx_d_c。

  • 【推荐】防止因字段类型不同造成的隐式转换,导致索引失效
  • 【参考】创建索引时避免有如下极端误解

1)宁滥勿缺。认为一个查询就需要建一个索引。

2)宁缺勿滥。认为索引会消耗空间、严重拖慢更新和新增速度。

3)抵制惟一索引。认为业务的惟一性一律需要在应用层通过“先查后插”方式解决。

SQL 语句规约

  • 【强制】不要使用 count(列名)或 count(常量)来替代 count(*),count(*)是 SQL92 定义的标准统计行数的语法, 跟数据库无关,跟 NULL 和非 NULL 无关

说明:count(*)会统计值为 NULL 的行,而 count(列名)不会统计此列为 NULL 值的行。

  • 【强制】count(distinct col) 计算该列除 NULL 之外的不重复行数,注意 count(distinct col1, col2)如果其中一 列全为 NULL,那么即使另一列有不同的值,也返回为 0
  • 【强制】当某一列的值全是 NULL 时,count(col)的返回结果为 0,但 sum(col)的返回结果为NULL,因此使用 sum()时需注意 NPE (Null Pointer Exception)问题

正例:可以使用如下方式来避免 sum 的 NPE 问题:SELECT IF(ISNULL(SUM(g)),0,SUM(g))FROM table;

  • 【强制】使用 ISNULL()来判断是否为 NULL 值
  • 【强制】在代码中写分页查询逻辑时,若 count 为 0 应直接返回,避免执行后面的分页语句
  • 【强制】不得使用外键与级联,一切外键概念必须在应用层解决

说明:以学生和成绩的关系为例,学生表中的 student_id是主键,那么成绩表中的 student_id则为外键。如果更新学生表中的 student_id,同时触发成绩表中的 student_id 更新,即为级联更新。外键与级联更新适用于单机低并发,不适合分布式、高并发集群;级联更新是强阻塞,存在数据库更新风暴的风险;外键影响数据库的插入速度。

  • 【强制】禁止使用存储过程,存储过程难以调试和扩展,更没有移植性
  • 【强制】数据订正(特别是删除、修改记录操作)时,要先 select,避免出现误删除,确认无误才能执行更新语句
  • 【推荐】in 操作能避免则避免,若实在避免不了,需要仔细评估 in 后边的集合元素数量,控制在1000个之内
  • 【参考】如果有国际化需要,所有的字符存储与表示,均以 utf-8 编码,注意字符统计函数的区别

说明:

SELECT LENGTH("轻松工作"); 返回为 12

SELECT CHARACTER_LENGTH("轻松工作"); 返回为 4

如果需要存储表情,那么选择 utf8mb4 来进行存储,注意它与 utf-8 编码的区别。

  • 【参考】TRUNCATE TABLE 比 DELETE 速度快,且使用的系统和事务日志资源少,但 TRUNCATE无事务且不触发 trigger,有可能造成事故,故不建议在开发代码中使用此语句

说明:TRUNCATE TABLE 在功能上与不带 WHERE 子句的 DELETE 语句相同

ORM映射规约

  • 【强制】在表查询中,一律不要使用 * 作为查询的字段列表,需要哪些字段必须明确写明
  • 【强制】POJO 类的布尔属性不能加 is,而数据库字段必须加 is_,要求在 resultMap 中进行字段与属性之间的映射
  • 【强制】不要用 resultClass 当返回参数,即使所有类属性名与数据库字段一一对应,也需要定义;反过来,每一个表也必然有一个 POJO 类与之对应
  • 【强制】sql.xml 配置参数使用:#{},#param# 不要使用${} 此种方式容易出现 SQL 注入
  • 【强制】iBATIS 自带的 queryForList(String statementName,int start,int size)不推荐使用

说明:其实现方式是在数据库取到statementName对应的SQL语句的所有记录,再通过subList取 start,size 的子集合。

  • 【强制】不允许直接拿 HashMap 与 Hashtable 作为查询结果集的输出

说明:resultClass=”Hashtable”,会置入字段名和属性值,但是值的类型不可控。

  • 【强制】更新数据表记录时,必须同时更新记录对应的 gmt_modified 字段值为当前时间
  • 【推荐】不要写一个大而全的数据更新接口。传入为 POJO 类,不管是不是自己的目标更新字段,都进行 update table set c1=value1,c2=value2,c3=value3; 这是不对的。执行 SQL时,不要更新无改动的字段,一是易出错;二是效率低;三是增加 binlog 存储
  • 【参考】@Transactional 事务不要滥用。事务会影响数据库的 QPS,另外使用事务的地方需要考虑各方面的回滚方案,包括缓存回滚、搜索引擎回滚、消息补偿、统计修正等

复杂SQL优化实战

优化案例

前面用过的tbiguser表有10000000条记录。创建tuser1表和tuser2表,并初始化若干的数据。

我们创建tuser1表和tuser2表,并初始化若干的数据。

CREATE TABLE `tuser1` (
  `id` int NOT NULL AUTO_INCREMENT,
  `name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL,
  `address` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL,
  PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;
CREATE TABLE `tuser2` (
  `id` int NOT NULL AUTO_INCREMENT,
  `name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL,
  `address` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL,
  PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;
package com.rubin.mvn.demos.jdbc;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.SQLException;
import java.util.Arrays;
import java.util.Date;
import java.util.List;
import java.util.Random;

public class BatchInsertDemo {

    public static Random random = new Random();
    public static List<String> addresses = Arrays.asList("beijing", "tianjin", "shanghai", "shangdong", "guangzhou", "xianggang", "hebei", "shanxi", "gansu", "zhejiang", "hangzhou", "chongqi", "aomen", "fujian", "jiangsu", "shenzhen", "baoding", "xizang", "xinjiang");
    public static List<String> addresses1 = Arrays.asList("xizang", "xinjiang", "menggu");
    public static List<String> names = Arrays.asList("zhaoyun", "zhangfei", "diaochan");

    public static void main(String[] args) throws ClassNotFoundException, SQLException {
        String url = "jdbc:mysql://127.0.0.1:3306/rubin?characterEncoding=utf8&serverTimezone=Asia/Shanghai&useSSL=false&allowPublicKeyRetrieval=true";
        String name = "com.mysql.jdbc.Driver";
        String username = "root";
        String password = "123456";
        Connection conn = null;
        Class.forName(name);
        conn = DriverManager.getConnection(url, username, password);
        if (conn != null) {
            System.out.println("获取连接成功");
//            insertBatch4Tbiguser(conn);
            insertBatch4User(conn, "tuser1", false);
            insertBatch4User(conn, "tuser2", true);
        } else {
            System.out.println("获取连接失败");
        }
    }

    private static void insertBatch4User(Connection conn, String tableName, boolean needClose) {
        Long begin = new Date().getTime();
        String prefix = "INSERT INTO " + tableName + " (`name`, `address`) VALUES ";
        try {
            StringBuffer suffix = new StringBuffer();
            conn.setAutoCommit(false);
            PreparedStatement pst = conn.prepareStatement("select * from tuser1");
            for (int i = 1; i <= 20; i++) {
                suffix.append("('");
                suffix.append(names.get(random.nextInt(names.size())));
                suffix.append("','");
                suffix.append(addresses1.get(random.nextInt(addresses1.size())));
                suffix.append("'),");
            }
            String sql = prefix + suffix.substring(0, suffix.length() - 1);
            pst.addBatch(sql);
            pst.executeBatch();
            conn.commit();
            pst.close();
            if (needClose) {
                conn.close();
            }
        } catch (SQLException e) {
            e.printStackTrace();
        }
        Long end = new Date().getTime();
        System.out.println("20条数据插入花费时间 : " + (end - begin) / 1000 + " s");
        System.out.println("插入完成");
    }

    private static void insertBatch4Tbiguser(Connection conn) {
        Long begin = new Date().getTime();
        String prefix = "INSERT INTO tbiguser (`nickname`,`loginname`,`age`,`sex`,`status`,`address`) VALUES ";
        try {
            StringBuffer suffix = new StringBuffer();
            conn.setAutoCommit(false);
            PreparedStatement pst = conn.prepareStatement("select * from tbiguser");
            for (int i = 1; i <= 200; i++) {
                suffix.append("('zy");
                suffix.append(i);
                suffix.append("','zhaoyun");
                suffix.append(i);
                suffix.append("',23,1,1,'");
                suffix.append(addresses.get(random.nextInt(addresses.size())));
                suffix.append("'),");
                if (i % 100000 == 0) {
                    String sql = prefix + suffix.substring(0, suffix.length() - 1);
                    pst.addBatch(sql);
                    pst.executeBatch();
                    conn.commit();
                    suffix = new StringBuffer();
                }
            }
            pst.close();
            conn.close();
        } catch (SQLException e) {
            e.printStackTrace();
        }
        Long end = new Date().getTime();
        System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
        System.out.println("插入完成");
    }

}
<dependency>
     <groupId>mysql</groupId>
     <artifactId>mysql-connector-java</artifactId>
     <version>8.0.26</version>
</dependency>

需求:tbiguser表按照地区分组统计求和,要求是在tuser1表和tuser2表中出现过的地区。

按照需求写出SQL:

SELECT
    COUNT(id) AS num,
		address
FROM
	tbiguser
WHERE
	address IN (SELECT DISTINCT address FROM tuser1)
GROUP BY
	address
UNION
SELECT
    COUNT(id) AS num,
		address
FROM
	tbiguser
WHERE
	address IN (SELECT DISTINCT address FROM tuser2)
GROUP BY
	address;

通过explain我们可以看到:

mysql> EXPLAIN SELECT
    ->     COUNT(id) AS num,
    -> address
    -> FROM
    -> tbiguser
    -> WHERE
    -> address IN (SELECT DISTINCT address FROM tuser1)
    -> GROUP BY
    -> address
    -> UNION
    -> SELECT
    ->     COUNT(id) AS num,
    -> address
    -> FROM
    -> tbiguser
    -> WHERE
    -> address IN (SELECT DISTINCT address FROM tuser2)
    -> GROUP BY
    -> address;
+----+--------------+-------------+------------+------+---------------+------+---------+------+---------+----------+--------------------------------------------+
| id | select_type  | table       | partitions | type | possible_keys | key  | key_len | ref  | rows    | filtered | Extra                                      |
+----+--------------+-------------+------------+------+---------------+------+---------+------+---------+----------+--------------------------------------------+
|  1 | PRIMARY      | <subquery2> | NULL       | ALL  | NULL          | NULL | NULL    | NULL |    NULL |   100.00 | Using temporary                            |
|  1 | PRIMARY      | tbiguser    | NULL       | ALL  | NULL          | NULL | NULL    | NULL | 9759568 |    10.00 | Using where; Using join buffer (hash join) |
|  2 | MATERIALIZED | tuser1      | NULL       | ALL  | NULL          | NULL | NULL    | NULL |     100 |   100.00 | NULL                                       |
|  3 | UNION        | <subquery4> | NULL       | ALL  | NULL          | NULL | NULL    | NULL |    NULL |   100.00 | Using temporary                            |
|  3 | UNION        | tbiguser    | NULL       | ALL  | NULL          | NULL | NULL    | NULL | 9759568 |    10.00 | Using where; Using join buffer (hash join) |
|  4 | MATERIALIZED | tuser2      | NULL       | ALL  | NULL          | NULL | NULL    | NULL |     100 |   100.00 | NULL                                       |
| NULL | UNION RESULT | <union1,3>  | NULL       | ALL  | NULL          | NULL | NULL    | NULL |    NULL |     NULL | Using temporary                            |
+----+--------------+-------------+------------+------+---------------+------+---------+------+---------+----------+--------------------------------------------+
7 rows in set, 1 warning (0.00 sec)
  • type:为ALL 说明没有索引,全表扫描
  • Using temporary:说明使用了临时表
  • Using filesort :说明使用了文件排序
  • Using where:没有索引下推,在Server层进行了全表扫描和过滤
  • Using join buffer(Block Nested Loop):关联没有索引,有关联优化

第一次优化

给address加索引

alter table tbiguser add index idx_addr(address);
alter table tuser1 add index idx_addr(address); 
alter table tuser2 add index idx_addr(address); 

再次查看执行计划

mysql> EXPLAIN SELECT
    ->     COUNT(id) AS num,
    -> address
    -> FROM
    -> tbiguser
    -> WHERE
    -> address IN (SELECT DISTINCT address FROM tuser1)
    -> GROUP BY
    -> address
    -> UNION
    -> SELECT
    ->     COUNT(id) AS num,
    -> address
    -> FROM
    -> tbiguser
    -> WHERE
    -> address IN (SELECT DISTINCT address FROM tuser2)
    -> GROUP BY
    -> address;
+----+--------------+------------+------------+-------+---------------+----------+---------+----------------------+------+----------+------------------------------------------------------+
| id | select_type  | table      | partitions | type  | possible_keys | key      | key_len | ref                  | rows | filtered | Extra                                                |
+----+--------------+------------+------------+-------+---------------+----------+---------+----------------------+------+----------+------------------------------------------------------+
|  1 | PRIMARY      | tuser1     | NULL       | index | idx_addr      | idx_addr | 1023    | NULL                 |  100 |    11.00 | Using where; Using index; Using temporary; LooseScan |
|  1 | PRIMARY      | tbiguser   | NULL       | ref   | idx_addr      | idx_addr | 1022    | rubin.tuser1.address | 1594 |   100.00 | Using index                                          |
|  3 | UNION        | tuser2     | NULL       | index | idx_addr      | idx_addr | 1023    | NULL                 |  100 |    11.00 | Using where; Using index; Using temporary; LooseScan |
|  3 | UNION        | tbiguser   | NULL       | ref   | idx_addr      | idx_addr | 1022    | rubin.tuser2.address | 1594 |   100.00 | Using index                                          |
| NULL | UNION RESULT | <union1,3> | NULL       | ALL   | NULL          | NULL     | NULL    | NULL                 | NULL |     NULL | Using temporary                                      |
+----+--------------+------------+------------+-------+---------------+----------+---------+----------------------+------+----------+------------------------------------------------------+
5 rows in set, 1 warning (0.00 sec)
  • type:index ,说明用到了索引 : 覆盖索引
  • Using temporary :有临时表
  • Using where :没有索引下推,在Server层进行了全表扫描和过滤

第二次优化

修改SQL为

SELECT
    COUNT(id) AS num,
		address
FROM
	tbiguser
WHERE
	address IN (SELECT DISTINCT address FROM tuser1) OR 
	address IN(SELECT DISTINCT address FROM tuser2)
GROUP BY
	address;

查看执行计划:

mysql> EXPLAIN SELECT
    ->     COUNT(id) AS num,
    -> address
    -> FROM
    -> tbiguser
    -> WHERE
    -> address IN (SELECT DISTINCT address FROM tuser1) OR
    -> address IN(SELECT DISTINCT address FROM tuser2)
    -> GROUP BY
    -> address;
+----+-------------+----------+------------+-------+---------------+----------+---------+------+---------+----------+--------------------------+
| id | select_type | table    | partitions | type  | possible_keys | key      | key_len | ref  | rows    | filtered | Extra                    |
+----+-------------+----------+------------+-------+---------------+----------+---------+------+---------+----------+--------------------------+
|  1 | PRIMARY     | tbiguser | NULL       | index | idx_addr      | idx_addr | 1022    | NULL | 9759568 |   100.00 | Using where; Using index |
|  3 | SUBQUERY    | tuser2   | NULL       | index | idx_addr      | idx_addr | 1023    | NULL |     100 |   100.00 | Using index              |
|  2 | SUBQUERY    | tuser1   | NULL       | index | idx_addr      | idx_addr | 1023    | NULL |     100 |   100.00 | Using index              |
+----+-------------+----------+------------+-------+---------------+----------+---------+------+---------+----------+--------------------------+
3 rows in set, 1 warning (0.00 sec)

type依然是index,但是没有了临时表。

第三次优化

从前面的执行计划可以看出,索引只是使用了覆盖索引,rows=9754360, 说明还是几乎扫描了全表的行。所以我们需要利用address索引,先过滤数据

SELECT DISTINCT b.* FROM tuser1 a, tbiguser b WHERE a.address = b.address

查看一下执行计划:

mysql> EXPLAIN SELECT DISTINCT b.* FROM tuser1 a, tbiguser b WHERE a.address = b.address
    -> ;
+----+-------------+-------+------------+-------+---------------+----------+---------+-----------------+------+----------+-------------------------------------------+
| id | select_type | table | partitions | type  | possible_keys | key      | key_len | ref             | rows | filtered | Extra                                     |
+----+-------------+-------+------------+-------+---------------+----------+---------+-----------------+------+----------+-------------------------------------------+
|  1 | SIMPLE      | a     | NULL       | index | idx_addr      | idx_addr | 1023    | NULL            |   20 |   100.00 | Using where; Using index; Using temporary |
|  1 | SIMPLE      | b     | NULL       | ref   | idx_addr      | idx_addr | 1022    | rubin.a.address | 2241 |   100.00 | NULL                                      |
+----+-------------+-------+------------+-------+---------------+----------+---------+-----------------+------+----------+-------------------------------------------+
2 rows in set, 1 warning (0.03 sec)

type成了ref就说明使用了address索引做关联。我们的tuser2也使用相同的方法,并合并结果集在分组求和:

mysql> SELECT
    -> COUNT(x.id) AS num,
    -> x.address
    -> FROM
    -> (SELECT DISTINCT b.* FROM tuser1 a, tbiguser b WHERE a.address = b.address
    ->
    -> UNION ALL
    ->
    -> SELECT DISTINCT b.* FROM tuser2 a, tbiguser b WHERE a.address = b.address) x
    -> GROUP BY x.address;
+-----+----------+
| num | address  |
+-----+----------+
| 196 | xinjiang |
| 204 | xizang   |
+-----+----------+
2 rows in set (0.01 sec)

查看执行计划:

mysql> EXPLAIN SELECT
    -> COUNT(x.id) AS num,
    -> x.address
    -> FROM
    -> (SELECT DISTINCT b.* FROM tuser1 a, tbiguser b WHERE a.address = b.address
    ->
    -> UNION ALL
    ->
    -> SELECT DISTINCT b.* FROM tuser2 a, tbiguser b WHERE a.address = b.address) x
    -> GROUP BY x.address;
+----+-------------+------------+------------+-------+---------------+----------+---------+-----------------+-------+----------+-------------------------------------------+
| id | select_type | table      | partitions | type  | possible_keys | key      | key_len | ref             | rows  | filtered | Extra                                     |
+----+-------------+------------+------------+-------+---------------+----------+---------+-----------------+-------+----------+-------------------------------------------+
|  1 | PRIMARY     | <derived2> | NULL       | ALL   | NULL          | NULL     | NULL    | NULL            | 89648 |   100.00 | Using temporary                           |
|  2 | DERIVED     | a          | NULL       | index | idx_addr      | idx_addr | 1023    | NULL            |    20 |   100.00 | Using where; Using index; Using temporary |
|  2 | DERIVED     | b          | NULL       | ref   | idx_addr      | idx_addr | 1022    | rubin.a.address |  2241 |   100.00 | NULL                                      |
|  3 | UNION       | a          | NULL       | index | idx_addr      | idx_addr | 1023    | NULL            |    20 |   100.00 | Using where; Using index; Using temporary |
|  3 | UNION       | b          | NULL       | ref   | idx_addr      | idx_addr | 1022    | rubin.a.address |  2241 |   100.00 | NULL                                      |
+----+-------------+------------+------------+-------+---------------+----------+---------+-----------------+-------+----------+-------------------------------------------+
5 rows in set, 1 warning (0.00 sec)

DERIVED:派生表

最终优化

将派生表写成视图

CREATE VIEW v_tuser AS 
SELECT DISTINCT b.* FROM tuser1 a, tbiguser b WHERE a.address = b.address 
UNION ALL 
SELECT DISTINCT b.* FROM tuser2 a, tbiguser b WHERE a.address = b.address;

修改我们的SQL:

SELECT 
    COUNT(id) AS num,
    address
FROM 	
v_tuser
GROUP BY address;

优化结果:从最初的将近14秒优化到不到1秒。

优化总结:

  • 开启慢查询日志,定位运行慢的SQL语句
  • 利用explain执行计划,查看SQL执行情况
  • 关注索引使用情况:type
  • 关注Rows:行扫描
  • 关注Extra:没有信息最好
  • 加索引后,查看索引使用情况,index只是覆盖索引,并不算很好的使用索引
  • 如果有关联尽量将索引用到eq_ref或ref级别
  • 复杂SQL可以做成视图,视图在MySQL内部有优化,而且开发也比较友好
  • 对于复杂的SQL要逐一分析,找到比较费时的SQL语句片段进行优化

以上就是本博文的全部内容。欢迎小伙伴积极留言交流~~~

本作品采用 知识共享署名 4.0 国际许可协议 进行许可
标签: MySQL
最后更新:2022年 6月 9日

RubinChu

一个快乐的小逗比~~~

打赏 点赞
< 上一篇
下一篇 >

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复
文章目录
  • 系统配置优化
    • 保证从内存中读取数据
    • 数据预热
    • 降低磁盘写入次数
    • 提高磁盘读写性能
  • 表结构设计优化
  • SQL语句及索引优化
  • MySQL开发规约
    • 建表规约
    • 索引规约
    • SQL 语句规约
    • ORM映射规约
  • 复杂SQL优化实战
    • 优化案例
    • 第一次优化
    • 第二次优化
    • 第三次优化
    • 最终优化
最新 热点 随机
最新 热点 随机
问题记录之Chrome设置屏蔽Https禁止调用Http行为 问题记录之Mac设置软链接 问题记录之JDK8连接MySQL数据库失败 面试系列之自我介绍 面试总结 算法思维
ZooKeeper之源码环境搭建 MySQL之Sharding-JDBC简介 java面试系列之网络编程 RocketMQ之架构与实战 Neo4j之程序访问 MySQL学习之JSON类型

COPYRIGHT © 2021 rubinchu.com. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang

京ICP备19039146号-1