MYSQL 大数据性能优化

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介:

批量插入优化

在网上找了一些插入大量数据性能优化资料,提到了比较重要的一点是将

Java代码   收藏代码
  1. insert into tablename(f1,f2,...) values (d1,d2,...);  
  2. insert into tablename(f1,f2,...) values (d1,d2,...);  
  3. ...  

 这样的单条单条的insert语句改造成

Java代码   收藏代码
  1. insert into tablename(f1,f2,...) values (d1,d2,...),(d1,d2,...),(d1,d2,...);  

这种一次insert多条记录,性能会提升比较明显,所以我就开始试验这种方法,将每条记录在代码里循环拼接成一条原生insert语句再进行插入(想想感觉可行性很高),拼接完成后依然继续插入五万条数据,拼接出来的sql语句就成了

Java代码   收藏代码
  1. insert into tablename(f1,f2,...) values (d1,d2,...),(d1,d2,...),(d1,d2,...)...;//此处省略了49997条记录  

浏览器运行插入数据的页面,bong...,提示MySQL server has gone away!,mysql崩溃了。蛋疼~!然后寻思着将这五万条数据分批次进行插入,这样就不会产生数据库崩溃的情况,所以我将这五万条数据按照五千个一组分批插入,最后再运行这个页面,bong...五万条数据两秒之内就给全部插入进去了,两秒。。(这里已经去掉了前面加上的 ini_set('memory_limit','1024M');)效率跟之前比提高了几十倍,瞬间感觉整个人都变好了。又试了再插入三万条数据,1秒 之内搞定。下面贴出部分参考代码

Java代码   收藏代码
  1. <?php  
  2. //下面是大于5000条数据拼接算法  
  3. $chu = floor($count / 5000); //取整  
  4. for ($i = 0; $i < $chu; $i++) {  
  5.     //每5000条数据组成一个insert语句,$codeModel是存放记录的一个数组  
  6.     $values = '';  
  7.     for ($j = $i * 5000; $j < ($i + 1) * 5000; $j++) {  
  8.         //拼接values的值  
  9.         $values .= '(' . $codeModel[$j]['rid'] . ',' . $codeModel[$j]['cid'] . ',"' . $codeModel[$j]['regcode'] . '",0,' . $codeModel[$j]['status'] . ',0,' . time() . '),';  
  10.     }  
  11.     $values = "insert into w_code (rid,cid,regcode,used_times,status,reason_id,created_at) values" . substr($values, 0, -1) . ';';  
  12.     Yii::$app->db->createCommand($values)->execute();  
  13. }  
  14. //下面是小于5000条数据拼接算法  
  15. $yu = $count % 5000//取余  
  16. for ($k = 0; $k < $yu; $k++) {  
  17.     //echo "k:" . $k . "<br/>";  
  18. }  

另外,这些代码外层都放了事务回滚的!将多条insert放入事务中也会提升一点数据插入的性能!

 

将数据放到文件中,使用load data infile

Java代码   收藏代码
  1. select * into outfile 'ddd.txt' fields terminated by ',' from dn_location;  
  2. load data infile 'ddd.txt' into table dn_location2  FIELDS TERMINATED BY ',';  

通过该方法导出的数据,是将各字段(只有数据,不导出表结构)数据存在一个文件中,中间以逗号分隔,因为文件中并不包含数据库名或者表名,因此需要在导入导出的时候些明确。该方法在18分钟内导出1.6亿条记录,46min内导入6472W条记录,平均速度:8442W条/h。mysql官方文档也说明了,该方法比一次性插入一条数据性能快20倍


删除表大量数据

假设有一个表(syslogs)有1000万条记录,需要在业务不停止的情况下删除其中statusid=1的所有记录,差不多有600万条,直接执行

Java代码   收藏代码
  1. DELETE FROM syslogs WHERE statusid=1   

会发现删除失败,因为lock wait timeout exceed的错误。因为这条语句所涉及的记录数太多,因此我们通过LIMIT参数分批删除,比如每10000条进行一次删除,那么我们可以利用 MySQL这样的语句来完成

Java代码   收藏代码
  1. DELETE FROM syslogs WHERE status=1 ORDER BY statusid LIMIT 10000;  

然后分多次执行就可以把这些记录成功删除。

delete命令根本不会回收空间,也就是说之前假如这个文件占了100G ,delete后,文件大小没有改变。当全表扫描的时候,还是扫这么多的数据块。当执行完alter table 命令后,它会回收空间。假如删了80G,它的物理文件会只占20G空间。

Java代码   收藏代码
  1. alter table table_name engine=innodb;     

当您的库中删除了大量的数据后,您可能会发现数据文件尺寸并没有减小。这是因为删除操作后在数据文件中留下碎片所致。OPTIMIZE TABLE 是指对表进行优化。如果已经删除了表的一大部分数据,或者如果已经对含有可变长度行的表(含有 VARCHAR 、 BLOB 或 TEXT 列的表)进行了很多更改,就应该使用 OPTIMIZE TABLE 命令来进行表优化。这个命令可以将表中的空间碎片进行合并,并且可以消除由于删除或者更新造成的空间浪费 。OPTIMIZE TABLE 命令只对 MyISAM 、 BDB 和 InnoDB 表起作用 。表优化的工作可以每周或者每月定期执行,对提高表的访问效率有一定的好处,但是需要注意的是,优化表期间会锁定表,所以一定要安排在空闲时段进行。

一,原始数据

Java代码   收藏代码
  1. mysql> select count(*) as total from ad_visit_history;  
  2. +---------+  
  3. | total   |  
  4. +---------+  
  5. 1187096 |                      //总共有118万多条数据  
  6. +---------+  
  7. 1 row in set (0.04 sec)  

 2,存放在硬盘中的表文件大小

Java代码   收藏代码
  1. [root@BlackGhost test1]# ls |grep visit |xargs -i du {}  
  2. 382020    ad_visit_history.MYD                    //数据文件占了380M  
  3. 127116    ad_visit_history.MYI                     //索引文件占了127M  
  4. 12    ad_visit_history.frm                              //结构文件占了12K  

 3,查看一下索引信息

Java代码   收藏代码
  1. mysql> show index from ad_visit_history from test1;     //查看一下该表的索引信息  
  2. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+  
  3. | Table            | Non_unique | Key_name          | Seq_in_index | Column_name   | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment |  
  4. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+  
  5. | ad_visit_history |          0 | PRIMARY           |            1 | id            | A         |     1187096 |     NULL | NULL   |      | BTREE      |         |  
  6. | ad_visit_history |          1 | ad_code           |            1 | ad_code       | A         |          46 |     NULL | NULL   | YES  | BTREE      |         |  
  7. | ad_visit_history |          1 | unique_id         |            1 | unique_id     | A         |     1187096 |     NULL | NULL   | YES  | BTREE      |         |  
  8. | ad_visit_history |          1 | ad_code_ind       |            1 | ad_code       | A         |          46 |     NULL | NULL   | YES  | BTREE      |         |  
  9. | ad_visit_history |          1 | from_page_url_ind |            1 | from_page_url | A         |       30438 |     NULL | NULL   | YES  | BTREE      |         |  
  10. | ad_visit_history |          1 | ip_ind            |            1 | ip            | A         |      593548 |     NULL | NULL   | YES  | BTREE      |         |  
  11. | ad_visit_history |          1 | port_ind          |            1 | port          | A         |       65949 |     NULL | NULL   | YES  | BTREE      |         |  
  12. | ad_visit_history |          1 | session_id_ind    |            1 | session_id    | A         |     1187096 |     NULL | NULL   | YES  | BTREE      |         |  
  13. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+  
  14. 8 rows in set (0.28 sec)  

索引信息中的列的信息说明。

Table :表的名称。
Non_unique :如果索引不能包括重复词,则为0。如果可以,则为1。
Key_name :索引的名称。
Seq_in_index :索引中的列序列号,从1开始。
Column_name :列名称。
Collation :列以什么方式存储在索引中。在MySQLSHOW INDEX语法中,有值’A’(升序)或NULL(无分类)。
Cardinality :索引中唯一值的数目的估计值。通过运行ANALYZE TABLE或myisamchk -a可以更新。基数根据被存储为整数的统计数据来计数,所以即使对于小型表,该值也没有必要是精确的。基数越大,当进行联合时,MySQL使用该索引的机会就越大。
Sub_part :如果列只是被部分地编入索引,则为被编入索引的字符的数目。如果整列被编入索引,则为NULL。
Packed :指示关键字如何被压缩。如果没有被压缩,则为NULL。
Null :如果列含有NULL,则含有YES。如果没有,则为空。
Index_type :存储索引数据结构方法(BTREE, FULLTEXT, HASH, RTREE)

二,删除一半数据

Java代码   收藏代码
  1. mysql> delete from ad_visit_history where id>598000;          //删除一半数据  
  2. Query OK, 589096 rows affected (4 min 28.06 sec)  
  3.   
  4. [root@BlackGhost test1]# ls |grep visit |xargs -i du {}              //相对应的MYD,MYI文件大小没有变化  
  5. 382020    ad_visit_history.MYD   
  6. 127116    ad_visit_history.MYI  
  7. 12    ad_visit_history.frm  

按常规思想来说,如果在数据库中删除了一半数据后,相对应的.MYD,.MYI文件也应当变为之前的一半。但是删除一半数据后,.MYD.MYI尽然连1KB都没有减少 ,这是多么的可怕啊。

我们在来看一看,索引信息

Java代码   收藏代码
  1. mysql> show index from ad_visit_history;    
  2. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+    
  3. | Table            | Non_unique | Key_name          | Seq_in_index | Column_name   | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment |    
  4. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+    
  5. | ad_visit_history |          0 | PRIMARY           |            1 | id            | A         |      598000 |     NULL | NULL   |      | BTREE      |         |    
  6. | ad_visit_history |          1 | ad_code           |            1 | ad_code       | A         |          23 |     NULL | NULL   | YES  | BTREE      |         |    
  7. | ad_visit_history |          1 | unique_id         |            1 | unique_id     | A         |      598000 |     NULL | NULL   | YES  | BTREE      |         |    
  8. | ad_visit_history |          1 | ad_code_ind       |            1 | ad_code       | A         |          23 |     NULL | NULL   | YES  | BTREE      |         |    
  9. | ad_visit_history |          1 | from_page_url_ind |            1 | from_page_url | A         |       15333 |     NULL | NULL   | YES  | BTREE      |         |    
  10. | ad_visit_history |          1 | ip_ind            |            1 | ip            | A         |      299000 |     NULL | NULL   | YES  | BTREE      |         |    
  11. | ad_visit_history |          1 | port_ind          |            1 | port          | A         |       33222 |     NULL | NULL   | YES  | BTREE      |         |    
  12. | ad_visit_history |          1 | session_id_ind    |            1 | session_id    | A         |      598000 |     NULL | NULL   | YES  | BTREE      |         |    
  13. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+    
  14. 8 rows in set (0.00 sec)    

对比一下,这次索引查询和上次索引查询,里面的数据信息基本上是上次一次的一本,这点还是合乎常理。

三,用optimize table来优化一下

Java代码   收藏代码
  1. mysql> optimize table ad_visit_history;                                             //删除数据后的优化  
  2. +------------------------+----------+----------+----------+  
  3. | Table                  | Op       | Msg_type | Msg_text |  
  4. +------------------------+----------+----------+----------+  
  5. | test1.ad_visit_history | optimize | status   | OK       |  
  6. +------------------------+----------+----------+----------+  
  7. 1 row in set (1 min 21.05 sec)  

 1,查看一下.MYD,.MYI文件的大小

Java代码   收藏代码
  1. [root@BlackGhost test1]# ls |grep visit |xargs -i du {}  
  2. 182080    ad_visit_history.MYD                                          //数据文件差不多为优化前的一半  
  3. 66024    ad_visit_history.MYI                                             //索引文件也一样,差不多是优化前的一半  
  4. 12    ad_visit_history.frm  

 2,查看一下索引信息

Java代码   收藏代码
  1. mysql> show index from ad_visit_history;    
  2. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+    
  3. | Table            | Non_unique | Key_name          | Seq_in_index | Column_name   | Collation | Cardinality | Sub_part | Packed | Null | Index_type | Comment |    
  4. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+    
  5. | ad_visit_history |          0 | PRIMARY           |            1 | id            | A         |      598000 |     NULL | NULL   |      | BTREE      |         |    
  6. | ad_visit_history |          1 | ad_code           |            1 | ad_code       | A         |          42 |     NULL | NULL   | YES  | BTREE      |         |    
  7. | ad_visit_history |          1 | unique_id         |            1 | unique_id     | A         |      598000 |     NULL | NULL   | YES  | BTREE      |         |    
  8. | ad_visit_history |          1 | ad_code_ind       |            1 | ad_code       | A         |          42 |     NULL | NULL   | YES  | BTREE      |         |    
  9. | ad_visit_history |          1 | from_page_url_ind |            1 | from_page_url | A         |       24916 |     NULL | NULL   | YES  | BTREE      |         |    
  10. | ad_visit_history |          1 | ip_ind            |            1 | ip            | A         |      598000 |     NULL | NULL   | YES  | BTREE      |         |    
  11. | ad_visit_history |          1 | port_ind          |            1 | port          | A         |       59800 |     NULL | NULL   | YES  | BTREE      |         |    
  12. | ad_visit_history |          1 | session_id_ind    |            1 | session_id    | A         |      598000 |     NULL | NULL   | YES  | BTREE      |         |    
  13. +------------------+------------+-------------------+--------------+---------------+-----------+-------------+----------+--------+------+------------+---------+    
  14. 8 rows in set (0.00 sec)    

从以上数据我们可以得出,ad_code,ad_code_ind,from_page_url_ind等索引机会差不多都提高了85%,这样效率提高了好多。

四,小结

结合mysql官方网站的信息,个人是这样理解的。当你删除数据 时,mysql并不会回收,被已删除数据的占据的存储空间,以及索引位。而是空在那里,而是等待新的数据来弥补这个空缺,这样就有一个缺少,如果一时半 会,没有数据来填补这个空缺,那这样就太浪费资源了。所以对于写比较频烦的表,要定期进行optimize,一个月一次,看实际情况而定了。

举个例子来说吧。有100个php程序员辞职了,但是呢只是人走了,php的职位还在那里,这些职位不会撤销,要等新的php程序来填补这些空位。招一个好的程序员,比较难。我想大部分时间会空在那里。哈哈。

五,手册中关于OPTIMIZE的一些用法和描述

OPTIMIZE [LOCAL | NO_WRITE_TO_BINLOG] TABLE tbl_name [, tbl_name] ...

如果您已经删除了表的一大部分,或者如果您已经对含有可变长度行的表(含有VARCHAR, BLOB或TEXT列的表)进行了很多更改,则应使用OPTIMIZE TABLE。被删除的记录被保持在链接清单中,后续的INSERT操作会重新使用旧的记录位置。您可以使用OPTIMIZE TABLE来重新利用未使用的空间,并整理数据文件的碎片。在多数的设置中,您根本不需要运行OPTIMIZE TABLE。即使您对可变长度的行进行了大量的更新,您也不需要经常运行,每周一次或每月一次即可,只对特定的表运行。

OPTIMIZE TABLE只对MyISAM, BDB和InnoDB表起作用。注意,在OPTIMIZE TABLE运行过程中,MySQL会锁定表。

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
2天前
|
存储 关系型数据库 MySQL
《MySQL 简易速速上手小册》第3章:性能优化策略(2024 最新版)
《MySQL 简易速速上手小册》第3章:性能优化策略(2024 最新版)
45 2
|
2天前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之自建的mysql是否支持外部表
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
2天前
|
分布式计算 DataWorks 关系型数据库
MaxCompute产品使用合集之可以使用什么方法将MySQL的数据实时同步到MaxCompute
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
2天前
|
存储 关系型数据库 MySQL
Mysql大数据批量插入方法
Mysql大数据批量插入方法
24 0
|
2天前
|
缓存 关系型数据库 MySQL
MySQL数据库性能优化实战
【4月更文挑战第30天】本文探讨了MySQL性能优化实战技巧,包括硬件与配置优化(如使用SSD、增加内存和调整配置参数)、索引优化(创建合适索引、使用复合索引及定期维护)、查询优化(避免全表扫描、减少JOIN和使用LIMIT)、分区与分片(表分区和数据库分片),以及使用缓存、定期清理数据库和监控诊断。通过这些方法,可以提升数据库性能和响应速度。
|
2天前
|
分布式计算 DataWorks 调度
DataWorks产品使用合集之在DataWorks中,查看ODPS表的OSS对象如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
29 1
|
2天前
|
分布式计算 DataWorks MaxCompute
DataWorks产品使用合集之在DataWorks中,将数据集成功能将AnalyticDB for MySQL中的数据实时同步到MaxCompute中如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
26 0
|
2天前
|
DataWorks 关系型数据库 调度
DataWorks产品使用合集之在DataWorks中,将ODPS数据导入到MySQL的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
29 0
|
2天前
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之在DataWorks中,使用JSON解析函数将MySQL表中的字段解析成多个字段将这些字段写入到ODPS(MaxCompute)中如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
29 3
|
2天前
|
缓存 关系型数据库 MySQL
【专栏】提升MySQL性能和高可用性的策略,包括索引优化、查询优化和事务管理
【4月更文挑战第27天】本文探讨了提升MySQL性能和高可用性的策略,包括索引优化、查询优化和事务管理。通过合理使用B-Tree和哈希索引,避免过度索引,以及优化查询语句和利用查询缓存,可以改善性能。事务管理中,应减小事务大小并及时提交,以保持系统效率。主从或双主复制可增强高可用性。综合运用这些方法,并根据实际需求调整,是优化MySQL的关键。

热门文章

最新文章

推荐镜像

更多