首页 > 代码库 > 运维角度浅谈:MySQL数据库优化
运维角度浅谈:MySQL数据库优化
日志君导读:
一个成熟的数据库架构并非一開始设计就具备高可用、高伸缩等特性的。它是随着用户量的添加,基础架构才逐渐完好。
作者:zhenliang8。本文转自51CTO博客,点击原文阅读查看网页版文章。
日志君导读:
一个成熟的数据库架构并非一開始设计就具备高可用、高伸缩等特性的。它是随着用户量的添加,基础架构才逐渐完好。
作者:zhenliang8。本文转自51CTO博客,点击原文阅读查看网页版文章。
本博文主要谈MySQL数据库发展周期中所面临的问题及优化方案,暂且抛开前端应用不说,大致分为下面五个阶段:
1、数据库表设计
项目立项后,开发部依据产品部需求开发项目,开发project师工作当中一部分就是对表结构设计。对于数据库来说。这点非常重要,假设设计不当,会直接影响訪问速度和用户体验。影响的因素非常多,比方慢查询、低效的查询语句、没有适当建立索引、数据库阻塞(死锁)等。
当然,有測试project师的团队,会做压力測试,找bug。对于没有測试project师的团队来说,大多数开发project师初期不会太多考虑数据库设计是否合理,而是尽快完毕功能实现和交付。等项目有一定訪问量后,隐藏的问题就会暴露,这时再去改动就不是这么easy的事了。
2、数据库部署
该运维project师出场了,项目初期訪问量不会非常大。所以单台部署足以应对在1500左右的QPS(每秒查询率)。
考虑到高可用性。可採用MySQL主从复制+Keepalived做双击热备,常见集群软件有Keepalived、Heartbeat。
双机热备博文:http://lizhenliang.blog.51cto.com/7876557/1362313
3、数据库性能优化
假设将MySQL部署到普通的X86server上,在不经过不论什么优化情况下,MySQL理论值正常能够处理2000左右QPS。经过优化后,有可能会提升到2500左右QPS。否则。訪问量当达到1500左右并发连接时,数据库处理性能就会变慢,并且硬件资源还非常富裕,这时就该考虑软件问题了。
那么如何让数据库最大化发挥性能呢?一方面能够单台执行多个MySQL实例让server性能发挥到最大化,还有一方面是对数据库进行优化。往往操作系统和数据库默认配置都比較保守,会对数据库发挥有一定限制。可对这些配置进行适当的调整,尽可能的处理很多其它连接数。
详细优化有下面三个层面:
3.1 数据库配置优化
MySQL经常使用有两种存储引擎,一个是MyISAM,不支持事务处理。读性能处理快,表级别锁。
还有一个是InnoDB,支持事务处理(ACID)。设计目标是为处理大容量数据发挥最大化性能。行级别锁。
表锁:开销小,锁定粒度大,发生死锁概率高,相对并发也低。
行锁:开销大,锁定粒度小。发生死锁概率低。相对并发也高。
为什么会出现表锁和行锁呢?主要是为了保证数据的完整性,举个样例,一个用户在操作一张表,其它用户也想操作这张表,那么就要等第一个用户操作完,其它用户才干操作,表锁和行锁就是这个作用。否则多个用户同一时候操作一张表,肯定会数据产生冲突或者异常。
依据以上看来,使用InnoDB存储引擎是最好的选择,也是MySQL5.5以后版本号中默认存储引擎。
每一个存储引擎相关联參数比較多,下面列出主要影响数据库性能的參数。
公共參数默认值:
max_connections = 151 #同一时候处理最大连接数,推荐设置最大连接数是上限连接数的80%左右 sort_buffer_size = 2M #查询排序时缓冲区大小。仅仅对order by和group by起作用,可增大此值为16M query_cache_limit = 1M #查询缓存限制,仅仅有1M下面查询结果才会被缓存,以免结果数据较大把缓存池覆盖 query_cache_size = 16M #查看缓冲区大小。用于缓存SELECT查询结果,下一次有相同SELECT查询将直接从缓存池返回结果,可适当成倍添加此值 open_files_limit = 1024 #打开文件数限制,假设show global status like ‘open_files‘查看的值等于或者大于open_files_limit值时,程序会无法连接数据库或卡死
MyISAM參数默认值:
key_buffer_size = 16M #索引缓存区大小,一般设置物理内存的30-40% read_buffer_size = 128K #读操作缓冲区大小。推荐设置16M或32M
InnoDB參数默认值:
innodb_buffer_pool_size = 128M #索引和数据缓冲区大小,一般设置物理内存的60%-70% innodb_buffer_pool_instances = 1 #缓冲池实例个数,推荐设置4个或8个 innodb_flush_log_at_trx_commit = 1 #关键參数,0代表大约每秒写入到日志并同步到磁盘,数据库故障会丢失1秒左右事务数据。1为每运行一条SQL后写入到日志并同步到磁盘,I/O开销大。运行完SQL要等待日志读写。效率低。2代表仅仅把日志写入到系统缓存区,再每秒同步到磁盘,效率非常高。假设server故障,才会丢失事务数据。对数据安全性要求不是非常高的推荐设置2,性能高,改动后效果明显。 innodb_file_per_table = OFF #默认是共享表空间,共享表空间idbdata文件不断增大。影响一定的I/O性能。推荐开启独立表空间模式,每一个表的索引和数据都存在自己独立的表空间中,能够实现单表在不同数据库中移动。 innodb_log_buffer_size = 8M #日志缓冲区大小。因为日志最长每秒钟刷新一次,所以一般不用超过16M
3.2 系统内核优化
大多数MySQL都部署在linux系统上,所以操作系统的一些參数也会影响到MySQL性能,下面对linux内核进行适当优化。
3.3 硬件配置
加大物理内存,提高文件系统性能。linux内核会从内存中分配出缓存区(系统缓存和数据缓存)来存放热数据。通过文件系统延迟写入机制,等满足条件时(如缓存区大小到达一定百分比或者运行sync命令)才会同步到磁盘。也就是说物理内存越大,分配缓存区越大,缓存数据越多。当然,server故障会丢失一定的缓存数据。
SSD硬盘取代SAS硬盘,将RAID级别调整为RAID1+0,相对于RAID1和RAID5有更好的读写性能(IOPS),毕竟数据库的压力主要来自磁盘I/O方面。
4、数据库架构扩展
随着业务量越来越大,单台数据库server性能已无法满足业务需求,该考虑加机器了。该做集群了~~~。
主要思想是分解单台数据库负载,突破磁盘I/O性能,热数据存放缓存中。减少磁盘I/O訪问频率。
4.1 主从复制与读写分离
由于生产环境中,数据库大多都是读操作,所以部署一主多从架构。主数据库负责写操作。并做双击热备,多台从数据库做负载均衡,负责读操作,主流的负载均衡器有LVS、HAProxy、Nginx。怎么来实现读写分离呢?大多数企业是在代码层面实现读写分离,效率比較高。
还有一个种方式通过代理程序实现读写分离,企业中应用较少。常见代理程序有MySQL Proxy、Amoeba。在这样数据库集群架构中。大大添加数据库高并发能力,解决单台性能瓶颈问题。假设从数据库一台从库能处理2000 QPS,那么5台就能处理1w QPS,数据库横向扩展性也非常easy。
有时,面对大量写操作的应用时。单台写性能达不到业务需求。假设做双主,就会遇到数据库数据不一致现象。产生这个原因是在应用程序不同的用户会有可能操作两台数据库,同一时候的更新操作造成两台数据库数据库数据发生冲突或者不一致。在单库时MySQL利用存储引擎机制表锁和行锁来保证数据完整性。如何在多台主库时解决问题呢?有一套基于perl语言开发的主从复制管理工具。叫MySQL-MMM(Master-Master replication managerfor Mysql,Mysql主主复制管理器),这个工具最大的长处是在同一时间仅仅提供一台数据库写操作,有效保证数据一致性。
4.2 添加缓存
给数据库添加缓存系统,把热数据缓存到内存中,假设内存缓存中有要请求的数据就不再去数据库中返回结果,提高读性能。
缓存实现有本地缓存和分布式缓存,本地缓存是将数据缓存到本地server内存中或者文件里,速度快。分布式能够缓存海量数据,扩展easy,主流的分布式缓存系统有memcached、redis,memcached性能稳定。数据缓存在内存中,速度非常快,QPS可达8w左右。假设想数据持久化那就用redis,性能不低于memcached。
工作过程:
4.3 分库
分库是依据业务不同把相关的表切分到不同的数据库中,比方web、bbs、blog等库。假设业务量非常大,还可将切分后的库做主从架构,进一步避免单个库压力过大。
4.4 分表
数据量的日剧添加,数据库中某个表有几百万条数据,导致查询和插入耗时太长。怎么能解决单表压力呢?你就该考虑是否把这个表拆分成多个小表,来减轻单个表的压力,提高处理效率,此方式称为分表。
分表技术比較麻烦,要改动程序代码里的SQL语句,还要手动去创建其它表,也能够用merge存储引擎实现分表。相对简单很多。分表后。程序是对一个总表进行操作,这个总表不存放数据。仅仅有一些分表的关系,以及更新数据的方式,总表会依据不同的查询。将压力分到不同的小表上。因此提高并发能力和磁盘I/O性能。
分表分为垂直拆分和水平拆分:
垂直拆分:把原来的一个非常多字段的表拆分多个表。解决表的宽度问题。你能够把不经常使用的字段单独放到一个表中,也能够把大字段独立放一个表中,或者把关联密切的字段放一个表中。
水平拆分:把原来一个表拆分成多个表,每一个表的结构都一样。解决单表数据量大的问题。
4.5 分区
分区就是把一张表的数据分成多个区块,这些区块能够在一个磁盘上,也能够在不同的磁盘上,分区后,表面上还是一张表,但数据散列在多个位置,这样一来。多块硬盘同一时候处理不同的请求,从而提高磁盘I/O读写性能,实现比較简单。
注:添加缓存、分库、分表和分区主要由程序员来实现。
5、数据库维护
数据库维护是运维project师或者DBA主要工作,包含性能监控、性能分析、性能调优、数据库备份和恢复等。
5.1 性能状态关键指标
-
QPS。Queries Per Second:每秒查询数,一台数据库每秒可以处理的查询次数;
-
TPS。Transactions Per Second:每秒处理事务数。
通过show status查看执行状态,会有300多条状态信息记录,当中有几个值帮能够我们计算出QPS和TPS。例如以下:
-
Uptime:server已经执行的实际,单位秒
-
Questions:已经发送给数据库查询数
-
Com_select:查询次数。实际操作数据库的
-
Com_insert:插入次数
-
Com_delete:删除次数
-
Com_update:更新次数
-
Com_commit:事务次数
-
Com_rollback:回滚次数
那么。计算方法来了,基于Questions计算出QPS:
QPS = Questions / Uptime
mysql> show global status like ‘Questions‘; mysql> show global status like ‘Uptime‘;
基于Com_commit和Com_rollback计算出TPS:
mysql> show global status like ‘Com_commit‘; mysql> show global status like ‘Com_rollback‘; mysql> show global status like ‘Uptime‘; TPS = (Com_commit + Com_rollback) / Uptime
还有一计算方式:基于Com_select、Com_insert、Com_delete、Com_update计算出QPS。
mysql>mysql> show global status where Variable_name in(‘com_select‘,‘com_insert‘,‘com_delete‘,‘com_update‘); 等待1秒再运行,获取间隔差值,第二次每一个变量值减去第一次相应的变量值,就是QPS
TPS计算方法:
mysql>mysql> show global status where Variable_name in(‘com_insert‘,‘com_delete‘,‘com_update‘); 计算TPS,就不算查询操作了,计算出插入、删除、更新四个值就可以。 经网友对这两个计算方式的測试得出。当数据库中myisam表比較多时,使用Questions计算比較准确。
当数据库中innodb表比較多时,则以Com_*计算比較准确。
5.2 开启慢查询日志
MySQL开启慢查询日志,分析出哪条SQL语句比較慢。使用set设置变量,重新启动服务失效。能够在my.cnf加入參数永久生效。
mysql> set global slow-query-log=on #开启慢查询功能 mysql> set global slow_query_log_file=‘/var/log/mysql/mysql-slow.log‘; #指定慢查询日志文件位置 mysql> set global log_queries_not_using_indexes=on; #记录没有使用索引的查询 mysql> set global long_query_time=1; #仅仅记录处理时间1s以上的慢查询
分析慢查询日志。能够使用MySQL自带的mysqldumpslow工具,分析的日志较为简单。
# mysqldumpslow -t 3 /var/log/mysql/mysql-slow.log #查看最慢的前三个查询
也能够使用percona公司的pt-query-digest工具,日志分析功能全面,可分析slow log、binlog、general log。
-
分析慢查询日志:pt-query-digest /var/log/mysql/mysql-slow.log
-
分析binlog日志:mysqlbinlog mysql-bin.000001 >mysql-bin.000001.sql
-
pt-query-digest –type=binlog mysql-bin.000001.sql
-
分析普通日志:pt-query-digest –type=genlog localhost.log
5.3 数据库备份
备份数据库是最主要的工作,也是最重要的,否则后果非常严重,你懂得!
但由于数据库比較大,上百G,往往备份都非常耗费时间,所以就该选择一个效率高的备份策略。对于数据量大的数据库,一般都採用增量备份。经常使用的备份工具有mysqldump、mysqlhotcopy、xtrabackup等。mysqldump比較适用于小的数据库,由于是逻辑备份,所以备份和恢复耗时都比較长。
mysqlhotcopy和xtrabackup是物理备份,备份和恢复速度快,不影响数据库服务情况下进行热拷贝。建议使用xtrabackup,支持增量备份。
Xtrabackup备份工具使用博文:http://lizhenliang.blog.51cto.com/7876557/1612800
5.4 数据库修复
有时候MySQLserver突然断电、异常关闭,会导致表损坏,无法读取表数据。这时就能够用到MySQL自带的两个工具进行修复,myisamchk和mysqlcheck。
myisamchk:仅仅能修复myisam表,须要停止数据库
经常使用參数:
-f –force 强制修复,覆盖老的暂时文件,一般不使用
-r –recover 恢复模式
-q –quik 高速恢复
-a –analyze 分析表
-o –safe-recover 老的恢复模式,假设-r无法修复。能够使用此參数试试
-F –fast 仅仅检查没有正常关闭的表
高速修复weibo数据库:
# cd /var/lib/mysql/weibo
# myisamchk -r -q *.MYI
mysqlcheck:myisam和innodb表都能够用,不须要停止数据库,如修复单个表,可在数据库后面加入表名,以空格切割。
经常使用參数:
-
-a –all-databases 检查全部的库
-
-r –repair 修复表
-
-c –check 检查表,默认选项
-
-a –analyze 分析表
-
-o –optimize 优化表
-
-q –quik 最快检查或修复表
-
-F –fast 仅仅检查没有正常关闭的表
高速修复weibo数据库:
mysqlcheck -r -q -uroot -p123 weibo
5.5 另外,查看CPU和I/O性能方法
-
查看CPU性能
-
參数-P是显示CPU数。ALL为全部,也能够仅仅显示第几颗
-
查看I/O性能
參数-m是以M单位显示,默认K
%util:当达到100%时。说明I/O非常忙。
await:请求在队列中等待时间,直接影响read时间。
I/O极限:IOPS(r/s+w/s),一般在1200左右。
(IOPS,每秒进行读写(I/O)操作次数)
I/O带宽:在顺序读写模式下SAS硬盘理论值在300M/s左右,SSD硬盘理论值在600M/s左右。
以上是本人使用MySQL三年来总结的一些主要优化方案,能力有限。有些不太全面。但这些基本可以满足中小型企业数据库需求。因为关系型数据库初衷设计限制,一些BAT公司海量数据放到关系型数据库中,在海量数据查询和分析方面已经达不到更好的性能。因此NoSQL火起来了,非关系型数据库,大数据量,具有高性能,同一时候也弥补了关系型数据库某方面不足,渐渐大多数公司已经将部分业务数据库存放到NoSQL中,如MongoDB、HBase等。数据存储方面採用分布式文件系统,如HDFS、GFS等。海量数据计算分析採用Hadoop、Spark、Storm等。这些都是与运维相关的前沿技术。也是在存储方面主要学习对象,小伙伴们共同加油吧!
哪位博友有更好的优化方案,欢迎交流哦。
日志君导读:
一个成熟的数据库架构并非一開始设计就具备高可用、高伸缩等特性的,它是随着用户量的添加,基础架构才逐渐完好。
作者:zhenliang8,本文转自51CTO博客,点击原文阅读查看网页版文章。
本博文主要谈MySQL数据库发展周期中所面临的问题及优化方案,暂且抛开前端应用不说,大致分为下面五个阶段:
1、数据库表设计
项目立项后,开发部依据产品部需求开发项目,开发project师工作当中一部分就是对表结构设计。对于数据库来说,这点非常重要,假设设计不当,会直接影响訪问速度和用户体验。
影响的因素非常多,比方慢查询、低效的查询语句、没有适当建立索引、数据库阻塞(死锁)等。
当然,有測试project师的团队。会做压力測试,找bug。
对于没有測试project师的团队来说,大多数开发project师初期不会太多考虑数据库设计是否合理,而是尽快完毕功能实现和交付,等项目有一定訪问量后。隐藏的问题就会暴露。这时再去改动就不是这么easy的事了。
2、数据库部署
该运维project师出场了,项目初期訪问量不会非常大,所以单台部署足以应对在1500左右的QPS(每秒查询率)。
考虑到高可用性,可採用MySQL主从复制+Keepalived做双击热备。常见集群软件有Keepalived、Heartbeat。
双机热备博文:http://lizhenliang.blog.51cto.com/7876557/1362313
3、数据库性能优化
假设将MySQL部署到普通的X86server上,在不经过不论什么优化情况下。MySQL理论值正常能够处理2000左右QPS,经过优化后,有可能会提升到2500左右QPS,否则,訪问量当达到1500左右并发连接时。数据库处理性能就会变慢,并且硬件资源还非常富裕,这时就该考虑软件问题了。
那么如何让数据库最大化发挥性能呢?一方面能够单台执行多个MySQL实例让server性能发挥到最大化,还有一方面是对数据库进行优化。往往操作系统和数据库默认配置都比較保守。会对数据库发挥有一定限制。可对这些配置进行适当的调整,尽可能的处理很多其它连接数。
详细优化有下面三个层面:
3.1 数据库配置优化
MySQL经常使用有两种存储引擎,一个是MyISAM,不支持事务处理,读性能处理快。表级别锁。还有一个是InnoDB,支持事务处理(ACID)。设计目标是为处理大容量数据发挥最大化性能,行级别锁。
表锁:开销小。锁定粒度大。发生死锁概率高,相对并发也低。
行锁:开销大,锁定粒度小,发生死锁概率低,相对并发也高。
为什么会出现表锁和行锁呢?主要是为了保证数据的完整性,举个样例。一个用户在操作一张表,其它用户也想操作这张表。那么就要等第一个用户操作完。其它用户才干操作。表锁和行锁就是这个作用。否则多个用户同一时候操作一张表,肯定会数据产生冲突或者异常。
依据以上看来。使用InnoDB存储引擎是最好的选择,也是MySQL5.5以后版本号中默认存储引擎。每一个存储引擎相关联參数比較多,下面列出主要影响数据库性能的參数。
公共參数默认值:
max_connections = 151 #同一时候处理最大连接数,推荐设置最大连接数是上限连接数的80%左右 sort_buffer_size = 2M #查询排序时缓冲区大小。仅仅对order by和group by起作用,可增大此值为16M query_cache_limit = 1M #查询缓存限制,仅仅有1M下面查询结果才会被缓存。以免结果数据较大把缓存池覆盖 query_cache_size = 16M #查看缓冲区大小。用于缓存SELECT查询结果。下一次有相同SELECT查询将直接从缓存池返回结果。可适当成倍添加此值 open_files_limit = 1024 #打开文件数限制,假设show global status like ‘open_files‘查看的值等于或者大于open_files_limit值时,程序会无法连接数据库或卡死
MyISAM參数默认值:
key_buffer_size = 16M #索引缓存区大小,一般设置物理内存的30-40% read_buffer_size = 128K #读操作缓冲区大小。推荐设置16M或32M
InnoDB參数默认值:
innodb_buffer_pool_size = 128M #索引和数据缓冲区大小。一般设置物理内存的60%-70% innodb_buffer_pool_instances = 1 #缓冲池实例个数,推荐设置4个或8个 innodb_flush_log_at_trx_commit = 1 #关键參数,0代表大约每秒写入到日志并同步到磁盘。数据库故障会丢失1秒左右事务数据。
1为每运行一条SQL后写入到日志并同步到磁盘,I/O开销大,运行完SQL要等待日志读写。效率低。2代表仅仅把日志写入到系统缓存区。再每秒同步到磁盘。效率非常高,假设server故障,才会丢失事务数据。对数据安全性要求不是非常高的推荐设置2,性能高。改动后效果明显。 innodb_file_per_table = OFF #默认是共享表空间,共享表空间idbdata文件不断增大。影响一定的I/O性能。
推荐开启独立表空间模式,每一个表的索引和数据都存在自己独立的表空间中,能够实现单表在不同数据库中移动。 innodb_log_buffer_size = 8M #日志缓冲区大小,因为日志最长每秒钟刷新一次,所以一般不用超过16M
3.2 系统内核优化
大多数MySQL都部署在linux系统上,所以操作系统的一些參数也会影响到MySQL性能。下面对linux内核进行适当优化。
3.3 硬件配置
加大物理内存,提高文件系统性能。linux内核会从内存中分配出缓存区(系统缓存和数据缓存)来存放热数据,通过文件系统延迟写入机制,等满足条件时(如缓存区大小到达一定百分比或者运行sync命令)才会同步到磁盘。也就是说物理内存越大,分配缓存区越大。缓存数据越多。当然,server故障会丢失一定的缓存数据。
SSD硬盘取代SAS硬盘,将RAID级别调整为RAID1+0,相对于RAID1和RAID5有更好的读写性能(IOPS),毕竟数据库的压力主要来自磁盘I/O方面。
4、数据库架构扩展
随着业务量越来越大,单台数据库server性能已无法满足业务需求,该考虑加机器了,该做集群了~~~。主要思想是分解单台数据库负载。突破磁盘I/O性能。热数据存放缓存中,减少磁盘I/O訪问频率。
4.1 主从复制与读写分离
由于生产环境中。数据库大多都是读操作,所以部署一主多从架构。主数据库负责写操作。并做双击热备。多台从数据库做负载均衡,负责读操作,主流的负载均衡器有LVS、HAProxy、Nginx。
怎么来实现读写分离呢?大多数企业是在代码层面实现读写分离,效率比較高。
还有一个种方式通过代理程序实现读写分离,企业中应用较少,常见代理程序有MySQL Proxy、Amoeba。在这样数据库集群架构中,大大添加数据库高并发能力,解决单台性能瓶颈问题。
假设从数据库一台从库能处理2000 QPS,那么5台就能处理1w QPS。数据库横向扩展性也非常easy。
有时,面对大量写操作的应用时,单台写性能达不到业务需求。
假设做双主,就会遇到数据库数据不一致现象,产生这个原因是在应用程序不同的用户会有可能操作两台数据库。同一时候的更新操作造成两台数据库数据库数据发生冲突或者不一致。在单库时MySQL利用存储引擎机制表锁和行锁来保证数据完整性,如何在多台主库时解决问题呢?有一套基于perl语言开发的主从复制管理工具,叫MySQL-MMM(Master-Master replication managerfor Mysql,Mysql主主复制管理器),这个工具最大的长处是在同一时间仅仅提供一台数据库写操作,有效保证数据一致性。
4.2 添加缓存
给数据库添加缓存系统。把热数据缓存到内存中。假设内存缓存中有要请求的数据就不再去数据库中返回结果。提高读性能。缓存实现有本地缓存和分布式缓存。本地缓存是将数据缓存到本地server内存中或者文件里,速度快。分布式能够缓存海量数据,扩展easy,主流的分布式缓存系统有memcached、redis,memcached性能稳定,数据缓存在内存中,速度非常快。QPS可达8w左右。假设想数据持久化那就用redis。性能不低于memcached。
工作过程:
4.3 分库
分库是依据业务不同把相关的表切分到不同的数据库中。比方web、bbs、blog等库。假设业务量非常大,还可将切分后的库做主从架构,进一步避免单个库压力过大。
4.4 分表
数据量的日剧添加。数据库中某个表有几百万条数据。导致查询和插入耗时太长。怎么能解决单表压力呢?你就该考虑是否把这个表拆分成多个小表,来减轻单个表的压力。提高处理效率,此方式称为分表。
分表技术比較麻烦,要改动程序代码里的SQL语句,还要手动去创建其它表。也能够用merge存储引擎实现分表。相对简单很多。分表后,程序是对一个总表进行操作,这个总表不存放数据。仅仅有一些分表的关系,以及更新数据的方式,总表会依据不同的查询,将压力分到不同的小表上,因此提高并发能力和磁盘I/O性能。
分表分为垂直拆分和水平拆分:
垂直拆分:把原来的一个非常多字段的表拆分多个表,解决表的宽度问题。你能够把不经常使用的字段单独放到一个表中。也能够把大字段独立放一个表中。或者把关联密切的字段放一个表中。
水平拆分:把原来一个表拆分成多个表,每一个表的结构都一样,解决单表数据量大的问题。
4.5 分区
分区就是把一张表的数据分成多个区块。这些区块能够在一个磁盘上,也能够在不同的磁盘上,分区后,表面上还是一张表。但数据散列在多个位置,这样一来,多块硬盘同一时候处理不同的请求,从而提高磁盘I/O读写性能。实现比較简单。
注:添加缓存、分库、分表和分区主要由程序员来实现。
5、数据库维护
数据库维护是运维project师或者DBA主要工作。包含性能监控、性能分析、性能调优、数据库备份和恢复等。
5.1 性能状态关键指标
-
QPS。Queries Per Second:每秒查询数,一台数据库每秒可以处理的查询次数;
-
TPS,Transactions Per Second:每秒处理事务数。
通过show status查看执行状态。会有300多条状态信息记录,当中有几个值帮能够我们计算出QPS和TPS,例如以下:
-
Uptime:server已经执行的实际,单位秒
-
Questions:已经发送给数据库查询数
-
Com_select:查询次数,实际操作数据库的
-
Com_insert:插入次数
-
Com_delete:删除次数
-
Com_update:更新次数
-
Com_commit:事务次数
-
Com_rollback:回滚次数
那么,计算方法来了。基于Questions计算出QPS:
QPS = Questions / Uptime
mysql> show global status like ‘Questions‘; mysql> show global status like ‘Uptime‘;
基于Com_commit和Com_rollback计算出TPS:
mysql> show global status like ‘Com_commit‘; mysql> show global status like ‘Com_rollback‘; mysql> show global status like ‘Uptime‘; TPS = (Com_commit + Com_rollback) / Uptime
还有一计算方式:基于Com_select、Com_insert、Com_delete、Com_update计算出QPS。
mysql>mysql> show global status where Variable_name in(‘com_select‘,‘com_insert‘,‘com_delete‘,‘com_update‘); 等待1秒再运行,获取间隔差值,第二次每一个变量值减去第一次相应的变量值,就是QPS
TPS计算方法:
mysql>mysql> show global status where Variable_name in(‘com_insert‘,‘com_delete‘,‘com_update‘); 计算TPS。就不算查询操作了,计算出插入、删除、更新四个值就可以。 经网友对这两个计算方式的測试得出,当数据库中myisam表比較多时,使用Questions计算比較准确。当数据库中innodb表比較多时。则以Com_*计算比較准确。
5.2 开启慢查询日志
MySQL开启慢查询日志。分析出哪条SQL语句比較慢,使用set设置变量,重新启动服务失效,能够在my.cnf加入參数永久生效。
mysql> set global slow-query-log=on #开启慢查询功能 mysql> set global slow_query_log_file=‘/var/log/mysql/mysql-slow.log‘; #指定慢查询日志文件位置 mysql> set global log_queries_not_using_indexes=on; #记录没有使用索引的查询 mysql> set global long_query_time=1; #仅仅记录处理时间1s以上的慢查询
分析慢查询日志,能够使用MySQL自带的mysqldumpslow工具,分析的日志较为简单。
# mysqldumpslow -t 3 /var/log/mysql/mysql-slow.log #查看最慢的前三个查询
也能够使用percona公司的pt-query-digest工具,日志分析功能全面。可分析slow log、binlog、general log。
-
分析慢查询日志:pt-query-digest /var/log/mysql/mysql-slow.log
-
分析binlog日志:mysqlbinlog mysql-bin.000001 >mysql-bin.000001.sql
-
pt-query-digest –type=binlog mysql-bin.000001.sql
-
分析普通日志:pt-query-digest –type=genlog localhost.log
5.3 数据库备份
备份数据库是最主要的工作,也是最重要的,否则后果非常严重,你懂得!
但由于数据库比較大。上百G。往往备份都非常耗费时间,所以就该选择一个效率高的备份策略。对于数据量大的数据库。一般都採用增量备份。经常使用的备份工具有mysqldump、mysqlhotcopy、xtrabackup等,mysqldump比較适用于小的数据库,由于是逻辑备份。所以备份和恢复耗时都比較长。mysqlhotcopy和xtrabackup是物理备份,备份和恢复速度快,不影响数据库服务情况下进行热拷贝。建议使用xtrabackup,支持增量备份。
Xtrabackup备份工具使用博文:http://lizhenliang.blog.51cto.com/7876557/1612800
5.4 数据库修复
有时候MySQLserver突然断电、异常关闭,会导致表损坏。无法读取表数据。这时就能够用到MySQL自带的两个工具进行修复,myisamchk和mysqlcheck。
myisamchk:仅仅能修复myisam表。须要停止数据库
经常使用參数:
-f –force 强制修复,覆盖老的暂时文件,一般不使用
-r –recover 恢复模式
-q –quik 高速恢复
-a –analyze 分析表
-o –safe-recover 老的恢复模式,假设-r无法修复,能够使用此參数试试
-F –fast 仅仅检查没有正常关闭的表
高速修复weibo数据库:
# cd /var/lib/mysql/weibo
# myisamchk -r -q *.MYI
mysqlcheck:myisam和innodb表都能够用,不须要停止数据库,如修复单个表,可在数据库后面加入表名,以空格切割。
经常使用參数:
-
-a –all-databases 检查全部的库
-
-r –repair 修复表
-
-c –check 检查表。默认选项
-
-a –analyze 分析表
-
-o –optimize 优化表
-
-q –quik 最快检查或修复表
-
-F –fast 仅仅检查没有正常关闭的表
高速修复weibo数据库:
mysqlcheck -r -q -uroot -p123 weibo
5.5 另外。查看CPU和I/O性能方法
-
查看CPU性能
-
參数-P是显示CPU数,ALL为全部,也能够仅仅显示第几颗
-
查看I/O性能
參数-m是以M单位显示,默认K
%util:当达到100%时。说明I/O非常忙。
await:请求在队列中等待时间。直接影响read时间。
I/O极限:IOPS(r/s+w/s),一般在1200左右。(IOPS,每秒进行读写(I/O)操作次数)
I/O带宽:在顺序读写模式下SAS硬盘理论值在300M/s左右,SSD硬盘理论值在600M/s左右。
以上是本人使用MySQL三年来总结的一些主要优化方案,能力有限,有些不太全面,但这些基本可以满足中小型企业数据库需求。
因为关系型数据库初衷设计限制,一些BAT公司海量数据放到关系型数据库中,在海量数据查询和分析方面已经达不到更好的性能。因此NoSQL火起来了,非关系型数据库,大数据量,具有高性能,同一时候也弥补了关系型数据库某方面不足。渐渐大多数公司已经将部分业务数据库存放到NoSQL中。如MongoDB、HBase等。数据存储方面採用分布式文件系统。如HDFS、GFS等。海量数据计算分析採用Hadoop、Spark、Storm等。这些都是与运维相关的前沿技术。也是在存储方面主要学习对象。小伙伴们共同加油吧。哪位博友有更好的优化方案,欢迎交流哦。
运维角度浅谈:MySQL数据库优化