成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

MySQL開發實踐8問,你能hold住幾個?

數據庫 MySQL
最近研發的項目對DB依賴比較重,梳理了這段時間使用MySQL遇到的8個比較具有代表性的問題,答案也比較偏自己的開發實踐,沒有DBA專業和深入,有出入的請使勁拍磚!…

最近研發的項目對DB依賴比較重,梳理了這段時間使用MySQL遇到的8個比較具有代表性的問題,答案也比較偏自己的開發實踐,沒有DBA專業和深入,有出入的請使勁拍磚!…

  1. MySQL讀寫性能是多少,有哪些性能相關的配置參數?
  2. MySQL負載高時,如何找到是由哪些SQL引起的?
  3. 如何針對具體的SQL做優化?
  4. SQL層面已難以優化,請求量繼續增大時的應對策略?
  5. MySQL如何做主從數據同步?
  6. 如何防止DB誤操作和做好容災?
  7. 該選擇MySQL哪種存儲引擎,Innodb具有什么特性?
  8. MySQL內部結構有哪些層次?

1.MySQL讀寫性能是多少,有哪些性能相關的重要參數?

這里做了幾個簡單壓測實驗

機器:8核CPU,8G內存

表結構(盡量模擬業務):12個字段(1個bigint(20)為自增primary key,5個int(11),5個varchar(512),1個timestamp),InnoDB存儲引擎。

實驗1(寫):insert => 6000/s

前提:連接數100,每次insert單條記錄

分析:CPU跑了50%,這時磁盤為順序寫,故性能較高

實驗2(寫):update(where條件***索引) => 200/s

前提:連接數100,10w條記錄,每次update單條記錄的4個字段(2個int(11),2個varchar(512))

分析:CPU跑2%,瓶頸明顯在IO的隨機寫

實驗3(讀):select(where條件***索引) => 5000/s

前提:連接數100,10w條記錄,每次select單條記錄的4個字段(2個int(11),2個varchar(512))

分析:CPU跑6%,瓶頸在IO,和db的cache大小相關

實驗4(讀):select(where條件沒***索引) => 60/s

前提:連接數100,10w條記錄,每次select單條記錄的4個字段(2個int(11),2個varchar(512))

分析:CPU跑到80%,每次select都需遍歷所有記錄,看來索引的效果非常明顯!

幾個重要的配置參數,可根據實際的機器和業務特點調整

max_connecttions:***連接數

table_cache:緩存打開表的數量

key_buffer_size:索引緩存大小

query_cache_size:查詢緩存大小

sort_buffer_size:排序緩存大小(會將排序完的數據緩存起來)

read_buffer_size:順序讀緩存大小

read_rnd_buffer_size:某種特定順序讀緩存大小(如order by子句的查詢)

PS:查看配置方法:show variables like '%max_connecttions%';

2.MySQL負載高時,如何找到是由哪些SQL引起的?

方法:慢查詢日志分析(MySQLdumpslow)

慢查詢日志例子,可看到每個慢查詢SQL的耗時:

  1. User@Host: edu_online[edu_online] @ [10.139.10.167] 
  2.  
  3. # Query_time: 1.958000 Lock_time: 0.000021 Rows_sent: 254786 Rows_examined: 254786 
  4.  
  5. SET timestamp=1410883292; 
  6.  
  7. select * from t_online_group_records;  

日志顯示該查詢用了1.958秒,返回254786行記錄,一共遍歷了254786行記錄。及具體的時間戳和SQL語句。

使用MySQLdumpslow進行慢查詢日志分析

MySQLdumpslow -s t -t 5 slow_log_20140819.txt

輸出查詢耗時最多的Top5條SQL語句

-s:排序方法,t表示按時間 (此外,c為按次數,r為按返回記錄數等)

-t:去Top多少條,-t 5表示取前5條

執行完分析結果如下:

  1. Count: 1076100 Time=0.09s (99065s) Lock=0.00s (76s) Rows=408.9 (440058825), edu_online[edu_online]@28hosts 
  2.  
  3. select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > N 
  4.  
  5. Count: 1076099 Time=0.05s (52340s) Lock=0.00s (91s) Rows=62.6 (67324907), edu_online[edu_online]@28hosts 
  6.  
  7. select * from t_online_course where UNIX_TIMESTAMP(c_updatetime) > N 
  8.  
  9. Count: 63889 Time=0.78s (49607s) Lock=0.00s (3s) Rows=0.0 (18), edu_online[edu_online]@[10x.213.1xx.1xx] 
  10.  
  11. select f_uin from t_online_student_contact where f_modify_time > N 
  12.  
  13. Count: 1076097 Time=0.02s (16903s) Lock=0.00s (72s) Rows=52.2 (56187090), edu_online[edu_online]@28hosts 
  14.  
  15. select * from t_online_video_info where UNIX_TIMESTAMP(v_update_time) > N 
  16.  
  17. Count: 330046 Time=0.02s (6822s) Lock=0.00s (45s) Rows=0.0 (2302), edu_online[edu_online]@4hosts 
  18.  
  19. select uin,cid,is_canceled,unix_timestamp(end_time) as endtime,unix_timestamp(update_time) as updatetime 
  20.  
  21. from t_kick_log where unix_timestamp(update_time) > N  

以第1條為例,表示這類SQL(N可以取很多值,這里MySQLdumpslow會歸并起來)在8月19號的慢查詢日志內出現了1076100次,總耗時99065秒,總返回440058825行記錄,有28個客戶端IP用到。

通過慢查詢日志分析,就可以找到最耗時的SQL,然后進行具體的SQL分析了

慢查詢相關的配置參數

log_slow_queries:是否打開慢查詢日志,得先確保=ON后面才有得分析

long_query_time:查詢時間大于多少秒的SQL被當做是慢查詢,一般設為1S

log_queries_not_using_indexes:是否將沒有使用索引的記錄寫入慢查詢日志

slow_query_log_file:慢查詢日志存放路徑

3.如何針對具體的SQL做優化?

使用Explain分析SQL語句執行計劃

  1. MySQL> explain select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; 
  2.  
  3. +----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+ 
  4.  
  5. | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra | 
  6.  
  7. +----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+ 
  8.  
  9. | 1 | SIMPLE | t_online_group_records | ALL | NULL | NULL | NULL | NULL | 47 | Using where | 
  10.  
  11. +----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+ 
  12.  
  13. 1 row in set (0.00 sec)  

如上面例子所示,重點關注下type,rows和Extra:

type:使用類別,有無使用到索引。結果值從好到壞:… > range(使用到索引) > index > ALL(全表掃描),一般查詢應達到range級別

rows:SQL執行檢查的記錄數

Extra:SQL執行的附加信息,如”Using index”表示查詢只用到索引列,不需要去讀表等

使用Profiles分析SQL語句執行時間和消耗資源

  1. MySQL> set profiling=1; (啟動profiles,默認是沒開啟的) 
  2.  
  3. MySQL> select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; (執行要分析的SQL語句) 
  4.  
  5. MySQL> show profiles; 
  6.  
  7. +----------+------------+----------------------------------------------------------------------------------------------+ 
  8.  
  9. | Query_ID | Duration   | Query                                                                                        | 
  10.  
  11. +----------+------------+----------------------------------------------------------------------------------------------+ 
  12.  
  13. |        1 | 0.00043250 | select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789 | 
  14.  
  15. +----------+------------+----------------------------------------------------------------------------------------------+ 
  16.  
  17. 1 row in set (0.00 sec) 
  18.  
  19. MySQL> show profile cpu,block io for query 1; (可看出SQL在各個環節的耗時和資源消耗) 
  20.  
  21. +----------------------+----------+----------+------------+--------------+---------------+ 
  22.  
  23. | Status               | Duration | CPU_user | CPU_system | Block_ops_in | Block_ops_out | 
  24.  
  25. +----------------------+----------+----------+------------+--------------+---------------+ 
  26.  
  27. ... 
  28.  
  29. | optimizing           | 0.000016 | 0.000000 |   0.000000 |            0 |             0 | 
  30.  
  31. statistics           | 0.000020 | 0.000000 |   0.000000 |            0 |             0 | 
  32.  
  33. | preparing            | 0.000017 | 0.000000 |   0.000000 |            0 |             0 | 
  34.  
  35. | executing            | 0.000011 | 0.000000 |   0.000000 |            0 |             0 | 
  36.  
  37. | Sending data         | 0.000076 | 0.000000 |   0.000000 |            0 |             0 | 
  38.  
  39. ...  

SQL優化的技巧 (只提一些業務常遇到的問題)

最關鍵:索引,避免全表掃描。

對接觸的項目進行慢查詢分析,發現***0的基本都是忘了加索引或者索引使用不當,如索引字段上加函數導致索引失效等(如where UNIX_TIMESTAMP(gre_updatetime)>123456789)

  1. +----------+------------+---------------------------------------+ 
  2.  
  3. | Query_ID | Duration | Query | 
  4.  
  5. +----------+------------+---------------------------------------+ 
  6.  
  7. | 1 | 0.00024700 | select * from mytable where id=100 | 
  8.  
  9. | 2 | 0.27912900 | select * from mytable where id+1=101 | 
  10.  
  11. +----------+------------+---------------------------------------+  

另外很多同學在拉取全表數據時,喜歡用select xx from xx limit 5000,1000這種形式批量拉取,其實這個SQL每次都是全表掃描,建議添加1個自增id做索引,將SQL改為select xx from xx where id>5000 and id;

  1. +----------+------------+-----------------------------------------------------+ 
  2.  
  3. | Query_ID | Duration | Query | 
  4.  
  5. +----------+------------+-----------------------------------------------------+ 
  6.  
  7. | 1 | 0.00415400 | select * from mytable where id>=90000 and id91000 | 
  8.  
  9. | 2 | 0.10078100 | select * from mytable limit 90000,1000 | 
  10.  
  11. +----------+------------+-----------------------------------------------------+  

合理用好索引,應該可解決大部分SQL問題。當然索引也非越多越好,過多的索引會影響寫操作性能

只select出需要的字段,避免select

  1. +----------+------------+-----------------------------------------------------+ 
  2.  
  3. | Query_ID | Duration | Query | 
  4.  
  5. +----------+------------+-----------------------------------------------------+ 
  6.  
  7. | 1 | 0.02948800 | select count(1) from ( select id from mytable ) a | 
  8.  
  9. | 2 | 1.34369100 | select count(1) from ( select * from mytable ) a | 
  10.  
  11. +----------+------------+-----------------------------------------------------+  

盡量早做過濾,使Join或者Union等后續操作的數據量盡量小

把能在邏輯層算的提到邏輯層來處理,如一些數據排序、時間函數計算等

…….

PS:關于SQL優化,已經有足夠多文章了,所以就不講太全面了,只重點說自己1個感受:索引!基本都是因為索引!

4.SQL層面已難以優化,請求量繼續增大時的應對策略?

下面是我能想到的幾個方法,每個方法又都是一篇大文章了,這里就不展開

分庫分表

使用集群(master-slave),讀寫分離

增加業務的cache層

使用連接池

5.MySQL如何做主從數據同步?

復制機制(Replication)

master通過復制機制,將master的寫操作通過binlog傳到slave生成中繼日志(relaylog),slave再將中繼日志redo,使得主庫和從庫的數據保持同步

復制相關的3個MySQL線程

  1. slave上的I/O線程:向master請求數據
  2. master上的Binlog Dump線程:讀取binlog事件并把數據發送給slave的I/O線程
  3. slave上的SQL線程:讀取中繼日志并執行,更新數據庫

屬于slave主動請求拉取的模式

實際使用可能遇到的問題

數據非強一致:CDB默認為異步復制,master和slave的數據會有一定延遲(稱為主從同步距離,一般 主從同步距離變大:可能是DB寫入壓力大,也可能是slave機器負載高,網絡波動等原因,具體問題具體分析

相關監控命令

show processlist:查看MySQL進程信息,包括3個同步線程的當前狀態

show master status :查看master配置及當前復制信息

show slave status:查看slave配置及當前復制信息

6.如何防止DB誤操作和做好容災?

業務側應做到的幾點:

重要DB數據的手工修改操作,操作前需做到2點:1 先在測試環境操作 2 備份數據

根據業務重要性做定時備份,考慮系統可承受的恢復時間

進行容災演練,感覺很必要

MySQL備份和恢復操作

1.備份:使用MySQLdump導出數據

MySQLdump -u 用戶名 -p 數據庫名 [表名] > 導出的文件名

MySQLdump -uxxx -p xxx mytable > mytable.20140921.bak.sql

2.恢復:導入備份數據

MySQL -uxxx -p xxxx

3.恢復:導入備份數據之后發送的寫操作。先使用MySQLbinlog導出這部分寫操作SQL(基于時間點或位置)

如導出2014-09-21 09:59:59之后的binlog:

  1. MySQLbinlog --database="test" --start-date="2014-09-21 09:59:59" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql 

如導出起始id為123456之后的binlog:

  1. MySQLbinlog --database="test" --start-position="123456" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql 

***把要恢復的binlog導入db

  1. MySQL -uxxxx -p xxxx 

7.該選擇MySQL哪種存儲引擎,Innodb具有什么特性?

存儲引擎簡介

插件式存儲引擎是MySQL的重要特性,MySQL支持多種存儲引擎以滿足用戶的多種應用場景

存儲引擎解決的問題:如何組織MySQL數據在介質中高效地讀取,需考慮存儲機制、索引設計、并發讀寫的鎖機制等

MySQL5.0支持的存儲引擎有MyISAM、InnoDB、Memory、Merge等

**MyISAM和InnoDB的區別(只說重點了)

1.InnoDB

    MySQL5.5之后及CDB的默認引擎。

  • 支持行鎖:并發性能好
  • 支持事務:故InnoDB稱為事務性存儲引擎,支持ACID,提供了具有提交、回滾和崩潰恢復能力的事務安全
  • 支持外鍵:當前唯一支持外鍵的引擎

2.MyISAM

    MySQL5.5之前默認引擎

  • 支持表鎖:插入+查詢速度快,更新+刪除速度慢
  • 不支持事務

使用show engines可查看當前MySQL支持的存儲引擎詳情

 

8.MySQL內部結構有哪些層次?

非專業DBA,這里只簡單貼個結構圖說明下。MySQL是開源系統,其設計思路和源代碼都出自大牛之手,有空可以學習下。

 

 

  1. Connectors:連接器。接收不同語言的Client交互
  2. Management Serveices & Utilities:系統管理和控制工具
  3. Connection Pool: 連接池。管理用戶連接
  4. SQL Interface: SQL接口。接受用戶的SQL命令,并且返回用戶需要查詢的結果
  5. Parser: 解析器。驗證和解析SQL語句成內部數據結構
  6. Optimizer: 查詢優化器。為查詢語句選擇合適的執行路徑
  7. Cache和Buffer:查詢緩存。緩存查詢的結果,有***即可直接返回
  8. Engine:存儲引擎。MySQL數據***組織并存儲成具體文件 
責任編輯:龐桂玉 來源: 數據庫開發
相關推薦

2024-07-04 11:06:47

2011-12-30 10:28:15

Win 8操作系統難題

2011-09-20 17:38:17

2022-04-01 12:40:13

MySQL數據庫

2020-09-30 18:19:27

RedisJava面試

2023-01-28 08:24:28

MySQL索引B+樹

2023-04-26 07:40:34

MySQL索引類型存儲

2012-07-24 14:00:30

2011-11-04 16:01:01

2019-12-30 10:10:32

前端工程師Web 微前端

2023-05-15 10:02:00

分庫分表數據

2011-09-12 14:54:55

神舟筆記本

2022-01-24 14:08:16

Redis面試命令

2017-03-08 14:35:22

存儲云計算華云網際

2019-07-09 17:39:12

存儲

2011-09-22 09:38:27

CIO云計算

2011-09-24 12:26:41

2022-03-21 14:09:19

面試C語言代碼

2011-08-28 16:26:20

清華同方筆記本

2011-12-01 13:20:58

云服務器天地超云
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人美女免费网站视频 | 精品国产精品三级精品av网址 | 日韩成人一区 | 欧美日韩精品久久久免费观看 | 色婷婷一区二区三区四区 | 成人黄页在线观看 | www.中文字幕| 免费看色 | 男人的天堂久久 | 成人精品免费视频 | 天天综合国产 | 国产欧美精品区一区二区三区 | www操操| 欧美午夜影院 | 日韩福利电影 | 91精品国产综合久久久久蜜臀 | 最新中文字幕久久 | 欧美日韩中文字幕在线播放 | 国产亚洲精品久久久久动 | 能看的av网站 | 国产激情视频在线观看 | 精品国产黄a∨片高清在线 www.一级片 国产欧美日韩综合精品一区二区 | 中文字幕免费视频 | 在线视频亚洲 | 午夜精品久久久久久久久久久久久 | 亚洲一区视频在线 | 一区二区三区四区在线免费观看 | 久色 | 精品1区2区3区 | www.五月婷婷.com | 一区二区在线免费观看 | 免费看一区二区三区 | 欧美一区二区三区在线 | 在线观看精品视频网站 | av免费入口 | 久久久久国产精品一区二区 | 欧美日本亚洲 | 国产精品精品视频一区二区三区 | 狠狠狠色丁香婷婷综合久久五月 | 久久久久亚洲国产| 国产美女自拍视频 |