成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

實戰!聊聊如何解決MySQL深分頁問題

數據庫 MySQL
我們日常做分頁需求時,一般會用limit實現,但是當偏移量特別大的時候,查詢效率就變得低下。本文將分四個方案,討論如何優化MySQL百萬數據的深分頁問題,并附上最近優化生產慢SQL的實戰案例。

[[425646]]

前言

大家好,我是撿田螺的小男孩。(求個星標置頂)

我們日常做分頁需求時,一般會用limit實現,但是當偏移量特別大的時候,查詢效率就變得低下。本文將分四個方案,討論如何優化MySQL百萬數據的深分頁問題,并附上最近優化生產慢SQL的實戰案例。

limit深分頁為什么會變慢?

先看下表結構哈:

  1. CREATE TABLE account ( 
  2.   id int(11) NOT NULL AUTO_INCREMENT COMMENT '主鍵Id'
  3.   name varchar(255) DEFAULT NULL COMMENT '賬戶名'
  4.   balance int(11) DEFAULT NULL COMMENT '余額'
  5.   create_time datetime NOT NULL COMMENT '創建時間'
  6.   update_time datetime NOT NULL ON UPDATE CURRENT_TIMESTAMP COMMENT '更新時間'
  7.   PRIMARY KEY (id), 
  8.   KEY idx_name (name), 
  9.   KEY idx_update_time (update_time) //索引 
  10. ) ENGINE=InnoDB AUTO_INCREMENT=1570068 DEFAULT CHARSET=utf8 ROW_FORMAT=REDUNDANT COMMENT='賬戶表'

假設深分頁的執行SQL如下:

  1. select id,name,balance from account where update_time> '2020-09-19' limit 100000,10; 

這個SQL的執行時間如下:

執行完需要0.742秒,深分頁為什么會變慢呢?如果換成 limit 0,10,只需要0.006秒哦

我們先來看下這個SQL的執行流程:

  1. 通過普通二級索引樹idx_update_time,過濾update_time條件,找到滿足條件的記錄ID。
  2. 通過ID,回到主鍵索引樹,找到滿足記錄的行,然后取出展示的列(回表)
  3. 掃描滿足條件的100010行,然后扔掉前100000行,返回。

SQL的執行流程

執行計劃如下:

SQL變慢原因有兩個:

  1. limit語句會先掃描offset+n行,然后再丟棄掉前offset行,返回后n行數據。也就是說limit 100000,10,就會掃描100010行,而limit 0,10,只掃描10行。
  2. limit 100000,10 掃描更多的行數,也意味著回表更多的次數。

通過子查詢優化

因為以上的SQL,回表了100010次,實際上,我們只需要10條數據,也就是我們只需要10次回表其實就夠了。因此,我們可以通過減少回表次數來優化。

回顧B+ 樹結構

那么,如何減少回表次數呢?我們先來復習下B+樹索引結構哈~

InnoDB中,索引分主鍵索引(聚簇索引)和二級索引

  • 主鍵索引,葉子節點存放的是整行數據
  • 二級索引,葉子節點存放的是主鍵的值。

把條件轉移到主鍵索引樹

如果我們把查詢條件,轉移回到主鍵索引樹,那就可以減少回表次數啦。轉移到主鍵索引樹查詢的話,查詢條件得改為主鍵id了,之前SQL的update_time這些條件咋辦呢?抽到子查詢那里嘛~

子查詢那里怎么抽的呢?因為二級索引葉子節點是有主鍵ID的,所以我們直接根據update_time來查主鍵ID即可,同時我們把 limit 100000的條件,也轉移到子查詢,完整SQL如下:

  1. select id,name,balance FROM account where id >= (select a.id from account a where a.update_time >= '2020-09-19' limit 100000, 1) LIMIT 10; 

查詢效果一樣的,執行時間只需要0.038秒!

我們來看下執行計劃

由執行計劃得知,子查詢 table a查詢是用到了idx_update_time索引。首先在索引上拿到了聚集索引的主鍵ID,省去了回表操作,然后第二查詢直接根據第一個查詢的 ID往后再去查10個就可以了!

因此,這個方案是可以的~

INNER JOIN 延遲關聯

延遲關聯的優化思路,跟子查詢的優化思路其實是一樣的:都是把條件轉移到主鍵索引樹,然后減少回表。不同點是,延遲關聯使用了inner join代替子查詢。

優化后的SQL如下:

  1. SELECT  acct1.id,acct1.name,acct1.balance FROM account acct1 INNER JOIN (SELECT a.id FROM account a WHERE a.update_time >= '2020-09-19' ORDER BY a.update_time LIMIT 100000, 10) AS  acct2 on acct1.id= acct2.id; 

查詢效果也是杠桿的,只需要0.034秒

執行計劃如下:

查詢思路就是,先通過idx_update_time二級索引樹查詢到滿足條件的主鍵ID,再與原表通過主鍵ID內連接,這樣后面直接走了主鍵索引了,同時也減少了回表。

標簽記錄法

limit 深分頁問題的本質原因就是:偏移量(offset)越大,mysql就會掃描越多的行,然后再拋棄掉。這樣就導致查詢性能的下降。

其實我們可以采用標簽記錄法,就是標記一下上次查詢到哪一條了,下次再來查的時候,從該條開始往下掃描。就好像看書一樣,上次看到哪里了,你就折疊一下或者夾個書簽,下次來看的時候,直接就翻到啦。

假設上一次記錄到100000,則SQL可以修改為:

  1. select  id,name,balance FROM account where id > 100000 order by id limit 10; 

這樣的話,后面無論翻多少頁,性能都會不錯的,因為命中了id索引。但是這種方式有局限性:需要一種類似連續自增的字段。

使用between...and...

很多時候,可以將limit查詢轉換為已知位置的查詢,這樣MySQL通過范圍掃描between...and,就能獲得到對應的結果。

如果知道邊界值為100000,100010后,就可以這樣優化:

  1. select  id,name,balance FROM account where id between 100000 and 100010 order by id; 

手把手實戰案例

我們一起來看一個實戰案例哈。假設現在有表結構如下,并且有200萬數據.

  1. CREATE TABLE account ( 
  2.  id varchar(32) COLLATE utf8_bin NOT NULL COMMENT '主鍵'
  3.  account_no varchar(64) COLLATE utf8_bin NOT NULL DEFAULT '' COMMENT '賬號' 
  4.  amount decimal(20,2) DEFAULT NULL COMMENT '金額' 
  5.  type varchar(10) COLLATE utf8_bin DEFAULT NULL COMMENT '類型A,B' 
  6.  create_time datetime DEFAULT NULL COMMENT '創建時間'
  7.  update_time datetime DEFAULT NULL COMMENT '更新時間'
  8.  PRIMARY KEY (id), 
  9.  KEY `idx_account_no` (account_no), 
  10.  KEY `idx_create_time` (create_time) 
  11.  ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin COMMENT='賬戶表'  

業務需求是這樣:獲取最2021年的A類型賬戶數據,上報到大數據平臺。

一般思路的實現方式

很多伙伴接到這么一個需求,會直接這么實現了:

  1. //查詢上報總數量 
  2. Integer total = accountDAO.countAccount(); 
  3.  
  4. //查詢上報總數量對應的SQL 
  5. <select id ='countAccount' resultType="java.lang.Integer"
  6.   seelct count(1)  
  7.   from account 
  8.   where create_time >='2021-01-01 00:00:00' 
  9.   and  type ='A' 
  10. </select
  11.  
  12. //計算頁數 
  13. int pageNo = total % pageSize == 0 ? total / pageSize : (total / pageSize + 1); 
  14.  
  15. //分頁查詢,上報 
  16. for(int i = 0; i < pageNo; i++){ 
  17.  List<AcctountPO> list = accountDAO.listAccountByPage(startRow,pageSize); 
  18.  startRow = (pageNo-1)*pageSize; 
  19.  //上報大數據 
  20.  postBigData(list); 
  21.   
  22. //分頁查詢SQL(可能存在limit深分頁問題,因為account表數據量幾百萬) 
  23. <select id ='listAccountByPage' > 
  24.   seelct *  
  25.   from account 
  26.   where create_time >='2021-01-01 00:00:00' 
  27.   and  type ='A' 
  28.   limit #{startRow},#{pageSize} 
  29. </select

 實戰優化方案

以上的實現方案,會存在limit深分頁問題,因為account表數據量幾百萬。那怎么優化呢?

其實可以使用標簽記錄法,有些伙伴可能會有疑惑,id主鍵不是連續的呀,真的可以使用標簽記錄?

當然可以,id不是連續,我們可以通過order by讓它連續嘛。優化方案如下:

  1. //查詢最小ID 
  2. String  lastId = accountDAO.queryMinId(); 
  3.  
  4. //查詢最大ID對應的SQL 
  5. <select id="queryMinId" returnType=“java.lang.String”> 
  6. select MIN(id)  
  7. from account 
  8. where create_time >='2021-01-01 00:00:00' 
  9. and type ='A' 
  10. </select
  11.  
  12. //一頁的條數 
  13. Integer pageSize = 100; 
  14.  
  15. List<AcctountPO> list ; 
  16. do{ 
  17.    list = listAccountByPage(lastId,pageSize); 
  18.    //標簽記錄法,記錄上次查詢過的Id 
  19.    lastId = list.get(list,size()-1).getId(); 
  20.     //上報大數據 
  21.     postBigData(list); 
  22. }while(CollectionUtils.isNotEmpty(list)); 
  23.  
  24. <select id ="listAccountByPage"
  25.   select *  
  26.   from account  
  27.   where create_time >='2021-01-01 00:00:00' 
  28.   and id > #{lastId} 
  29.   and type ='A' 
  30.   order by id asc   
  31.   limit #{pageSize} 
  32. </select

本文轉載自微信公眾號「撿田螺的小男孩」,可以通過以下二維碼關注。轉載本文請聯系撿田螺的小男孩公眾號。

 

責任編輯:武曉燕 來源: 撿田螺的小男孩
相關推薦

2021-11-09 10:20:15

MySQL深分頁數據庫

2021-09-27 13:33:03

MySQL深分頁數據庫

2024-12-05 09:06:58

2023-10-30 18:35:47

MySQL主從延時

2010-10-27 15:40:14

oracle分頁查詢

2012-09-05 11:09:15

SELinux操作系統

2021-10-20 20:27:55

MySQL死鎖并發

2025-02-11 12:29:58

2011-08-08 10:29:12

MySQL

2010-04-29 17:46:31

Oracle死鎖

2021-03-08 08:16:42

MySQL分離架構

2011-03-15 13:30:27

IBatis.netMySQL

2011-08-29 10:34:00

網絡安全云安全云計算

2021-06-06 13:05:15

前端跨域CORS

2011-03-23 14:42:47

CPU過度消耗

2017-10-17 09:21:06

2010-07-16 13:52:26

telnet漏洞

2017-07-20 07:30:16

大數據數據互聯網

2024-10-29 16:41:24

SpringBoot跨域Java

2013-05-21 10:49:59

Windows硬件沖突
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: www久久久| 最新国产精品精品视频 | 国产精品日韩高清伦字幕搜索 | 午夜天堂 | 久久久久久国产精品三区 | 精品一区二区在线观看 | 日日夜夜草 | 中文字幕乱码一区二区三区 | 亚洲区视频 | 国产午夜精品理论片a大结局 | 蜜桃在线播放 | 国产一区二区久久 | 97精品国产 | av天天干 | 亚洲精品日韩一区二区电影 | 在线欧美| 久草.com | 日日夜夜精品 | 精品不卡 | 成人av电影天堂 | 久久久久久免费毛片精品 | 男人天堂免费在线 | 国产www在线 | 美国av毛片| 久久久亚洲一区 | 国产东北一级毛片 | 中文字幕综合 | 国产成人一区二区三区 | 日韩久久中文字幕 | 欧洲一区二区在线 | 精品久久99 | 亚洲风情在线观看 | 久久久精品网 | 97精品超碰一区二区三区 | 中文字幕在线免费观看 | 国产精品18久久久 | 在线不卡一区 | 人人cao | 91麻豆精品国产91久久久更新资源速度超快 | 欧美视频xxx | 91视频播放 |