成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

專車數據層「架構進化」往事

開發 架構 數據庫
親歷了專車數據層「架構進化」的過程,這次工作經歷對我而言非常有啟發性,也讓我經常感慨:“好的架構果然是一點點進化來的”。

很多年前,讀了 子柳 老師的《淘寶技術這十年》。這本書成為了我的架構啟蒙書,書中的一句話像種子一樣深埋在我的腦海里: “好的架構是進化來的,不是設計來的” 。

2015年,我加入神州專車訂單研發團隊,親歷了專車數據層「架構進化」的過程。這次工作經歷對我而言非常有啟發性,也讓我經常感慨:“好的架構果然是一點點進化來的”。

1 單數據庫架構

產品初期,技術團隊的核心目標是: “快速實現產品需求,盡早對外提供服務” 

彼時的專車服務都連同一個 SQLServer 數據庫,服務層已經按照業務領域做了一定程度的拆分。

這種架構非常簡單,團隊可以分開協作,效率也極高。隨著專車訂單量的不斷增長,早晚高峰期,用戶需要打車的時候,點擊下單后經常無響應。

系統層面來看:

  • 數據庫瓶頸顯現。頻繁的磁盤操作導致數據庫服務器 IO 消耗增加,同時多表關聯,排序,分組,非索引字段條件查詢也會讓 cpu 飆升,最終都會導致數據庫連接數激增;
  • 網關大規模超時。在高并發場景下,大量請求直接操作數據庫,數據庫連接資源不夠用,大量請求處于阻塞狀態。

2  SQL優化和讀寫分離

為了緩解主數據庫的壓力,很容易就想到的策略: SQL優化 。通過性能監控平臺和 DBA 同學協作分析出業務慢 SQL ,整理出優化方案:

  • 合理添加索引;
  • 減少多表 JOIN 關聯,通過程序組裝,減少數據庫讀壓力;
  • 減少大事務,盡快釋放數據庫連接。

另外一個策略是: 讀寫分離 。

讀寫分離的基本原理是讓主數據庫處理事務性增、改、刪操作( INSERT、UPDATE、DELETE),而從數據庫處理 SELECT 查詢操作。

專車架構團隊提供的 框架 中,支持讀寫分離,于是數據層架構進化為如下圖:

讀寫分離可以減少主庫寫壓力,同時讀從庫可水平擴展。當然,讀寫分離依然有局限性:

  • 讀寫分離可能面臨主從延遲的問題,訂單服務載客流程中對實時性要求較高,因為擔心延遲問題,大量操作依然使用主庫查詢;
  • 讀寫分離可以緩解讀壓力,但是寫操作的壓力隨著業務爆發式的增長并沒有很有效的緩解。

3  業務領域分庫

雖然應用層面做了優化,數據層也做了讀寫分離,但主庫的壓力依然很大。接下來,大家不約而同的想到了 業務領域分庫 ,也就是:將數據庫按業務領域拆分成不同的業務數據庫,每個系統僅訪問對應業務的數據庫。

業務領域分庫可以緩解核心訂單庫的性能壓力,同時也減少系統間的相互影響,提升了系統整體穩定性。

隨之而來的問題是:原來單一數據庫時,簡單的使用 JOIN 就可以滿足需求,但拆分后的業務數據庫在不同的實例上,就不能跨庫使用 JOIN了,因此需要對 系統邊界重新梳理,業務系統也需要重構 。

重構重點包含兩個部分:

  • 原來需要 JOIN 關聯的查詢修改成 RPC 調用,程序中組裝數據 ;
  • 業務表適當冗余字段,通過消息隊列或者異構工具同步。

4 緩存和MQ

專車服務中,訂單服務是并發量和請求量最高,也是業務中最核心的服務。雖然通過業務領域分庫,SQL 優化提升了不少系統性能,但訂單數據庫的寫壓力依然很大,系統的瓶頸依然很明顯。

于是,訂單服務引入了 緩存   MQ  。

乘客在用戶端點擊 立即叫車 ,訂單服務創建訂單,首先保存到數據庫后,然后將訂單信息同步保存到緩存中。

在訂單的載客生命周期里,訂單的修改操作先修改緩存,然后發送消息到 MetaQ  ,訂單落盤服務消費消息,并判斷訂單信息是否正常(比如有無亂序),若訂單數據無誤,則存儲到數據庫中。

核心邏輯有兩點:

  1. 緩存集群中存儲最近七天訂單詳情信息,大量訂單讀請求直接從緩存獲??;
  2. 在訂單的載客生命周期里,寫操作先修改緩存,通過消息隊列異步落盤,這樣消息隊列可以起到消峰的作用,同樣可以降低數據庫的壓力。

這次優化提升了訂單服務的整體性能,也為后來訂單服務庫分庫分表以及異構打下了堅實的基礎。

5 從 SQLServer 到 MySQL

業務依然在爆炸增長,每天幾十萬訂單,訂單表數據量很快將過億,數據庫天花板遲早會觸及。

訂單 分庫分表 已成為技術團隊的共識。業界很多分庫分表方案都是基于 MySQL 數據庫,專車技術管理層決定先將訂單庫整體先從 SQLServer 遷移到 MySQL 。

遷移之前, 準備工作 很重要 :

  • SQLServer 和 MySQL 兩種數據庫語法有一些差異,訂單服務必須要適配 MySQL 語法。
  • 訂單 order_id 是主鍵自增,但在分布式場景中并不合適,需要將訂單 id 調整為分布式模式。

當準備工作完成后,才開始遷移。

遷移過程分兩部分: 歷史全量數據遷移  增量數據遷移 。

歷史數據全量遷移主要是 DBA 同學通過工具將訂單庫同步到獨立的 MySQL 數據庫。

增量數據遷移:因為 SQLServer 無 binlog 日志概念,不能使用 maxwell 和 canal 等類似解決方案。訂單團隊重構了訂單服務代碼,每次訂單寫操作的時候,會發送一條 MQ 消息到 MetaQ 。為了確保遷移的可靠性,還需要將新庫的數據同步到舊庫,也就是需要做到 雙向同步 。

遷移流程:

  1. 首先訂單服務(SQLServer版)發送訂單變更消息到 MetaQ ,此時并不開啟「舊庫消息消費」,讓消息先堆積在 MetaQ 里;
  2. 然后開始遷移歷史全量數據,當全量遷移完成后,再開啟「舊庫消息消費」,這樣新訂單庫就可以和舊訂單庫數據保持同步了;
  3. 開啟「新庫消息消費」,然后部署訂單服務( MySQL 版),此時訂單服務有兩個版本同時運行,檢測數據無誤后,逐步增加新訂單服務流量,直到老訂單服務完全下線。

6 自研分庫分表組件

業界分庫分表一般有 proxy 和 client 兩種流派。

proxy模式

代理層分片方案業界有 Mycat , cobar 等 。

它的優點:應用零改動,和語言無關,可以通過連接共享減少連接數消耗。缺點:因為是代理層,存在額外的時延。

client模式

應用層分片方案業界有 sharding-jdbc , TDDL 等。

它的優點:直連數據庫,額外開銷小,實現簡單,輕量級中間件。缺點:無法減少連接數消耗,有一定的侵入性,多數只支持Java語言。

神州架構團隊選擇 自研 分庫分表組件,采用了 client 模式 ,組件命名: SDDL 。

訂單服務需要引入是 SDDL 的 jar 包,在配置中心配置 數據源信息   sharding key   , 路由規則 等,訂單服務只需要配置一個 datasourceId  即可。

7 分庫分表策略

7.1 乘客維度

專車訂單數據庫的查詢主維度是: 乘客 ,乘客端按乘客 user_id 和 訂單 order_id 查詢頻率最高,我們選擇 user_id 做為 sharding key  ,相同用戶的訂單數據存儲到同一個數據庫中。

分庫分表組件 SDDL 和阿里開源的數據庫中間件 cobar 路由算法非常類似的。

為了便于思維擴展,先簡單介紹下 cobar 的分片算法。

假設現在需要將訂單表平均拆分到4個分庫 shard0 ,shard1 ,shard2 ,shard3 。首先將 [0-1023] 平均分為4個區段:[0-255],[256-511],[512-767],[768-1023],然后對字符串(或子串,由用戶自定義)做 hash, hash 結果對1024取模,最終得出的結果 slot  落入哪個區段,便路由到哪個分庫。

cobar 的默認路由算法 ,可以和 雪花算法  天然融合在一起, 訂單 order_id  使用雪花算法,我們可以將 slot 的值保存在 10位工作機器ID  里。

通過訂單 order_id 可以反查出 slot , 就可以定位該用戶的訂單數據存儲在哪個分區里。

Integer getWorkerId(Long orderId) {
Long workerId = (orderId >> 12) & 0x03ff;
return workerId.intValue();
}

專車 SDDL 分片算法和 cobar 差異點在于:

  1. cobar 支持最大分片數是1024,而 SDDL 最大支持分庫數1024*8=8192,同樣分四個訂單庫,每個分片的 slot 區間范圍是2048 ;

  1. 因為要支持8192個分片,雪花算法要做一點微調,雪花算法的10位工作機器修改成 13 位工作機器,時間戳也調整為: 38 位時間戳(由某個時間點開始的毫秒數)。

7.2  司機維度

雖然解決了主維度乘客分庫分表問題,但專車還有另外一個查詢維度,在司機客戶端,司機需要查詢分配給他的訂單信息。

我們已經按照乘客 user_id 作為 sharding key ,若按照司機 driver_id 查詢訂單的話,需要廣播到每一個分庫并聚合返回,基于此,技術團隊選擇將乘客維度的訂單數據 異構 到以司機維度的數據庫里。

司機維度的分庫分表策略和乘客維度邏輯是一樣的,只不過 sharding key 變成了司機 driver_id 。

異構神器 canal 解析乘客維度四個分庫的 binlog ,通過 SDDL 寫入到司機維度的四個分庫里。

這里大家可能有個疑問:雖然可以異構將訂單同步到司機維度的分庫里,畢竟有些許延遲,如何保證司機在司機端查詢到最新的訂單數據呢 ?

 緩存和MQ 這一小節里提到:緩存集群中存儲最近七天訂單詳情信息,大量訂單讀請求直接從緩存獲取。訂單服務會緩存司機和當前訂單的映射,這樣司機端的大量請求就可以直接緩存中獲取,而司機端查詢訂單列表的頻率沒有那么高,異構復制延遲在10毫秒到30毫秒之間,在業務上是完全可以接受的。

7.3  運營維度

專車管理后臺,運營人員經常需要查詢訂單信息,查詢條件會比較復雜,專車技術團隊采用的做法是:訂單數據落盤在乘客維度的訂單分庫之后,通過 canal 把數據同步到Elastic Search。

7.4 小表廣播

業務中有一些配置表,存儲重要的配置,讀多寫少。在實際業務查詢中,很多業務表會和配置表進行聯合數據查詢。但在數據庫水平拆分后,配置表是無法拆分的。

小表廣播的原理是:將小表的所有數據(包括增量更新)自動廣播(即復制)到大表的機器上。這樣,原來的分布式 JOIN 查詢就變成單機本地查詢,從而大大提高了效率。

專車場景下,小表廣播是非常實用的需求。比如: 城市表 是非常重要的配置表,數據量非常小,但訂單服務,派單服務,用戶服務都依賴這張表。

通過 canal 將基礎配置數據庫城市表同步到訂單數據庫,派單數據庫,用戶數據庫。

8 平滑遷移

分庫分表組件 SDDL  研發完成,并在生產環境得到一定程度的驗證后,訂單服務從單庫 MySQL 模式遷移到分庫分表模式條件已經成熟。

遷移思路其實和 從 SQLServer 到 MySQL 非常類似。

整體遷移流程:

  1. DBA 同學準備乘客維度的四個分庫,司機維度的四個分庫 ,每個分庫都是最近某個時間點的全量數據;
  2. 八個分庫都是全量數據,需要按照分庫分表規則刪除八個分庫的冗余數據 ;
  3. 開啟正向同步,舊訂單數據按照分庫分表策略落盤到乘客維度的分庫,通過 canal 將乘客維度分庫訂單數據異構復制到司機維度的分庫中;
  4. 開啟反向同步,修改訂單應用的數據源配置,重啟訂單服務,訂單服務新創建的訂單會落盤到乘客維度的分庫,通過 canal 將乘客維度分庫訂單數據異構到 全量訂單庫 以及司機維度的數據庫;
  5. 驗證數據無誤后,逐步更新訂單服務的數據源配置,完成整體遷移。

9 數據交換平臺

專車訂單已完成分庫分表 , 很多細節都值得復盤:

  1. 全量歷史數據遷移需要 DBA 介入 ,技術團隊沒有成熟的工具或者產品輕松完成;
  2. 增量數據遷移通過 canal 來實現。隨著專車業務的爆發增長,數據庫鏡像,實時索引構建,分庫異構等需求越來越多,雖然canal 非常優秀,但它還是有瑕疵,比如缺失任務控制臺,數據源管理能力,任務級別的監控和報警,操作審計等功能。

面對這些問題,架構團隊的目標是打造一個平臺,滿足各種異構數據源之間的實時增量同步和離線全量同步,支撐公司業務的快速發展。

基于這個目標,架構團隊自研了 dataLink 用于增量數據同步,深度定制了阿里開源的 dataX 用于全量數據同步。

10 寫到最后

專車 架構進化 之路并非一帆風順,也有波折和起伏,但一步一個腳印,專車的技術儲備越來越深厚。

責任編輯:張燕妮 來源: 服務端思維
相關推薦

2022-03-24 10:51:41

架構技術數據庫

2022-05-09 11:29:42

架構數據

2018-05-14 12:30:37

數據驅動算法優化

2018-08-22 17:58:01

數據平臺數據倉庫架構

2024-09-24 13:16:17

數據中臺數據飛輪

2021-05-08 08:33:00

Rocketmq日志數據源

2021-03-26 10:38:32

云計算

2012-06-07 10:53:08

架構設計數據訪問層設計原則

2020-03-03 08:40:16

細腰架構進化

2012-10-08 14:44:10

Windows往事

2018-11-04 08:17:41

2017-11-24 08:32:04

架構設計存儲

2023-11-09 16:12:06

大數據大數據堆棧

2024-12-02 09:26:17

2011-09-01 09:34:21

架構

2018-10-31 14:32:53

數據中心網絡架構

2011-11-02 09:01:30

系統架構師

2019-05-27 08:47:51

2019-04-30 14:17:56

中關村零售業創業者

2015-08-27 13:00:01

數據中心供電架構
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品无码久久久久 | 亚洲一区在线日韩在线深爱 | 国产高清一区二区三区 | 伊人伊成久久人综合网站 | 国产精品久久久久久久久久久久午夜片 | www.操.com| 一级视频黄色 | 欧美专区在线观看 | av毛片在线播放 | 香蕉婷婷 | 人人干人人干人人 | 欧美国产日韩一区二区三区 | www.黄色网 | 欧美精品福利 | 亚洲精品4 | 国产一区影院 | 在线观看免费av网 | 丝袜美腿av| 日本三级视频 | 亚洲一区二区视频 | 亚洲精品一 | 日韩一区二区在线看 | 网页av| 成人高清视频在线观看 | 欧美黑人巨大videos精品 | 中文字幕91 | 亚洲欧美aⅴ | 精品一区二区三区在线观看 | 亚洲欧美激情国产综合久久久 | 亚洲精品高清视频 | 中文字幕日韩欧美一区二区三区 | 亚洲成色777777在线观看影院 | 久久国产精品一区二区 | 天堂av在线影院 | 亚洲精品91 | 精品久久国产 | 最新中文字幕在线 | 日韩不卡在线 | 理论片午午伦夜理片影院 | 91看片网站 | 国产精品久久久久一区二区 |