成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一份詳盡的支付平臺高可用架構設計實踐

開發 架構 開發工具
我在前一家公司的第一個任務是開發統一支付平臺,由于公司的業務需求,需要接入多個第三方支付。

我在前一家公司的***個任務是開發統一支付平臺,由于公司的業務需求,需要接入多個第三方支付。

[[269157]]

圖片來自包圖網

之前公司的支付都是散落在各個項目中,極其不利于支付的管理,于是聚合三方支付,統一支付平臺的任務就落在我手上。

可以說是完全從 0 開始設計,經過一番實戰總結,我得出了一些架構設計上的思考。

之前就一直很想把自己的架構設計思路寫出來,但一直沒動手,前幾天在技術群里有人問到相關問題,我覺得有必要把它寫出來,以幫助到更多需要開發支付平臺的開發人員。

組件模式

由于公司業務在很多地區都有,需要提供多種支付途徑,以滿足業務的發展,所以設計的支付平臺需要接入多種第三方支付渠道,如:微信支付、支付寶支付、PayPal、IPayLinks 等等。

我們都知道,每個第三方支付,都有自己的一套對外 API,官方都有一套 SDK 來實現這些 API,我們應該如何組織這些 API 呢?

由于第三方支付渠道會隨著業務的發展變動,所以組織這些 SDK 就需要在不影響支付平臺整體架構的前提下可靈活插拔。

這里我使用了組件的思想,將支付 API 拆分成各種組件支付組件、退款組件、訂單組件、賬單組件等等。

那么這樣就可以當引入一個第三方支付 SDK 時,可靈活在組件上面添加需要的 API,架構設計如下:

通過 Builder 模式根據請求參數構建對應的組件對象,將組件與外部分離,隱藏組件構建的實現。組件模式+Builder 模式使得支付平臺具備了高擴展性。

多賬戶體系

在接入各種第三方支付平臺時,我們又遇到一個賬戶的問題,原因是公司當時的小程序與 App 使用的是不同的微信賬號,因此會出現微信支付會對應到多個賬戶的問題。

而我設計支付平臺時,沒有考慮到這個問題,當時第三方支付只對應了一個賬戶,而且不同的第三方支付的賬戶之間相互獨立且不統一。

于是我引入了多賬戶體系,多賬戶體系最重要的一個核心概念是以賬戶為粒度,接入多個第三方支付,統一賬戶的參數,構建了統一的支付賬戶體系。

支付平臺無需關心不同支付之間的賬戶差異以及第三方支付是否有多少個賬戶。

此時我在支付平臺架構圖加上賬戶層:

前端只需要傳遞 AccountId,支付平臺就可以根據 AccountId 查詢出對應的支付賬戶。

然后通過 Builder 模式構建支付賬戶對應的組件對象,完全屏蔽不同支付之間的差異。

在多賬戶體系里面,可以支持***多個支付賬戶,完全滿足了公司業務的發展需求。

統一回調與異步分發處理

做過支付開發的同學都知道,目前的第三方支付都有一個特點,就是支付/退款成功后,會有一個支付/退款回調的功能,目的是為了讓商戶平臺自行校驗該筆訂單是否合法。

比如:防止在支付時,客戶端惡意篡改金額等參數,那么此時支付成功后,訂單會處于支付中狀態,需要等待第三方支付的回調。

如果此時收到了回調,在校驗時發現訂單的金額與支付的金額不對,然后將訂單改成支付失敗,以防止資金損失。

回調的思想是保證最終的一致性,所以我們調起支付時,并不需要在此時校驗參數的正確性,只需要在回調時校驗即可。

講完了回調的目的,那么我們如何來設計支付平臺的回調呢?由于支付平臺接入了多個第三方支付,如果此時每個第三方支付設置一個回調地址,那么將會出現多個回調地址。

由于回調的 API 必須是暴露出去才能接受第三方的回調請求,所以就會有安全問題。

我們必須在 API 外層設置安全過濾,不然很容易出現一些非法訪問暴力破解,所以我們需要統一回調 API,統一做安全校驗,之后再進行一層分發。

分發的機制我這里建議用 RocketMQ 來處理,可能有人會問,如果用 RocketMQ 來做分發處理,此時怎么實時返回校驗結果到第三方支付呢?

這個問題也是我當時一直頭疼的問題,以下是我對回調設計的一些思考:

①公司的系統是基于 Spring Cloud 微服務架構,微服務之間通過 HTTP 通信,當時有很多個微服務接入了我的支付平臺,如果用 HTTP 作分發,可以保證消息返回的實時性。

但也會出現一個問題,由于網絡不穩定,就會出現請求失敗或超時的問題,接口的穩定性得不到保障。

②由于第三方支付如果收到 False 響應,就在接下來一段時間內再次發起回調請求。

這么做的目的是為了保證回調的成功率,對于第三方支付來說,這沒毛病,但對于商戶支付平臺來說,也許就是一個比較坑爹的設計。

你想一下,假設有一筆訂單在支付時惡意篡改了金額,回調校驗失敗,返回 False 到第三方支付,此時第三方支付會再重復發送回調,無論發送多少次回調,都會校驗失敗。

這就額外增加了不必要的交互,當然這里也可以用冪等作處理,以下是微信支付回調的應用場景說明:

基于以上兩點思考,我認為返回 False 到第三方支付是沒必要的,為了系統的健壯性,我采用了消息隊列來做異步分發,支付平臺收到回調請求后直接返回 True。

這時你可能會提出一個疑問,如果此時校驗失敗了,但此時返回 true,會不會出現問題?

首先,校驗失敗情況,訂單必定是處于支付失敗的狀態,此時返回 True 的目的是為了減少與第三方支付不必要的遠程交互。

因為 RocketMQ 的消息是持久化到磁盤的,所以用消息隊列來做異步分發***的好處,就是可以復查消息隊列里面的消息來排查問題,而且消息隊列可以在業務的高峰期進行流量削峰。

以下是統一回調與分發處理的架構設計圖:

聚合支付

支付平臺聚合了多種第三方支付,因此在請求層需要做很多的適配工作,以滿足多種支付的需求。

可能你會想,直接在適配那里加幾行 if else 不就得了嗎,這么做也沒問題,也可以滿足多種支付的需求,但你有沒有想過,假設此時再加一個第三方支付,你會怎么做?

你只能在原有方法上加多個 else 條件,這樣就會導致請求層代碼不斷地隨著業務發展改變,使得代碼極其不優雅,而且也不好維護。

這時我們就得用上策略模式,將這些 if else 代碼消除,當我們增加一個第三方支付時,我們只需要新建一個 Strategy 類就可以了,策略模式究竟怎么使用可以看看大話設計模式。

因此我在 Builder 模式前加多了一層支付策略層:

請求處理

由于支付平臺涉及到資金,支付的各種請求與返回,以及異常記錄在一個支付平臺中異常重要,因此我們需要記錄每一次的支付請求記錄,以便后續排查問題。

基于這點需求,我在開始請求第三方支付之前,設計了一層 Handler 層,所有的請求都必須經過 Handler 層進行處理,Handler 核心方法如下:

  1. public K handle(T t) { 
  2.   K k; 
  3.   try { 
  4.     before(t); 
  5.     k = execute(t); 
  6.     after(k); 
  7.   } catch (Exception e) { 
  8.     exception(t, e); 
  9.   } 
  10.   return k; 
  11. protected abstract void before(T t); 
  12. protected abstract void after(K k); 
  13. protected abstract void exception(T t, Exception exception); 

原則上來說,我設計的 Handler 層,利用了模版模式,不僅僅可以實現日志的記錄,還可以實現多種處理方式,比如請求監控,消息推送等等,實現了 Handler 層的高擴展性。

以下是 Handler 層的架構設計圖:

寫在***

以上就是我的支付平臺架構設計思路,總結來說,支付平臺需要具備可擴展性、穩定性、高可用性。

因此我在設計支付平臺時使用了很多設計模式以及引入消息隊列處理回調分發的問題,使得支付平臺具備這幾點特性。

希望能夠給你一些啟發與幫助,***我把支付平臺整體的架構設計圖貼出來:

 

責任編輯:武曉燕 來源: 后端進階
相關推薦

2020-07-14 15:10:21

Redis架構代碼

2019-06-13 18:50:47

支付平臺架構設計

2021-03-09 20:52:01

架構無狀態服務

2020-04-22 14:25:48

云開發高可用架構

2018-05-16 09:00:00

物聯網物聯網平臺IoT

2020-07-10 08:50:37

大數據銀行技術

2021-04-28 08:52:22

高并發架構設高并發系統

2025-03-03 04:20:00

高可用架構冗余法則

2015-09-21 15:00:54

聯想OpenStack企業云平臺

2015-12-16 11:27:52

Google高可用架構

2022-09-28 17:59:03

MQ消息中間件

2021-02-24 10:05:07

架構運維技術

2017-09-13 13:42:09

微服務緩存架構

2023-03-27 08:05:27

數字化轉型MLOps

2021-06-24 08:30:08

架構億級消息中心數據

2017-10-10 15:20:10

架構數據存儲PB級數據

2019-08-27 09:20:35

微服務架構組件

2017-10-27 14:52:31

互聯網高可用架構高可用

2016-03-25 09:57:09

統一監控報警平臺運維

2009-06-22 14:48:21

DRY架構設計
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 希岛爱理在线 | 九九热精品在线 | 浮生影院免费观看中文版 | 免费的色网站 | 国产一级久久久久 | 国产在线一区观看 | 欧美视频在线一区 | 在线婷婷 | 天天操夜夜操 | 天天草天天 | 色天天综合 | 一区二区在线不卡 | 中文字幕 在线观看 | 免费成人高清在线视频 | 亚洲精品电影 | 99久久精品国产毛片 | 91av在线影院 | 日本特黄a级高清免费大片 国产精品久久性 | 欧美极品在线视频 | 国产精品毛片久久久久久 | 久久久影院 | 精品一区二区三区四区在线 | 91影片 | 国产91精品久久久久久久网曝门 | 国产清纯白嫩初高生视频在线观看 | 午夜视频在线观看网址 | 日韩一区二区免费视频 | 中文字幕色站 | 免费国产一区二区视频 | 欧美日韩一二三区 | 国产免费av在线 | 极品销魂美女一区二区 | 成人乱人乱一区二区三区软件 | 久久久久久久久淑女av国产精品 | 国产黄色在线观看 | 亚洲精品久久久蜜桃 | 精品国产精品一区二区夜夜嗨 | 亚洲精品在线视频 | 91看片在线观看 | 精品美女视频在免费观看 | 免费看91 |