成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

閑話高并發(fā)的那些神話,看京東架構(gòu)師如何把它拉下神壇

開發(fā) 開發(fā)工具 架構(gòu)
高并發(fā)也算是這幾年的熱門詞匯了,尤其在互聯(lián)網(wǎng)圈,開口不聊個高并發(fā)問題,都不好意思出門。高并發(fā)有那么邪乎嗎?

高并發(fā)也算是這幾年的熱門詞匯了,尤其在互聯(lián)網(wǎng)圈,開口不聊個高并發(fā)問題,都不好意思出門。高并發(fā)有那么邪乎嗎?動不動就千萬并發(fā)、億級流量,聽上去的確挺嚇人。但仔細想想,這么大的并發(fā)與流量不都是通過路由器來的嗎?

[[236070]]

一、一切源自網(wǎng)卡

高并發(fā)的流量通過低調(diào)的路由器進入我們系統(tǒng),第一道關(guān)卡就是網(wǎng)卡,網(wǎng)卡怎么抗住高并發(fā)?這個問題壓根就不存在,千萬并發(fā)在網(wǎng)卡看來,一樣一樣的,都是電信號,網(wǎng)卡眼里根本區(qū)分不出來你是千萬并發(fā)還是一股洪流,所以衡量網(wǎng)卡牛不牛都說帶寬,從來沒有并發(fā)量的說法。

網(wǎng)卡位于物理層和鏈路層,最終把數(shù)據(jù)傳遞給網(wǎng)絡(luò)層(IP層),在網(wǎng)絡(luò)層有了IP地址,已經(jīng)可以識別出你是千萬并發(fā)了,所以搞網(wǎng)絡(luò)層的可以自豪的說,我解決了高并發(fā)問題,可以出來吹吹牛了。誰沒事搞網(wǎng)絡(luò)層呢?主角就是路由器,這玩意主要就是玩兒網(wǎng)絡(luò)層。

二、一頭霧水

非專業(yè)的我們,一般都把網(wǎng)絡(luò)層(IP層)和傳輸層(TCP層)放到一起,操作系統(tǒng)提供,對我們是透明的,很低調(diào)、很靠譜,以至于我們都把他忽略了。

吹過的牛是從應(yīng)用層開始的,應(yīng)用層一切都源于Socket,那些千萬并發(fā)最終會經(jīng)過傳輸層變成千萬個Socket,那些吹過的牛,不過就是如何快速處理這些Socket。處理IP層數(shù)據(jù)和處理Socket究竟有啥不同呢?

三、沒有連接,就沒用等待

最重要的一個不同就是IP層不是面向連接的,而Socket是面向連接的,IP層沒有連接的概念,在IP層,來一個數(shù)據(jù)包就處理一個,不用瞻前也不用顧后;而處理Socket,必須瞻前顧后,Socket是面向連接的,有上下文的,讀到一句我愛你,激動半天,你不前前后后地看看,就是瞎激動了。

你想前前后后地看明白,就要占用更多的內(nèi)存去記憶,就要占用更長的時間去等待;不同連接要搞好隔離,就要分配不同的線程(或者協(xié)程)。所有這些都解決好,貌似還是有點難度的。

四、感謝操作系統(tǒng)

操作系統(tǒng)是個好東西,在Linux系統(tǒng)上,所有的IO都被抽象成了文件,網(wǎng)絡(luò)IO也不例外,被抽象成Socket,但是Socket還不僅是一個IO的抽象,它同時還抽象了如何處理Socket,最著名的就是select和epoll了,知名的nginx、netty、redis都是基于epoll搞的,這仨家伙基本上是在千萬并發(fā)領(lǐng)域必備神技。

但是多年前,Linux只提供了select的,這種模式能處理的并發(fā)量非常小,而epoll是專為高并發(fā)而生的,感謝操作系統(tǒng)。不過操作系統(tǒng)沒有解決高并發(fā)的所有問題,只是讓數(shù)據(jù)快速地從網(wǎng)卡流入我們的應(yīng)用程序,如何處理才是老大難。

操作系統(tǒng)的使命之一就是最大限度的發(fā)揮硬件的能力,解決高并發(fā)問題,這也是最直接、最有效的方案,其次才是分布式計算。前面我們提到的nginx、netty、redis都是最大限度發(fā)揮硬件能力的典范。如何才能最大限度的發(fā)揮硬件能力呢?

五、核心矛盾

要最大限度的發(fā)揮硬件能力,首先要找到核心矛盾所在。我認為,這個核心矛盾從計算機誕生之初直到現(xiàn)在,幾乎沒有發(fā)生變化,就是CPU和IO之間的矛盾。

CPU以摩爾定律的速度野蠻發(fā)展,而IO設(shè)備(磁盤,網(wǎng)卡)卻乏善可陳。龜速的IO設(shè)備成為性能瓶頸,必然導(dǎo)致CPU的利用率很低,所以提升CPU利用率幾乎成了發(fā)揮硬件能力的代名詞。

六、中斷與緩存

CPU與IO設(shè)備的協(xié)作基本都是以中斷的方式進行的,例如讀磁盤的操作,CPU僅僅是發(fā)一條讀磁盤到內(nèi)存的指令給磁盤驅(qū)動,之后就立即返回了,此時CPU可以接著干其他事情,讀磁盤到內(nèi)存本身是個很耗時的工作,等磁盤驅(qū)動執(zhí)行完指令,會發(fā)個中斷請求給CPU,告訴CPU任務(wù)已經(jīng)完成,CPU處理中斷請求,此時CPU可以直接操作讀到內(nèi)存的數(shù)據(jù)。

中斷機制讓CPU以最小的代價處理IO問題,那如何提高設(shè)備的利用率呢?答案就是緩存。

操作系統(tǒng)內(nèi)部維護了IO設(shè)備數(shù)據(jù)的緩存,包括讀緩存和寫緩存,讀緩存很容易理解,我們經(jīng)常在應(yīng)用層使用緩存,目的就是盡量避免產(chǎn)生讀IO。

寫緩存應(yīng)用層使用的不多,操作系統(tǒng)的寫緩存,完全是為了提高IO寫的效率。操作系統(tǒng)在寫IO的時候會對緩存進行合并和調(diào)度,例如寫磁盤會用到電梯調(diào)度算法。

七、高效利用網(wǎng)卡

高并發(fā)問題首先要解決的是如何高效利用網(wǎng)卡。網(wǎng)卡和磁盤一樣,內(nèi)部也是有緩存的,網(wǎng)卡接收網(wǎng)絡(luò)數(shù)據(jù),先存放到網(wǎng)卡緩存,然后寫入操作系統(tǒng)的內(nèi)核空間(內(nèi)存),我們的應(yīng)用程序則讀取內(nèi)存中的數(shù)據(jù),然后處理。

除了網(wǎng)卡有緩存外,TCP/IP協(xié)議內(nèi)部還有發(fā)送緩沖區(qū)和接收緩沖區(qū)以及SYN積壓隊列、accept積壓隊列。

這些緩存,如果配置不合適,則會出現(xiàn)各種問題。例如在TCP建立連接階段,如果并發(fā)量過大,而nginx里面socket的backlog設(shè)置的值太小,就會導(dǎo)致大量連接請求失敗。

如果網(wǎng)卡的緩存太小,當(dāng)緩存滿了后,網(wǎng)卡會直接把新接收的數(shù)據(jù)丟掉,造成丟包。當(dāng)然如果我們的應(yīng)用讀取網(wǎng)絡(luò)IO數(shù)據(jù)的效率不高,會加速網(wǎng)卡緩存數(shù)據(jù)的堆積。如何高效讀取網(wǎng)絡(luò)數(shù)據(jù)呢?目前在Linux上廣泛應(yīng)用的就是epoll了。

操作系統(tǒng)把IO設(shè)備抽象為文件,網(wǎng)絡(luò)被抽象成了Socket,Socket本身也是一個文件,所以可以用read/write方法來讀取和發(fā)送網(wǎng)絡(luò)數(shù)據(jù)。在高并發(fā)場景下,如何高效利用Socket快速讀取和發(fā)送網(wǎng)絡(luò)數(shù)據(jù)呢?

要想高效利用IO,就必須在操作系統(tǒng)層面了解IO模型,在《UNIX網(wǎng)絡(luò)編程》這本經(jīng)典著作里,總結(jié)了五種IO模型,分別是阻塞式IO,非阻塞式IO,多路復(fù)用IO,信號驅(qū)動IO和異步IO。

八、阻塞式IO

我們以讀操作為例,當(dāng)我們調(diào)用read方法讀取Socket上的數(shù)據(jù)時,如果此時Socket讀緩存是空的(沒有數(shù)據(jù)從Socket的另一端發(fā)過來),操作系統(tǒng)會把調(diào)用read方法的線程掛起,直到Socket讀緩存里有數(shù)據(jù)時,操作系統(tǒng)再把該線程喚醒。

當(dāng)然,在喚醒的同時,read方法也返回了數(shù)據(jù)。我理解所謂的阻塞,就是操作系統(tǒng)是否會掛起線程。

九、非阻塞式IO

而對于非阻塞式IO,如果Socket的讀緩存是空的,操作系統(tǒng)并不會把調(diào)用read方法的線程掛起,而是立即返回一個EAGAIN的錯誤碼,在這種情景下,可以輪詢read方法,直到Socket的讀緩存有數(shù)據(jù)則可以讀到數(shù)據(jù),這種方式的缺點非常明顯,就是消耗大量的CPU。

十、多路復(fù)用IO

對于阻塞式IO,由于操作系統(tǒng)會掛起調(diào)用線程,所以如果想同時處理多個Socket,就必須相應(yīng)地創(chuàng)建多個線程,線程會消耗內(nèi)存,增加操作系統(tǒng)進行線程切換的負載,所以這種模式不適合高并發(fā)場景。有沒有辦法較少線程數(shù)呢?

非阻塞IO貌似可以解決,在一個線程里輪詢多個Socket,看上去可以解決線程數(shù)的問題,但實際上這個方案是無效的,原因是調(diào)用read方法是一個系統(tǒng)調(diào)用,系統(tǒng)調(diào)用是通過軟中斷實現(xiàn)的,會導(dǎo)致進行用戶態(tài)和內(nèi)核態(tài)的切換,所以很慢。

但是這個思路是對的,有沒有辦法避免系統(tǒng)調(diào)用呢?有,就是多路復(fù)用IO。

在Linux系統(tǒng)上select/epoll這倆系統(tǒng)API支持多路復(fù)用IO,通過這兩個API,一個系統(tǒng)調(diào)用可以監(jiān)控多個Socket,只要有一個Socket的讀緩存有數(shù)據(jù)了,方法就立即返回,然后你就可以去讀這個可讀的Socket了,如果所有的Socket讀緩存都是空的,則會阻塞,也就是將調(diào)用select/epoll的線程掛起。

所以select/epoll本質(zhì)上也是阻塞式IO,只不過他們可以同時監(jiān)控多個Socket。

1. select和epoll的區(qū)別

為什么多路復(fù)用IO模型有兩個系統(tǒng)API?我分析原因是,select是POSIX標(biāo)準中定義的,但是性能不夠好,所以各個操作系統(tǒng)都推出了性能更好的API,如Linux上的epoll、Windows上的IOCP。

至于select為什么會慢,大家比較認可的原因有兩點,一點是select方法返回后,需要遍歷所有監(jiān)控的Socket,而不是發(fā)生變化的Ssocket,還有一點是每次調(diào)用select方法,都需要在用戶態(tài)和內(nèi)核態(tài)拷貝文件描述符的位圖(通過調(diào)用三次copy_from_user方法拷貝讀、寫、異常三個位圖)。epoll可以避免上面提到的這兩點。

2. Reactor多線程模型

在Linux操作系統(tǒng)上,性能最為可靠、穩(wěn)定的IO模式就是多路復(fù)用,我們的應(yīng)用如何能夠利用好多路復(fù)用IO呢?經(jīng)過前人多年實踐總結(jié),搞了一個Reactor模式,目前應(yīng)用非常廣泛,著名的Netty、Tomcat NIO就是基于這個模式。

Reactor的核心是事件分發(fā)器和事件處理器,事件分發(fā)器是連接多路復(fù)用IO和網(wǎng)絡(luò)數(shù)據(jù)處理的中樞,核心就是監(jiān)聽Socket事件(select/epoll_wait),然后將事件分發(fā)給事件處理器,事件分發(fā)器和事件處理器都可以基于線程池來做。

需要重點提一下的是,在Socket事件中主要有兩大類事件,一個是連接請求,另一個是讀寫請求,連接請求成功處理之后會創(chuàng)建新的Socket,讀寫請求都是基于這個新創(chuàng)建的Socket。

所以在網(wǎng)絡(luò)處理場景中,實現(xiàn)Reactor模式會稍微有點繞,但是原理沒有變化。具體實現(xiàn)可以參考Doug Lea的《Scalable IO in Java》(http://gee.cs.oswego.edu/dl/cpjslides/nio.pdf)

Reactor原理圖

3. Nginx多進程模型

Nginx默認采用的是多進程模型,Nginx分為Master進程和Worker進程,真正負責(zé)監(jiān)聽網(wǎng)絡(luò)請求并處理請求的只有Worker進程,所有的Worker進程都監(jiān)聽默認的80端口,但是每個請求只會被一個Worker進程處理。

這里面的玄機是:每個進程在accept請求前必須爭搶一把鎖,得到鎖的進程才有權(quán)處理當(dāng)前的網(wǎng)絡(luò)請求。每個Worker進程只有一個主線程,單線程的好處是無鎖處理,無鎖處理并發(fā)請求,這基本上是高并發(fā)場景里面的最高境界了。

(參考http://www.dre.vanderbilt.edu/~schmidt/PDF/reactor-siemens.pdf)

數(shù)據(jù)經(jīng)過網(wǎng)卡、操作系統(tǒng)、網(wǎng)絡(luò)協(xié)議中間件(Tomcat、Netty等)重重關(guān)卡,終于到了我們應(yīng)用開發(fā)人員手里,我們?nèi)绾翁幚磉@些高并發(fā)的請求呢?我們還是先從提升單機處理能力的角度來思考這個問題。

4. 突破木桶理論

據(jù)經(jīng)過網(wǎng)卡、操作系統(tǒng)、中間件(Tomcat、Netty等)重重關(guān)卡,終于到了我們應(yīng)用開發(fā)人員手里,我們?nèi)绾翁幚磉@些高并發(fā)的請求呢?

我們還是先從提升單機處理能力的角度來思考這個問題,在實際應(yīng)用的場景中,問題的焦點是如何提高CPU的利用率(誰叫它發(fā)展的最快呢),木桶理論講最短的那根板決定水位,那為啥不是提高短板IO的利用率,而是去提高CPU的利用率呢?

這個問題的答案是在實際應(yīng)用中,提高了CPU的利用率往往會同時提高IO的利用率。當(dāng)然在IO利用率已經(jīng)接近極限的條件下,再提高CPU利用率是沒有意義的。我們先來看看如何提高CPU的利用率,后面再看如何提高IO的利用率。

5. 并行與并發(fā)

提升CPU利用率目前主要的方法是利用CPU的多核進行并行計算,并行和并發(fā)是有區(qū)別的,在單核CPU上,我們可以一邊聽MP3,一邊Coding,這個是并發(fā),但不是并行,因為在單核CPU的視野,聽MP3和Coding是不可能同時進行的。

只有在多核時代,才會有并行計算。并行計算這東西太高級,工業(yè)化應(yīng)用的模型主要有兩種,一種是共享內(nèi)存模型,另外一種是消息傳遞模型。

6. 多線程設(shè)計模式

對于共享內(nèi)存模型,其原理基本都來自大師Dijkstra在半個世紀前(1965)的一篇論文《Cooperating sequential processes》,這篇論文提出了大名鼎鼎的概念信號量,Java里面用于線程同步的wait/notify也是信號量的一種實現(xiàn)。

大師的東西看不懂,學(xué)不會也不用覺得丟人,畢竟大師的嫡傳子弟也沒幾個。東洋有個叫結(jié)城浩的總結(jié)了一下多線程編程的經(jīng)驗,寫了本書叫《JAVA多線程設(shè)計模式》,這個還是挺接地氣(能看懂)的。下面簡單介紹一下。

(1) Single Threaded Execution

這個模式是把多線程變成單線程,多線程在同時訪問一個變量時,會發(fā)生各種莫名其妙的問題,這個設(shè)計模式直接把多線程搞成了單線程,于是安全了,當(dāng)然性能也就下來了。最簡單的實現(xiàn)就是利用synchronized將存在安全隱患的代碼塊(方法)保護起來。在并發(fā)領(lǐng)域有個臨界區(qū)(criticalsections)的概念,我感覺和這個模式是一回事。

(2) Immutable Pattern

如果共享變量永遠不變,那就多個線程訪問就沒有任何問題,永遠安全。這個模式雖然簡單,但是用的好,能解決很多問題。

(3) Guarded Suspension Patten

這個模式其實就是等待-通知模型,當(dāng)線程執(zhí)行條件不滿足時,掛起當(dāng)前線程(等待),當(dāng)條件滿足時,喚醒所有等待的線程(通知),在Java語言里利用synchronized,wait/notifyAll可以很快實現(xiàn)一個等待通知模型。結(jié)城浩將這個模式總結(jié)為多線程版的If,我覺得非常貼切。

(4) Balking

這個模式和上個模式類似,不同點是當(dāng)線程執(zhí)行條件不滿足時直接退出,而不是像上個模式那樣掛起。這個用法最大的應(yīng)用場景是多線程版的單例模式,當(dāng)對象已經(jīng)創(chuàng)建了(不滿足創(chuàng)建對象的條件)就不用再創(chuàng)建對象(退出)。

(5) Producer-Consumer

生產(chǎn)者-消費者模式,全世界人都知道。我接觸的最多的是一個線程處理IO(如查詢數(shù)據(jù)庫),一個(或者多個)線程處理IO數(shù)據(jù),這樣IO和CPU就都能成分利用起來。如果生產(chǎn)者和消費者都是CPU密集型,再搞生產(chǎn)者-消費者就是自己給自己找麻煩了。

(6) Read-Write Lock

讀寫鎖解決的讀多寫少場景下的性能問題,支持并行讀,但是寫操作只允許一個線程做。如果寫操作非常非常少,而讀的并發(fā)量非常非常大,這個時候可以考慮使用寫時復(fù)制(copy on write)技術(shù),我個人覺得應(yīng)該單獨把寫時復(fù)制單獨作為一個模式。

(7) Thread-Per-Message

就是我們經(jīng)常提到的一請求一線程。

(8) Worker Thread

一請求一線程的升級版,利用線程池解決線程的頻繁創(chuàng)建、銷毀導(dǎo)致的性能問題。BIO年代Tomcat就是用的這種模式。

(9) Future

當(dāng)你調(diào)用某個耗時的同步方法很心煩,想同時干點別的事情,可以考慮用這個模式,這個模式的本質(zhì)是個同步變異步的轉(zhuǎn)換器。同步之所以能變異步,本質(zhì)上是啟動了另外一個線程,所以這個模式和一請求一線程還是多少有點關(guān)系的。

(10) Two-Phase Termination

這個模式能解決優(yōu)雅地終止線程的需求。

(11) Thread-Specific Storage

線程本地存儲,避免加鎖、解鎖開銷的利器,C#里面有個支持并發(fā)的容器ConcurrentBag就是采用了這個模式,這個星球上最快的數(shù)據(jù)庫連接池HikariCP借鑒了ConcurrentBag的實現(xiàn),搞了個Java版的,有興趣的同學(xué)可以參考。

(12) Active Object(這個不講也罷)

這個模式相當(dāng)于降龍十八掌的最后一掌,綜合了前面的設(shè)計模式,有點復(fù)雜,個人覺得借鑒的意義大于參考實現(xiàn)。

最近國人也出過幾本相關(guān)的書,但總體還是結(jié)城浩這本更能經(jīng)得住推敲。基于共享內(nèi)存模型解決并發(fā)問題,主要問題就是用好鎖,但是用好鎖,還是有難度的,所以后來又有人搞了消息傳遞模型,這個后面再聊。

基于共享內(nèi)存模型解決并發(fā)問題,主要問題就是用好鎖,但是用好鎖,還是有難度的,所以后來又有人搞了消息傳遞模型。

十一、消息傳遞模型

共享內(nèi)存模型難度還是挺大的,而且你沒有辦法從理論上證明寫的程序是正確的,我們總一不小心就會寫出來個死鎖的程序來,每當(dāng)有了問題,總會有大師出來,于是消息傳遞(Message-Passing)模型橫空出世(發(fā)生在上個世紀70年代),消息傳遞模型有兩個重要的分支,一個是Actor模型,一個是CSP模型。

十二、Actor模型

Actor模型因為Erlang聲名鵲起,后來又出現(xiàn)了Akka。在Actor模型里面,沒有操作系統(tǒng)里所謂進程、線程的概念,一切都是Actor,我們可以把Actor想象成一個更全能、更好用的線程。

在Actor內(nèi)部是線性處理(單線程)的,Actor之間以消息方式交互,也就是不允許Actor之間共享數(shù)據(jù),沒有共享,就無需用鎖,這就避免了鎖帶來的各種副作用。

Actor的創(chuàng)建和new一個對象沒有啥區(qū)別,很快、很小,不像線程的創(chuàng)建又慢又耗資源;Actor的調(diào)度也不像線程會導(dǎo)致操作系統(tǒng)上下文切換(主要是各種寄存器的保存、恢復(fù)),所以調(diào)度的消耗也很小。

Actor還有一個有點爭議的優(yōu)點,Actor模型更接近現(xiàn)實世界,現(xiàn)實世界也是分布式的、異步的、基于消息的、尤其Actor對于異常(失敗)的處理、自愈、監(jiān)控等都更符合現(xiàn)實世界的邏輯。

但是這個優(yōu)點改變了編程的思維習(xí)慣,我們目前大部分編程思維習(xí)慣其實是和現(xiàn)實世界有很多差異的(這個回頭再細說),一般來講,改變我們思維習(xí)慣的事情,阻力總是超乎我們的想象。

十三、CSP模型

Golang在語言層面支持CSP模型,CSP模型和Actor模型的一個感官上的區(qū)別是在CSP模型里面,生產(chǎn)者(消息發(fā)送方)和消費者(消息接收方)是完全松耦合的,生產(chǎn)者完全不知道消費者的存在,但是在Actor模型里面,生產(chǎn)者必須知道消費者,否則沒辦法發(fā)送消息。

CSP模型類似于我們在多線程里面提到的生產(chǎn)者-消費者模型,核心的區(qū)別我覺得在于CSP模型里面有類似綠色線程(green thread)的東西,綠色線程在Golang里面叫做協(xié)程,協(xié)程同樣是個非常輕量級的調(diào)度單元,可以快速創(chuàng)建而且資源占用很低。

Actor在某種程度上需要改變我們的思維方式,而CSP模型貌似沒有那么大動靜,更容易被現(xiàn)在的開發(fā)人員接受,都說Golang是工程化的語言,在Actor和CSP的選擇上,也可以看到這種體現(xiàn)。

十四、多樣世界

除了消息傳遞模型,還有事件驅(qū)動模型、函數(shù)式模型。事件驅(qū)動模型類似于觀察者模式,在Actor模型里面,消息的生產(chǎn)者必須知道消費者才能發(fā)送消息,而在事件驅(qū)動模型里面,事件的消費者必須知道消息的生產(chǎn)者才能注冊事件處理邏輯。

Akka里消費者可以跨網(wǎng)絡(luò),事件驅(qū)動模型的具體實現(xiàn)如Vertx里,消費者也可以訂閱跨網(wǎng)絡(luò)的事件,從這個角度看,大家都在取長補短。

【本文來自51CTO專欄作者張開濤的微信公眾號(開濤的博客),公眾號id: kaitao-1234567】

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2018-06-29 09:59:26

高并發(fā)互聯(lián)網(wǎng)網(wǎng)卡

2015-05-14 15:36:59

阿里云亞馬遜云計算

2018-07-04 13:41:17

架構(gòu)系統(tǒng)結(jié)構(gòu)數(shù)據(jù)庫

2020-01-16 15:35:00

高并發(fā)架構(gòu)服務(wù)器

2018-02-05 09:30:23

高性能高并發(fā)服務(wù)

2019-07-31 07:36:12

架構(gòu)運維技術(shù)

2015-12-09 15:16:03

架構(gòu)師京東架構(gòu)

2019-11-08 08:40:29

Java高并發(fā)流量

2019-02-22 10:19:09

AI 行業(yè) 人工智能

2017-09-16 18:29:00

代碼數(shù)據(jù)庫線程

2014-04-09 18:01:42

京東

2016-12-28 14:16:25

京東高并發(fā)系統(tǒng)設(shè)計

2017-02-20 07:47:04

緩存HASH高并發(fā)

2018-09-17 05:00:59

架構(gòu)系統(tǒng)練級

2014-03-18 16:04:45

亞馬遜AWS

2012-08-04 16:02:00

架構(gòu)師

2016-04-20 17:18:29

分布式數(shù)據(jù)庫京東WOT

2019-03-18 05:02:30

高并發(fā)京東架構(gòu)

2016-08-29 11:33:23

京東云云計算云安全

2011-04-07 16:20:24

軟件架構(gòu)師架構(gòu)師架構(gòu)
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: xnxx 日本免费| 午夜免费在线观看 | 波多野结衣一区二区三区 | 欧美一区二区三区 | 亚洲a毛片 | 日本超碰 | 亚洲三区在线观看 | 91精品在线看 | 一区二区三区四区视频 | 一区二区三区在线播放 | 在线播放第一页 | 免费黄色a级毛片 | 久久www免费人成看片高清 | 欧美日韩中文字幕在线播放 | 黄免费在线 | 国产一区二区三区免费 | 国产二区三区 | 91 在线| 国产欧美精品一区二区三区 | 日韩三级在线观看 | 中文字幕中文字幕 | 日韩亚洲欧美综合 | 99热这里有精品 | 给我免费的视频在线观看 | 久久精品国产99国产精品 | 涩涩视频网站在线观看 | 久久精品中文 | 亚洲一区免费视频 | 91精品国产综合久久福利软件 | 国内精品99 | 国产精品美女久久久久aⅴ国产馆 | 亚洲a一区 | 自拍偷拍av | 成人精品国产一区二区4080 | 日韩成人在线播放 | 天天操,夜夜爽 | 亚洲福利av| 九九99久久 | 99中文字幕 | 日本不卡一区 | 毛片一区 |