成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

基于Docker持續交付平臺建設的實踐

云計算
基于Docker容器技術,運維技術團隊開發了五阿哥網站的容器云平臺。結合五阿哥容器云平臺和Docker容器技術的實踐,本文先介紹如何實現7*24小時“一站式”的持續交付,實現產品的上線。

[[212695]]

作為創業公司和推行DevOps工程師們來說,都遇到過這樣的問題:

1. 硬件資源利用率的問題,造成部分成本的浪費

在網站功能中不同的業務場景有計算型的,有IO讀寫型的,有網絡型,有內存型的,集中部署應用就會導致資源利用率不合理的問題。比如,一個機器上部署的服務都是內存密集型,那么CPU資源就都很容易浪費了。

2. 單物理機多應用無法對無法進行有效的隔離,導致應用對資源的搶占和相互影響

一個物理機器跑多個應用,無法進行所使用的CPU,內存,進程進行限制,如果一個應用出現對資源的搶占問題,就會引起連鎖反應,最終導致網站部分功能不可用。

3. 環境、版本管理復雜,上線部署流程缺乏,增加問題排查的復雜度

由于內部開發流程的不規范,代碼在測試或者上線過程中,對一些配置項和系統參數進行隨意的調整,在發布時進行增量發布,一旦出現問題,就會導致測試的代碼和線上運行的代碼是不一致的,增加了服務上線的風險,也增加了線上服務故障排查的難度。

4. 環境不穩定,遷移成本高,增加上線風險

在開發過程中存在多個項目并行開發和服務的依賴問題,由于環境和版本的復雜性很高,不能快速搭建和遷移一個環境,導致無法在測試環境中無法模擬出線上的流程進行測試,很多同學在線上環境進行測試,這里有很高的潛在風險,同時導致開發效率降低。

5. 傳統虛擬機和物理機占用空間大,啟動慢,管理復雜等問題

傳統虛擬機和物理機在啟動過程進行加載內核,執行內核和init進行,導致在啟動過程占用很長時間,而且在管理過程中會遇到各種各樣的管理問題。

基于Docker容器技術,運維技術團隊開發了五阿哥網站的容器云平臺。通過容器云平臺95%的應用服務已經實現容器化部署。這些應用支持業務按需拓展,秒級伸縮,提供與用戶友好的交互過程,規范了測試和生產的發布流程,讓開發和測試同學從基礎的環境配置和發布解放出來,使其更聚焦自己的項目開發和測試。結合五阿哥容器云平臺和Docker容器技術的實踐,本文先介紹如何實現7*24小時“一站式”的持續交付,實現產品的上線。

容器云平臺架構圖

容器云平臺架構圖

一、Docker鏡像標準化

眾所周知,Docker的鏡像是分層的。對鏡像分層進行約定:

  • 第一層是操作系統層,由CentOS/Alpine等基礎鏡像構成,安裝一些通用的基礎組件;
  • 第二層是中間件層,根據不同的應用程序,安裝它們運行時需要使用到的各種中間件和依賴軟件包,如,Nginx、Tomcat等;
  • 第三層是應用層,這層僅包含已經打好包的各應用程序代碼。

Docker Image分層

Docker Image分層

經驗總結:如何讓自己的鏡像變的更小,PUSH的更快?

Docker Image優化前后對比

Docker Image優化前后對比

  • Dockerfile構建應用鏡像,在中間件層遇到一些需要安裝的軟件包時,盡可能的使用包管理工具(如yum)或以git clone方式下載源碼包進行安裝,目的是將軟件包的copy和安裝控制在同一層,軟件部署成功后清除一些無用的rpm包或源碼包,讓基礎鏡像的尺寸更小。
  • Java應用鏡像中并沒有將JDK軟件包打入鏡像,將JDK部署在每臺宿主上,在運行鏡像時,通過掛載目錄的方式將宿主機上的Java家目錄掛載至容器指定目錄下。因為它會把基礎鏡像撐得非常大。
  • 在構建應用鏡像時,Docker會對這兩層進行緩存并直接使用,僅會重新創建代碼出現變動的應用層,這樣就提高了應用鏡像的構建速度和構建成功后向鏡像倉庫推送的速度,從整體流程上提升了應用的部署效率。

二、容器的編排管理

編排工具的選型:

Docker編排工具對比

Docker編排工具對比

Rancher圖形化管理界面,部署簡單、方便,可以與AD、LDAP、GitHub集成,基于用戶或用戶組進行訪問控制,快速將系統的編排工具升級至Kubernetes或者Swarm,同時有專業的技術團隊進行支持,降低容器技術入門的難度。

Rancher架構圖

Rancher架構圖

基于以上優點我們選擇Rancher作為我們容器云平臺的編排工具,在對應用的容器實例進行統一的編排調度時,配合Docker-Compose組件,可以在同一時間對多臺宿主機執行調度操作。同時,在服務訪問出現峰值和低谷時,利用特有的rancher-compose.yml文件調用“SCALE”特性,對應用集群執行動態擴容和縮容,讓應用按需求處理不同的請求。https:/zhuanlan.zhihu.com/p/29093407

容器網絡模型選型:

Docker 網絡對比

Docker 網絡對比

由于后端開發基于阿里的HSF框架,生產者和消費者之間需要網絡可達,對網絡要求比較高,需要以真實IP地址進行注冊和拉取服務。所以在選擇容器網絡時,我們使用了Host模式,在容器啟動過程中會執行腳本檢查宿主機并分配給容器一個獨立的端口,來避免沖突的問題。

三、持續集成與持續部署

持續集成,監測代碼提交狀態,對代碼進行持續集成,在集成過程中執行單元測試,代碼Sonar和安全工具進行靜態掃描,將結果通知給開發同學同時部署集成環境,部署成功后觸發自動化測試(自動化測試部分后續會更新)。

持續集成

持續集成

靜態掃描結果:

靜態掃描結果

持續部署,是一種能力,這種能力非常重要,把一個包快速部署在你想要的地方。平臺采用分布式構建、部署,Master管理多個Slave節點,每個Slave節點分屬不同的環境。在Master上安裝并更新插件、創建job、管理各開發團隊權限。Slave用于執行job。

持續部署

持續部署

基于上述架構,我們定義了持續部署規范的流程:

  1. 開發同學向GitLab提交代碼;
  2. 拉取項目代碼和配置項文件,執行編譯任務;
  3. 拉取基礎鏡像,將編譯好的應用包打入生成最新的應用鏡像,推送到鏡像倉庫;
  4. 根據當前應用及所屬環境定制化生成docker-compose.yml文件,基于這個文件執行rancher-compose命令,將應用鏡像部署到預發環境(發布生產前的測試環境,相關配置、服務依賴關系和生產環境一致)。
  5. 預發環境測試通過后將應用鏡像部署至線上環境,測試結果通知后端測試同學。

四、容器的運行管理

應用容器現在已經部署到線上環境,那么在整個容器的生命周期中,還需要解決下面兩個問題:

  1. 如何保存應用程序產生的運行日志和其它業務日志;
  2. 如何在后端服務出現變化后nginx能夠自動發現并完成配置更新。

五、日志管理

容器在運行時會在只讀層之上創建讀寫層,所有對應用程序的寫操作都在這層進行。當容器重啟后,讀寫層中的數據(包含日志)也會一并被清除。雖然可以通過將容器中日志目錄掛載到宿主機解決此類問題,但當容器在多個宿主機間頻繁漂移時,每個宿主機上都會有留存應用名的部分日志,增加了開發同學查看、排查問題的難度。

綜上所屬,日志服務平臺作為五阿哥網站日志倉庫,將應用運行過程中產生的日志統一存儲,并且支持多種方式的查詢操作。

日志管理

日志管理

通過在日志服務的管理界面配置日志采集路徑,在容器中部署Agent把應用日志統一投遞到Logstore中,再在Logstore中配置全文索引和分詞符,以便開發同學能夠通過關鍵字搜索、查詢想要的日志內容。

經驗總結:如何避免日志的重復采集問題?

日志服務的agent需要在配置文件“ilogtailconfig.json”中增加配置參數“checkpoint_filename”,指定checkpoint文件生成的絕對路徑,并且將此路徑掛載至宿主機目錄下,確保容器在重啟時不會丟失checkpoint文件,不會出現重復采集問題。

六、服務的注冊

etcd是一個具備高可用性和強一致性的鍵值存儲倉庫,它使用類似于文件系統的樹形結構,數據全部以“/”開頭。etcd的數據分為兩種類型:key和directories,其中key下存儲單獨的字符串值,directories下則存放key的集合或者其他子目錄。

應用注冊

應用注冊

在五阿哥環境中,每個向etcd注冊的應用服務,它們的根目錄都以”/${APPNAME}${ENVIRONMENT}”命名。根目錄下存儲每個應用實例的Key信息,它們都以“${IP}-${PORT}”的方式命名。

下圖是使用上述約定,存儲在etcd上某應用實例的數據結構:

etcd數據存儲結構

etcd數據存儲結構

可以看到我是使用get方法向etcd發送請求的,請求的是部署在預發環境(PRE)的搜索服務(search);在它的根目錄“/search_PRE”下,僅存儲了一個應用實例的信息,這個實例的key是“172.18.100.31-86”;對應的value是“172.18.100.31:86‘’,整個注冊過程是這樣的:

  1. 通過代碼為容器應用程序生成隨機端口,和宿主機正在使用的端口進行比對,確保端口沒有沖突后寫入程序配置文件;
  2. 把通過Python和etcd模塊編寫的服務注冊工具集成在腳本中,將IP地址和上一步獲取的隨機端口以參數的方式傳遞給服務注冊工具;
  3. 待應用程序完全啟動后,由服務注冊工具以約定好的數據結構將應用實例的寫入etcd集群,完成服務注冊工作;
  4. 容器定時向etcd發送心跳,報告存活并刷新TTL時間;
  5. 容器腳本捕獲Rancher發送至應用實例的singnal terminal信號,在接收到信號后向etcd發送delete請求刪除實例的數據。

注:在TTL基礎上增加主動清除功能,在服務正常釋放時,可以立刻清除etcd上注冊信息,不必等待ttl時間。

經驗總結:容器在重啟或者意外銷毀時,讓我們一起看一下這個過程中容器和注冊中心都做了什么事情?

應用在注冊是攜帶key和value時攜帶了TTL超時屬性,就是考慮到當服務集群中的實例宕機后,它在etcd中注冊的信息也隨之失效,若不予清除,失效的信息將會成為垃圾數據被一直保存,而且配置管理工具還會把它當做正常數據讀取出來,寫入web server的配置文件中。要保證存儲在etcd中的數據始終有效,就需要讓etcd主動釋放無效的實例信息,來看一下注冊中心刷新的機制,代碼直接奉上:

  1. #!/usr/bin/env 
  2. python 
  3. import etcd 
  4. import sys 
  5. arg_l=sys.argv[1:] 
  6. etcdetcd_clt=etcd.Client(host='172.18.0.7'
  7. def 
  8. set_key(key,value,ttl=10): 
  9. try: 
  10. return 
  11. etcd_clt.write(key,value,ttl) 
  12. except TypeError: 
  13. print 'key or vlaue is null' 
  14. def 
  15. refresh_key(key,ttl=10): 
  16. try: 
  17. return 
  18. etcd_clt.refresh(key,ttl) 
  19. except TypeError: 
  20.  print 'key is null' 
  21. def 
  22. del_key(key): 
  23. try: 
  24. return etcd_clt.delete(key) 
  25. except TypeError: 
  26. print 'key is null' 
  27. if arg_l: 
  28. if len(arg_l) == 3: 
  29. key,value,ttl=arg_l 
  30. set_key(key,value,ttl) 
  31. elif len(arg_l) == 2: 
  32. key,ttl=arg_l 
  33. refresh_key(key,ttl) 
  34. elif len(arg_l) == 1: 
  35. key=arg_l[0] 
  36. del_key(key) 
  37. else: 
  38. raise TypeError,'Only three 
  39. parameters are needed here' 
  40. else: 
  41. raise Exception('args is null') 

七、服務的發現

Confd是一個輕量級的配置管理工具,支持etcd作為后端數據源,通過讀取數據源數據,保證本地配置文件為最新;不僅如此 ,它還可以在配置文件更新后,檢查配置文件語法有效性,以重新加載應用程序使配置生效。這里需要說明的是,Confd雖然支持rancher作為數據源,但考慮易用性和擴展性等原因,最終我們還是選擇了etcd。

和大多數部署方式一樣,我們把Confd部署在web server所在的ECS上,便于Confd在監測到數據變化后及時更新配置文件和重啟程序。Confd的相關配置文件和模板文件部署在默認路徑/etc/confd下,目錄結構如下:

  1. /etc/confd/ 
  2. ├── conf.d 
  3. ├── confd.toml 
  4. └── templates 

confd.toml是Confd的主配置文件,使用TOML格式編寫,因為我們etcd是集群部署,有多個節點,而我又不想把Confd的指令搞的又臭又長,所以將interval、nodes等選項寫到了這個配置文件里。

cond.d目錄存放web server的模板配置源文件,也使用TOML格式編寫。該文件用于指定應用模板配置文件路徑(src)、應用配置文件路徑(dest)、數據源的key信息(keys)等。

Templates目錄存放web server下每個應用的模板配置文件。它使用Go支持的text/template語言格式進行編寫。在confd從etcd中讀取到最新應用注冊信息后,通過下面的語句寫入模板配置文件中:

  1. {{range getvs "/${APP_NAME}/*"}} 
  2. server {{.}}; 
  3. {{end}} 

服務發現

服務發現

通過Supervisor管理Confd進程。Confd在運行后會每隔5秒對etcd進行輪詢,當某個應用服務的K/V更新后,Confd會讀取該應用存儲在etcd中的數據,寫入到模板配置文件中,生成這個應用配置文件,最后由Confd將配置文件寫入到目標路徑下,重新加載Nginx程序使配置生效。

責任編輯:趙寧寧 來源: Docker
相關推薦

2021-06-18 09:00:00

云計算開發存儲庫

2015-09-29 10:08:26

DockerJava持續集成

2017-08-13 08:30:06

DevOps持續交付IT

2016-07-12 17:29:40

Docker阿里云技術峰會

2017-08-19 14:54:34

DevOps持續交付IT

2018-04-24 09:00:00

開發自動化軟件架構

2016-01-07 10:29:36

MesosDocker持續交付

2017-02-27 18:28:45

持續交付部署

2023-09-13 07:19:46

數據開發平臺治理平臺

2017-12-24 21:29:18

OpenShift持續交付集群

2019-08-16 11:48:53

容器云平臺軟件

2023-01-16 08:00:00

2017-02-14 20:15:15

docker容器持續交付

2016-01-14 10:02:54

DockerOpenStack私有云

2021-07-23 10:17:17

網絡攻擊存儲供應鏈

2017-02-27 18:35:23

集成交付部署

2022-06-13 07:02:02

Zadig平臺自動化

2016-08-05 17:19:37

持續集成持續交付系統運維

2023-02-28 07:01:11

分布式緩存平臺

2022-12-29 09:13:02

實時計算平臺
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产成人精品久久 | 一区二区三区免费 | 韩国av一区二区 | 久草免费福利 | 日韩精彩视频 | av免费网| 亚洲淫视频 | 天天噜天天干 | 色综合久久天天综合网 | 欧美一区两区 | 亚洲第一av网站 | 台湾av在线 | 国产日韩欧美电影 | 中文字幕日韩一区 | 精品国产网 | 一级毛片观看 | 久久一区视频 | 精品一区av | 日韩一区二区三区在线观看视频 | 秋霞电影一区二区三区 | 人妖videosex高潮另类 | 91九色视频在线 | 欧美日产国产成人免费图片 | 在线中文视频 | 91麻豆精品国产91久久久更新资源速度超快 | 91日韩在线 | 色视频在线播放 | 国产91精品网站 | 免费看91| 99成人| 天天操天天射综合网 | cao在线| 91高清在线观看 | 婷婷毛片| 国产美女一区二区 | 欧美一区二区三区 | 欧美在线一区二区三区 | 欧美黑人一级爽快片淫片高清 | 久久久久一区 | 亚洲福利免费 | 亚洲精品一区二区三区蜜桃久 |