成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何使用Elasticsearch和cAdvisor監控Docker容器

運維 系統運維 云計算
在 Docker network 特性出來以前,你可以使用 Docker link 特性實現容器互相發現、安全通信。而在 network 特性出來以后,你還可以使用 link,但是當容器處于默認橋接網絡或用戶自定義網絡時,它們的表現是不一樣的?,F在創建 overlay 網絡,名稱為 monitoring。

如果你正在運行 Swarm 模式的集群,或者只運行單臺 Docker,你都會有下面的疑問:

我如何才能監控到它們都在干些什么?這個問題的答案是“很不容易”。

你需要監控下面的參數:

  1. 容器的數量和狀態。
  2. 一臺容器是否已經移到另一個節點了,如果是,那是在什么時候,移動到哪個節點?
  3. 給定節點上運行著的容器數量。
  4. 一段時間內的通信峰值。
  5. 孤兒卷和網絡(LCTT 譯注:孤兒卷就是當你刪除容器時忘記刪除它的卷,這個卷就不會再被使用,但會一直占用資源)。
  6. 可用磁盤空間、可用 inode 數。
  7. 容器數量與連接在 docker0 和 docker_gwbridge 上的虛擬網卡數量不一致(LCTT 譯注:當 docker 啟動時,它會在宿主機器上創建一個名為 docker0 的虛擬網絡接口)。
  8. 開啟和關閉 Swarm 節點。
  9. 收集并集中處理日志。

本文的目標是介紹 Elasticsearch + Kibana + cAdvisor 的用法,使用它們來收集 Docker 容器的參數,分析數據并產生可視化報表。

閱讀本文后你可以發現有一個監控儀表盤能夠部分解決上述列出的問題。但如果只是使用 cAdvisor,有些參數就無法顯示出來,比如 Swarm 模式的節點。

如果你有一些 cAdvisor 或其他工具無法解決的特殊需求,我建議你開發自己的數據收集器和數據處理器(比如Beats),請注意我不會演示如何使用 Elasticsearch 來集中收集 Docker 容器的日志。

你要如何才能監控到 Swarm 模式集群里面發生了什么事情?要做到這點很不容易。” —— @fntlnz

我們為什么要監控容器?

想象一下這個經典場景:你在管理一臺或多臺虛擬機,你把 tmux 工具用得很溜,用各種 session 事先設定好了所有基礎的東西,包括監控。然后生產環境出問題了,你使用 top、htop、iotop、jnettop 各種 top 來排查,然后你準備好修復故障。

現在重新想象一下你有 3 個節點,包含 50 臺容器,你需要在一個地方查看整潔的歷史數據,這樣你知道問題出在哪個地方,而不是把你的生命浪費在那些字符界面來賭你可以找到問題點。

什么是 Elastic Stack ?

Elastic Stack 就一個工具集,包括以下工具:

  • Elasticsearch
  • Kibana
  • Logstash
  • Beats

我們會使用其中一部分工具,比如使用 Elasticsearch 來分析基于 JSON 格式的文本,以及使用 Kibana 來可視化數據并產生報表。

另一個重要的工具是 Beats,但在本文中我們還是把精力放在容器上,官方的 Beats 工具不支持 Docker,所以我們選擇原生兼容 Elasticsearch 的 cAdvisor。

cAdvisor 工具負責收集、整合正在運行的容器數據,并導出報表。在本文中,這些報表被到入到 Elasticsearch 中。

cAdvisor 有兩個比較酷的特性:

  • 它不只局限于 Docker 容器。
  • 它有自己的 Web 服務器,可以簡單地顯示當前節點的可視化報表。

設置測試集群,或搭建自己的基礎架構

和我以前的文章一樣,我習慣提供一個簡單的腳本,讓讀者不用花很多時間就能部署好和我一樣的測試環境。你可以使用以下(非生產環境使用的)腳本來搭建一個 Swarm 模式的集群,其中一個容器運行著 Elasticsearch。

如果你有充足的時間和經驗,你可以搭建自己的基礎架構Bring Your Own Infrastructure,BYOI。如果要繼續閱讀本文,你需要:

  • 運行 Docker 進程的一個或多個節點(docker 版本號大于等于 1.12)。
  • 至少有一個獨立運行的 Elasticsearch 節點(版本號 2.4.X)。

重申一下,此 Elasticsearch 集群環境不能放在生產環境中使用。生產環境也不推薦使用單節點集群,所以如果你計劃安裝一個生產環境,請參考 Elastic 指南。

對喜歡嘗鮮的用戶的友情提示

我就是一個喜歡嘗鮮的人(當然我也已經在生產環境中使用了最新的 alpha 版本),但是在本文中,我不會使用最新的 Elasticsearch 5.0.0 alpha 版本,我還不是很清楚這個版本的功能,所以我不想成為那個引導你們出錯的關鍵。

所以本文中涉及的 Elasticsearch 版本為最新穩定版 2.4.0。

測試集群部署腳本

前面已經說過,我提供這個腳本給你們,讓你們不必費神去部署 Swarm 集群和 Elasticsearch,當然你也可以跳過這一步,用你自己的 Swarm 模式引擎和你自己的 Elasticserch 節點。

執行這段腳本之前,你需要:

Docker Machine – 最終版:在 DigitalOcean 中提供 Docker 引擎。

DigitalOcean API Token: 讓 docker 機器按照你的意思來啟動節點。

創建集群的腳本

現在萬事俱備,你可以把下面的代碼拷到 create-cluster.sh 文件中:

  1. #!/usr/bin/env bash 
  2. Create a Swarm Mode cluster with a single master and a configurable number of workers 
  3.  
  4. workers=${WORKERS:-"worker1 worker2"
  5.  
  6. ####################################### 
  7. # Creates a machine on Digital Ocean 
  8. # Globals: 
  9. #   DO_ACCESS_TOKEN The token needed to access DigitalOcean's API 
  10. # Arguments: 
  11. #   $1 the actual name to give to the machine 
  12. ####################################### 
  13. create_machine() { 
  14.   docker-machine create \ 
  15.     -d digitalocean \ 
  16.     --digitalocean-access-token=$DO_ACCESS_TOKEN \ 
  17.     --digitalocean-size 2gb \ 
  18.     $1 
  19.  
  20. ####################################### 
  21. # Executes a command on the specified machine 
  22. # Arguments: 
  23. #   $1     The machine on which to run the command 
  24. #   $2..$n The command to execute on that machine 
  25. ####################################### 
  26. machine_do() { 
  27.   docker-machine ssh $@ 
  28.  
  29. main() { 
  30.  
  31.   if [ -z "$DO_ACCESS_TOKEN" ]; then 
  32.     echo "Please export a DigitalOcean Access token: https://cloud.digitalocean.com/settings/api/tokens/new" 
  33.     echo "export DO_ACCESS_TOKEN=<yourtokenhere>" 
  34.     exit 1 
  35.   fi 
  36.  
  37.   if [ -z "$WORKERS" ]; then 
  38.     echo "You haven't provided your workers by setting the \$WORKERS environment variable, using the default ones: $workers" 
  39.   fi 
  40.  
  41.   # Create the first and only master 
  42.   echo "Creating the master" 
  43.  
  44.   create_machine master1 
  45.   master_ip=$(docker-machine ip master1) 
  46.  
  47.   # Initialize the swarm mode on it 
  48.  
  49.   echo "Initializing the swarm mode" 
  50.   machine_do master1 docker swarm init --advertise-addr $master_ip 
  51.   # Obtain the token to allow workers to join 
  52.  
  53.   worker_tkn=$(machine_do master1 docker swarm join-token -q worker) 
  54.   echo "Worker token: ${worker_tkn}" 
  55.   # Create and join the workers
  56.  
  57.   for worker in $workers; do 
  58.     echo "Creating worker ${worker}" 
  59.     create_machine $worker 
  60.     machine_do $worker docker swarm join --token $worker_tkn $master_ip:2377 
  61.   done 
  62.  
  63. main $@ 

賦予它可執行權限:

  1. chmod +x create-cluster.sh 

創建集群

如文件名所示,我們可以用它來創建集群。默認情況下這個腳本會創建一個 master 和兩個 worker,如果你想修改 worker 個數,可以設置環境變量 WORKERS。

現在就來創建集群吧。

  1. ./create-cluster.sh 

你可以出去喝杯咖啡,因為這需要花點時間。

最后集群部署好了。

現在為了驗證 Swarm 模式集群已經正常運行,我們可以通過 ssh 登錄進 master:

  1. docker-machine ssh master1 

然后列出集群的節點:

  1. docker node ls 
  1. ID                           HOSTNAME  STATUS  AVAILABILITY  MANAGER STATUS 
  2. 26fi3wiqr8lsidkjy69k031w2 *  master1   Ready   Active        Leader 
  3. dyluxpq8sztj7kmwlzs51u4id    worker2   Ready   Active 
  4. epglndegvixag0jztarn2lte8    worker1   Ready   Active 

安裝 Elasticsearch 和 Kibana

注意,從現在開始所有的命令都運行在主節點 master1 上。在生產環境中,你可能會把 Elasticsearch 和 Kibana 安裝在一個單獨的、大小合適的實例集合中。但是在我們的實驗中,我們還是把它們和 Swarm 模式集群安裝在一起。

為了將 Elasticsearch 和 cAdvisor 連通,我們需要創建一個自定義的網絡,因為我們使用了集群,并且容器可能會分布在不同的節點上,我們需要使用 overlay 網絡(LCTT 譯注:overlay 網絡是指在不改變現有網絡基礎設施的前提下,通過某種約定通信協議,把二層報文封裝在 IP 報文之上的新的數據格式,是目前最主流的容器跨節點數據傳輸和路由方案)。

也許你會問,“為什么還要網絡?我們不是可以用 link 嗎?” 請考慮一下,自從引入用戶定義網絡后,link 機制就已經過時了。

以下內容摘自 Docker 文檔:

在 Docker network 特性出來以前,你可以使用 Docker link 特性實現容器互相發現、安全通信。而在 network 特性出來以后,你還可以使用 link,但是當容器處于默認橋接網絡或用戶自定義網絡時,它們的表現是不一樣的?,F在創建 overlay 網絡,名稱為 monitoring:

  1. docker network create monitoring -d overlay 

Elasticsearch 容器

  1. docker service create --network=monitoring \ 
  2.   --mount type=volume,target=/usr/share/elasticsearch/data \ 
  3.   --constraint node.hostname==worker1 \ 
  4.   --name elasticsearch elasticsearch:2.4.0 

注意 Elasticsearch 容器被限定在 worker1 節點,這是因為它運行時需要依賴 worker1 節點上掛載的卷。

Kibana 容器

  1. docker service create --network=monitoring --name kibana -e ELASTICSEARCH_URL="http://elasticsearch:9200" -p 5601:5601 kibana:4.6.0 

如你所見,我們啟動這兩個容器時,都讓它們加入 monitoring 網絡,這樣一來它們可以通過名稱(如 Kibana)被相同網絡的其他服務訪問。

現在,通過 routing mesh 機制,我們可以使用瀏覽器訪問服務器的 IP 地址來查看 Kibana 報表界面。

獲取 master1 實例的公共 IP 地址:

  1. docker-machine ip master1 

打開瀏覽器輸入地址:http://[master1 的 ip 地址]:5601/status

所有項目都應該是綠色:

讓我們接下來開始收集數據!

收集容器的運行數據

收集數據之前,我們需要創建一個服務,以全局模式運行 cAdvisor,為每個有效節點設置一個定時任務。

這個服務與 Elasticsearch 處于相同的網絡,以便于 cAdvisor 可以推送數據給 Elasticsearch。

  1. docker service create --network=monitoring --mode global --name cadvisor \ 
  2.   --mount type=bind,source=/,target=/rootfs,readonly=true \ 
  3.   --mount type=bind,source=/var/run,target=/var/run,readonly=false \ 
  4.   --mount type=bind,source=/sys,target=/sys,readonly=true \ 
  5.   --mount type=bind,source=/var/lib/docker/,target=/var/lib/docker,readonly=true \ 
  6.   google/cadvisor:latest \ 
  7.   -storage_driver=elasticsearch \ 
  8.   -storage_driver_es_host="http://elasticsearch:9200" 

注意:如果你想配置 cAdvisor 選項,參考這里。現在 cAdvisor 在發送數據給 Elasticsearch,我們通過定義一個索引模型來檢索 Kibana 中的數據。有兩種方式可以做到這一點:通過 Kibana 或者通過 API。在這里我們使用 API 方式實現。

我們需要在一個連接到 monitoring 網絡的正在運行的容器中運行索引創建命令,你可以在 cAdvisor 容器中拿到 shell,不幸的是 Swarm 模式在開啟服務時會在容器名稱后面附加一個唯一的 ID 號,所以你需要手動指定 cAdvisor 容器的名稱。

拿到 shell:

  1. docker exec -ti <cadvisor-container-name> sh 

創建索引:

  1. curl -XPUT http://elasticsearch:9200/.kibana/index-pattern/cadvisor -d '{"title" : "cadvisor*", "timeFieldName": "container_stats.timestamp"}' 

如果你夠懶,可以只執行下面這一句:

  1. docker exec $(docker ps | grep cadvisor | awk '{print $1}' | head -1) curl -XPUT http://elasticsearch:9200/.kibana/index-pattern/cadvisor -d '{"title" : "cadvisor*", "timeFieldName": "container_stats.timestamp"}' 

把數據匯總成報表

你現在可以使用 Kibana 來創建一份美觀的報表了。但是不要著急,我為你們建了一份報表和一些圖形界面來方便你們入門。

訪問 Kibana 界面 => Setting => Objects => Import,然后選擇包含以下內容的 JSON 文件,就可以導入我的配置信息了:

  1.   { 
  2.     "_id""cAdvisor"
  3.     "_type""dashboard"
  4.     "_source": { 
  5.       "title""cAdvisor"
  6.       "hits": 0, 
  7.       "description"""
  8.       "panelsJSON""[{\"id\":\"Filesystem-usage\",\"type\":\"visualization\",\"panelIndex\":1,\"size_x\":6,\"size_y\":3,\"col\":1,\"row\":1},{\"id\":\"Memory-[Node-equal->Container]\",\"type\":\"visualization\",\"panelIndex\":2,\"size_x\":6,\"size_y\":4,\"col\":7,\"row\":4},{\"id\":\"memory-usage-by-machine\",\"type\":\"visualization\",\"panelIndex\":3,\"size_x\":6,\"size_y\":6,\"col\":1,\"row\":4},{\"id\":\"CPU-Total-Usage\",\"type\":\"visualization\",\"panelIndex\":4,\"size_x\":6,\"size_y\":5,\"col\":7,\"row\":8},{\"id\":\"Network-RX-TX\",\"type\":\"visualization\",\"panelIndex\":5,\"size_x\":6,\"size_y\":3,\"col\":7,\"row\":1}]"
  9.       "optionsJSON""{\"darkTheme\":false}"
  10.       "uiStateJSON""{}"
  11.       "version": 1, 
  12.       "timeRestore"false
  13.       "kibanaSavedObjectMeta": { 
  14.         "searchSourceJSON""{\"filter\":[{\"query\":{\"query_string\":{\"query\":\"*\",\"analyze_wildcard\":true}}}]}" 
  15.       } 
  16.     } 
  17.   }, 
  18.   { 
  19.     "_id""Network"
  20.     "_type""search"
  21.     "_source": { 
  22.       "title""Network"
  23.       "description"""
  24.       "hits": 0, 
  25.       "columns": [ 
  26.         "machine_name"
  27.         "container_Name"
  28.         "container_stats.network.name"
  29.         "container_stats.network.interfaces"
  30.         "container_stats.network.rx_bytes"
  31.         "container_stats.network.rx_packets"
  32.         "container_stats.network.rx_dropped"
  33.         "container_stats.network.rx_errors"
  34.         "container_stats.network.tx_packets"
  35.         "container_stats.network.tx_bytes"
  36.         "container_stats.network.tx_dropped"
  37.         "container_stats.network.tx_errors" 
  38.       ], 
  39.       "sort": [ 
  40.         "container_stats.timestamp"
  41.         "desc" 
  42.       ], 
  43.       "version": 1, 
  44.       "kibanaSavedObjectMeta": { 
  45.         "searchSourceJSON""{\"index\":\"cadvisor*\",\"query\":{\"query_string\":{\"analyze_wildcard\":true,\"query\":\"*\"}},\"highlight\":{\"pre_tags\":[\"@kibana-highlighted-field@\"],\"post_tags\":[\"@/kibana-highlighted-field@\"],\"fields\":{\"*\":{}},\"fragment_size\":2147483647},\"filter\":[]}" 
  46.       } 
  47.     } 
  48.   }, 
  49.   { 
  50.     "_id""Filesystem-usage"
  51.     "_type""visualization"
  52.     "_source": { 
  53.       "title""Filesystem usage"
  54.       "visState""{\"title\":\"Filesystem usage\",\"type\":\"histogram\",\"params\":{\"addLegend\":true,\"addTimeMarker\":false,\"addTooltip\":true,\"defaultYExtents\":false,\"mode\":\"stacked\",\"scale\":\"linear\",\"setYExtents\":false,\"shareYAxis\":true,\"times\":[],\"yAxis\":{}},\"aggs\":[{\"id\":\"1\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.filesystem.usage\",\"customLabel\":\"USED\"}},{\"id\":\"2\",\"type\":\"terms\",\"schema\":\"split\",\"params\":{\"field\":\"machine_name\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\",\"row\":false}},{\"id\":\"3\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.filesystem.capacity\",\"customLabel\":\"AVAIL\"}},{\"id\":\"4\",\"type\":\"terms\",\"schema\":\"segment\",\"params\":{\"field\":\"container_stats.filesystem.device\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\"}}],\"listeners\":{}}"
  55.       "uiStateJSON""{\"vis\":{\"colors\":{\"Average container_stats.filesystem.available\":\"#E24D42\",\"Average container_stats.filesystem.base_usage\":\"#890F02\",\"Average container_stats.filesystem.capacity\":\"#3F6833\",\"Average container_stats.filesystem.usage\":\"#E24D42\",\"USED\":\"#BF1B00\",\"AVAIL\":\"#508642\"}}}"
  56.       "description"""
  57.       "version": 1, 
  58.       "kibanaSavedObjectMeta": { 
  59.         "searchSourceJSON""{\"index\":\"cadvisor*\",\"query\":{\"query_string\":{\"analyze_wildcard\":true,\"query\":\"*\"}},\"filter\":[]}" 
  60.       } 
  61.     } 
  62.   }, 
  63.   { 
  64.     "_id""CPU-Total-Usage"
  65.     "_type""visualization"
  66.     "_source": { 
  67.       "title""CPU Total Usage"
  68.       "visState""{\"title\":\"CPU Total Usage\",\"type\":\"area\",\"params\":{\"shareYAxis\":true,\"addTooltip\":true,\"addLegend\":true,\"smoothLines\":false,\"scale\":\"linear\",\"interpolate\":\"linear\",\"mode\":\"stacked\",\"times\":[],\"addTimeMarker\":false,\"defaultYExtents\":false,\"setYExtents\":false,\"yAxis\":{}},\"aggs\":[{\"id\":\"1\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.cpu.usage.total\"}},{\"id\":\"2\",\"type\":\"date_histogram\",\"schema\":\"segment\",\"params\":{\"field\":\"container_stats.timestamp\",\"interval\":\"auto\",\"customInterval\":\"2h\",\"min_doc_count\":1,\"extended_bounds\":{}}},{\"id\":\"3\",\"type\":\"terms\",\"schema\":\"group\",\"params\":{\"field\":\"container_Name\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\"}},{\"id\":\"4\",\"type\":\"terms\",\"schema\":\"split\",\"params\":{\"field\":\"machine_name\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\",\"row\":true}}],\"listeners\":{}}"
  69.       "uiStateJSON""{}"
  70.       "description"""
  71.       "version": 1, 
  72.       "kibanaSavedObjectMeta": { 
  73.         "searchSourceJSON""{\"index\":\"cadvisor*\",\"query\":{\"query_string\":{\"query\":\"*\",\"analyze_wildcard\":true}},\"filter\":[]}" 
  74.       } 
  75.     } 
  76.   }, 
  77.   { 
  78.     "_id""memory-usage-by-machine"
  79.     "_type""visualization"
  80.     "_source": { 
  81.       "title""Memory [Node]"
  82.       "visState""{\"title\":\"Memory [Node]\",\"type\":\"area\",\"params\":{\"shareYAxis\":true,\"addTooltip\":true,\"addLegend\":true,\"smoothLines\":false,\"scale\":\"linear\",\"interpolate\":\"linear\",\"mode\":\"stacked\",\"times\":[],\"addTimeMarker\":false,\"defaultYExtents\":false,\"setYExtents\":false,\"yAxis\":{}},\"aggs\":[{\"id\":\"1\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.memory.usage\"}},{\"id\":\"2\",\"type\":\"date_histogram\",\"schema\":\"segment\",\"params\":{\"field\":\"container_stats.timestamp\",\"interval\":\"auto\",\"customInterval\":\"2h\",\"min_doc_count\":1,\"extended_bounds\":{}}},{\"id\":\"3\",\"type\":\"terms\",\"schema\":\"group\",\"params\":{\"field\":\"machine_name\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\"}}],\"listeners\":{}}"
  83.       "uiStateJSON""{}"
  84.       "description"""
  85.       "version": 1, 
  86.       "kibanaSavedObjectMeta": { 
  87.         "searchSourceJSON""{\"index\":\"cadvisor*\",\"query\":{\"query_string\":{\"query\":\"*\",\"analyze_wildcard\":true}},\"filter\":[]}" 
  88.       } 
  89.     } 
  90.   }, 
  91.   { 
  92.     "_id""Network-RX-TX"
  93.     "_type""visualization"
  94.     "_source": { 
  95.       "title""Network RX TX"
  96.       "visState""{\"title\":\"Network RX TX\",\"type\":\"histogram\",\"params\":{\"addLegend\":true,\"addTimeMarker\":true,\"addTooltip\":true,\"defaultYExtents\":false,\"mode\":\"stacked\",\"scale\":\"linear\",\"setYExtents\":false,\"shareYAxis\":true,\"times\":[],\"yAxis\":{}},\"aggs\":[{\"id\":\"1\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.network.rx_bytes\",\"customLabel\":\"RX\"}},{\"id\":\"2\",\"type\":\"date_histogram\",\"schema\":\"segment\",\"params\":{\"field\":\"container_stats.timestamp\",\"interval\":\"s\",\"customInterval\":\"2h\",\"min_doc_count\":1,\"extended_bounds\":{}}},{\"id\":\"3\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.network.tx_bytes\",\"customLabel\":\"TX\"}}],\"listeners\":{}}"
  97.       "uiStateJSON""{\"vis\":{\"colors\":{\"RX\":\"#EAB839\",\"TX\":\"#BF1B00\"}}}"
  98.       "description"""
  99.       "savedSearchId""Network"
  100.       "version": 1, 
  101.       "kibanaSavedObjectMeta": { 
  102.         "searchSourceJSON""{\"filter\":[]}" 
  103.       } 
  104.     } 
  105.   }, 
  106.   { 
  107.     "_id""Memory-[Node-equal->Container]"
  108.     "_type""visualization"
  109.     "_source": { 
  110.       "title""Memory [Node=>Container]"
  111.       "visState""{\"title\":\"Memory [Node=>Container]\",\"type\":\"area\",\"params\":{\"shareYAxis\":true,\"addTooltip\":true,\"addLegend\":true,\"smoothLines\":false,\"scale\":\"linear\",\"interpolate\":\"linear\",\"mode\":\"stacked\",\"times\":[],\"addTimeMarker\":false,\"defaultYExtents\":false,\"setYExtents\":false,\"yAxis\":{}},\"aggs\":[{\"id\":\"1\",\"type\":\"avg\",\"schema\":\"metric\",\"params\":{\"field\":\"container_stats.memory.usage\"}},{\"id\":\"2\",\"type\":\"date_histogram\",\"schema\":\"segment\",\"params\":{\"field\":\"container_stats.timestamp\",\"interval\":\"auto\",\"customInterval\":\"2h\",\"min_doc_count\":1,\"extended_bounds\":{}}},{\"id\":\"3\",\"type\":\"terms\",\"schema\":\"group\",\"params\":{\"field\":\"container_Name\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\"}},{\"id\":\"4\",\"type\":\"terms\",\"schema\":\"split\",\"params\":{\"field\":\"machine_name\",\"size\":5,\"order\":\"desc\",\"orderBy\":\"1\",\"row\":true}}],\"listeners\":{}}"
  112.       "uiStateJSON""{}"
  113.       "description"""
  114.       "version": 1, 
  115.       "kibanaSavedObjectMeta": { 
  116.         "searchSourceJSON""{\"index\":\"cadvisor*\",\"query\":{\"query_string\":{\"query\":\"* NOT container_Name.raw: \\\\\\\"/\\\\\\\" AND NOT container_Name.raw: \\\\\\\"/docker\\\\\\\"\",\"analyze_wildcard\":true}},\"filter\":[]}" 
  117.       } 
  118.     } 
  119.   } 

這里還有很多東西可以玩,你也許想自定義報表界面,比如添加內存頁錯誤狀態,或者收發包的丟包數。如果你能實現開頭列表處我沒能實現的項目,那也是很好的。

總結

正確監控需要大量時間和精力,容器的 CPU、內存、IO、網絡和磁盤,監控的這些參數還只是整個監控項目中的滄海一粟而已。

我不知道你做到了哪一階段,但接下來的任務也許是:

  • 收集運行中的容器的日志
  • 收集應用的日志
  • 監控應用的性能
  • 報警
  • 監控健康狀態

如果你有意見或建議,請留言。祝你玩得開心。

現在你可以關掉這些測試系統了:

  1. docker-machine rm master1 worker{1,2} 
責任編輯:武曉燕 來源: Linux中國
相關推薦

2019-09-26 08:59:39

DockerGoogle軟件

2019-07-01 09:33:58

DockerNginx操作系統

2021-05-11 08:00:00

Docker容器開發

2019-12-05 10:40:41

DockerMySQL數據庫

2021-11-07 07:45:39

ODBParser數據安全安全工具

2023-06-16 16:06:02

lazydockerDocker容器

2021-01-15 13:37:43

Portainer.iDocker運維

2021-01-15 13:54:04

Portainer.iDocker運維

2016-11-03 20:06:53

UbuntuGrafanaDocker

2023-02-22 08:28:22

開源搜索引擎python

2023-11-26 00:52:12

Docker鏡像容器

2021-04-16 08:00:00

容器Docker工具

2019-07-08 08:59:41

Docker容器主機

2022-07-25 14:24:53

Docker容器安全

2021-06-09 09:36:18

DjangoElasticSearLinux

2019-07-16 14:44:52

DockerMySQL操作系統

2021-06-02 08:11:59

ElasticSearUptim監控

2021-10-26 07:24:10

Gorsair容器安全工具

2015-08-07 10:10:18

LinuxDocker容器

2014-12-24 10:00:07

Spring
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久综合一区二区 | 成人综合在线视频 | 日本午夜精品一区二区三区 | 久久久久久av | 国产a视频 | 国产乱码精品一品二品 | 国产91亚洲精品一区二区三区 | 日韩视频免费看 | 欧美黄视频| 91视频大全 | 美女中文字幕视频 | 欧美一区二区三区日韩 | 精品国产一区二区三区在线观看 | 超黄毛片 | 亚洲精品欧美 | 午夜成人免费电影 | 国产精品久久久久久久久久 | 自拍偷拍精品 | 亚洲欧洲成人av每日更新 | 在线看免费 | 久久精品亚洲一区 | 一级国产精品一级国产精品片 | 亚洲精品99 | 日韩色综合 | 久久久91精品国产一区二区三区 | 天天人人精品 | 日韩欧美在线免费观看视频 | 伊人精品在线视频 | 国产精品一区二区在线免费观看 | zzzwww在线看片免费 | 91视视频在线观看入口直接观看 | 欧美一级欧美一级在线播放 | 日本三级在线网站 | 亚洲字幕在线观看 | 国产最新视频在线 | 毛片视频网站 | 亚洲成人一区 | 9191av| 日韩一级免费 | 欧美一区二区三区在线观看 | 欧美精品久久久久 |