成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

記一次Ceph pg unfound處理過程

運維 系統運維
今天檢查ceph集群,發現有pg丟失,本文就給大家介紹一下解決方法。

[[379685]]

 今天檢查ceph集群,發現有pg丟失,于是就有了本文~~~

1.查看集群狀態

  1. [root@k8snode001 ~]# ceph health detail 
  2. HEALTH_ERR 1/973013 objects unfound (0.000%); 17 scrub errors; Possible data damage: 1 pg recovery_unfound, 8 pgs inconsistent, 1 pg repair; Degraded data redundancy: 1/2919039 objects degraded (0.000%), 1 pg degraded 
  3. OBJECT_UNFOUND 1/973013 objects unfound (0.000%) 
  4.     pg 2.2b has 1 unfound objects 
  5. OSD_SCRUB_ERRORS 17 scrub errors 
  6. PG_DAMAGED Possible data damage: 1 pg recovery_unfound, 8 pgs inconsistent, 1 pg repair 
  7.     pg 2.2b is active+recovery_unfound+degraded, acting [14,22,4], 1 unfound 
  8.     pg 2.44 is active+clean+inconsistent, acting [14,8,21] 
  9.     pg 2.73 is active+clean+inconsistent, acting [25,14,8] 
  10.     pg 2.80 is active+clean+scrubbing+deep+inconsistent+repair, acting [4,8,14] 
  11.     pg 2.83 is active+clean+inconsistent, acting [14,13,6] 
  12.     pg 2.ae is active+clean+inconsistent, acting [14,3,2] 
  13.     pg 2.c4 is active+clean+inconsistent, acting [8,21,14] 
  14.     pg 2.da is active+clean+inconsistent, acting [23,14,15] 
  15.     pg 2.fa is active+clean+inconsistent, acting [14,23,25] 
  16. PG_DEGRADED Degraded data redundancy: 1/2919039 objects degraded (0.000%), 1 pg degraded 
  17.     pg 2.2b is active+recovery_unfound+degraded, acting [14,22,4], 1 unfound 

 從輸出發現pg 2.2b is active+recovery_unfound+degraded, acting [14,22,4], 1 unfound

現在我們來查看pg 2.2b,看看這個pg的想想信息。

  1. [root@k8snode001 ~]# ceph pg dump_json pools    |grep 2.2b 
  2. dumped all 
  3. 2.2b       2487                  1        1         0       1  9533198403 3048     3048                active+recovery_unfound+degraded 2020-07-23 08:56:07.669903  10373'5448370  10373:7312614  [14,22,4]         14  [14,22,4]             14  10371'5437258 2020-07-23 08:56:06.637012   10371'5437258 2020-07-23 08:56:06.637012             0 

 可以看到它現在只有一個副本

2.查看pg map

  1. [root@k8snode001 ~]# ceph pg map 2.2b 
  2. osdmap e10373 pg 2.2b (2.2b) -> up [14,22,4] acting [14,22,4] 

 從pg map可以看出,pg 2.2b分布到osd [14,22,4]上

3.查看存儲池狀態

  1. [root@k8snode001 ~]# ceph osd pool stats k8s-1 
  2. pool k8s-1 id 2 
  3.   1/1955664 objects degraded (0.000%) 
  4.   1/651888 objects unfound (0.000%) 
  5.   client io 271 KiB/s wr, 0 op/s rd, 52 op/s wr 
  6.  
  7. [root@k8snode001 ~]# ceph osd pool ls detail|grep k8s-1 
  8. pool 2 'k8s-1' replicated size 3 min_size 1 crush_rule 0 object_hash rjenkins pg_num 256 pgp_num 256 last_change 88 flags hashpspool,selfmanaged_snaps stripe_width 0 application rbd 

 4.嘗試恢復pg 2.2b丟失地塊

  1. [root@k8snode001 ~]# ceph pg repair 2.2b 

如果一直修復不成功,可以查看卡住PG的具體信息,主要關注recovery_state,命令如下

  1. [root@k8snode001 ~]# ceph pg 2.2b  query 
  2.     "...... 
  3.     "recovery_state": [ 
  4.         { 
  5.             "name""Started/Primary/Active"
  6.             "enter_time""2020-07-21 14:17:05.855923"
  7.             "might_have_unfound": [], 
  8.             "recovery_progress": { 
  9.                 "backfill_targets": [], 
  10.                 "waiting_on_backfill": [], 
  11.                 "last_backfill_started""MIN"
  12.                 "backfill_info": { 
  13.                     "begin""MIN"
  14.                     "end""MIN"
  15.                     "objects": [] 
  16.                 }, 
  17.                 "peer_backfill_info": [], 
  18.                 "backfills_in_flight": [], 
  19.                 "recovering": [], 
  20.                 "pg_backend": { 
  21.                     "pull_from_peer": [], 
  22.                     "pushing": [] 
  23.                 } 
  24.             }, 
  25.             "scrub": { 
  26.                 "scrubber.epoch_start""10370"
  27.                 "scrubber.active"false
  28.                 "scrubber.state""INACTIVE"
  29.                 "scrubber.start""MIN"
  30.                 "scrubber.end""MIN"
  31.                 "scrubber.max_end""MIN"
  32.                 "scrubber.subset_last_update""0'0"
  33.                 "scrubber.deep"false
  34.                 "scrubber.waiting_on_whom": [] 
  35.             } 
  36.         }, 
  37.         { 
  38.             "name""Started"
  39.             "enter_time""2020-07-21 14:17:04.814061" 
  40.         } 
  41.     ], 
  42.     "agent_state": {} 

 如果repair修復不了;兩種解決方案,回退舊版或者直接刪除

5.解決方案

  1. 回退舊版 
  2. [root@k8snode001 ~]# ceph pg  2.2b  mark_unfound_lost revert 
  3. 直接刪除 
  4. [root@k8snode001 ~]# ceph pg  2.2b  mark_unfound_lost delete 

 6.驗證

我這里直接刪除了,然后ceph集群重建pg,稍等會再看,pg狀態變為active+clean

  1. [root@k8snode001 ~]#  ceph pg  2.2b query 
  2.     "state""active+clean"
  3.     "snap_trimq""[]"
  4.     "snap_trimq_len": 0, 
  5.     "epoch": 11069, 
  6.     "up": [ 
  7.         12, 
  8.         22, 
  9.         4 
  10.     ], 

 再次查看集群狀態

  1. [root@k8snode001 ~]# ceph health detail 
  2. HEALTH_OK 

 【編輯推薦】

 

責任編輯:姜華 來源: 今日頭條
相關推薦

2022-06-01 06:17:42

微服務Kafka

2019-09-08 17:52:10

數據庫log file sy等待事件

2017-12-19 14:00:16

數據庫MySQL死鎖排查

2019-08-26 09:50:09

2023-10-10 12:05:45

2021-08-19 09:50:53

Java內存泄漏

2021-11-23 21:21:07

線上排查服務

2022-01-10 09:31:17

Jetty異步處理seriesbaid

2011-08-08 13:31:44

數據分析數據倉庫

2021-11-11 16:14:04

Kubernetes

2017-09-22 10:16:16

MySQL數據庫用戶數據

2009-09-24 17:11:53

Hibernate處理

2021-12-06 17:21:05

異常報錯故障

2022-01-07 11:48:59

RabbitMQGolang 項目

2017-07-07 16:07:41

2014-08-11 09:31:52

2023-04-06 07:53:56

Redis連接問題K8s

2014-04-15 14:28:14

2010-06-09 18:17:20

Postfix郵件

2010-06-02 18:00:05

Postfix郵件
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩毛片| 久久综合888 | 最新国产精品 | 一级日韩 | 玖玖操| 日韩欧美国产综合 | 亚洲精品一区二三区不卡 | 免费在线观看一区二区 | 日韩一区中文字幕 | 伊人亚洲| 亚洲一区中文 | 颜色网站在线观看 | 81精品国产乱码久久久久久 | 午夜激情影院 | 亚洲美乳中文字幕 | 精品国产乱码久久久久久影片 | 午夜久久久 | 中文字幕在线一区二区三区 | 国产日韩欧美一区二区 | 国产激情一区二区三区 | 亚洲欧洲精品一区 | 久久久久一区 | 午夜视频在线观看网址 | 99热视 | 曰批视频在线观看 | 国产精品中文字幕在线播放 | 在线观看欧美一区 | 久草网免费 | 在线一区二区三区 | 国产精品影视在线观看 | 91色在线视频 | 天天色图 | 91久久精品国产免费一区 | 狠狠爱综合网 | 成人性生交a做片 | 国产精品1区2区 | 欧美日韩视频在线第一区 | 国产一区免费视频 | 成人在线精品视频 | 欧美精品久久久久久久久久 | 欧美一级片免费看 |