반응형
Ceph storage를 사용하다가 Ceph cluster node 중 일부 Node를 강제로 재기동하다보면
아래와 같은 에러 로그를 Dashboard에서 보게 된다.
... 3/6/23 3:00:00 PM [WRN] overall HEALTH_WARN 1 mgr modules have recently crashed 3/6/23 2:50:00 PM [WRN] overall HEALTH_WARN 1 mgr modules have recently crashed 3/6/23 2:40:00 PM [WRN] overall HEALTH_WARN 1 mgr modules have recently crashed ...
위 로그가 출력되거나 Dashboard 화면에서 Unhealth warning 정보가 출력될 때,
아래처럼 `ceph crash archive-all` 명령을 수행하면 간단하게 해결된다.
$ kubectl -n rook-ceph exec -it deploy/rook-ceph-tools -- bash ## ## Ceph tool container 내부로 접속하여, ceph crash 목록을 확인 ## bash-4.4$ ceph crash ls ID ENTITY NEW 2023-02-01T07:02:56.432333Z_6ab1d847-9cbc-449b-9167-8b53e96774d8 mgr.a * 2023-02-22T05:18:10.263896Z_7321ae9d-7dd8-49c9-a9e0-18ff892e3050 mgr.a * ## ## ceph crash 상세 정보를 확인 (특이 사항이 있는지 확인하는 차원에서~) ## bash-4.4$ ceph crash info 2023-02-22T05:18:10.263896Z_7321ae9d-7dd8-49c9-a9e0-18ff892e3050 { "backtrace": [ " File \"/usr/share/ceph/mgr/nfs/module.py\", line 154, in cluster_ls\n return available_clusters(self)", ... 중간 생략 ... "orchestrator._interface.NoOrchestrator: No orchestrator configured (try `ceph orch set backend`)" ], "ceph_version": "17.2.5", "process_name": "ceph-mgr", ... 중간 생략 ... "utsname_version": "#66-Ubuntu SMP Fri Jan 20 14:29:49 UTC 2023" } ## ## 아래 명령을 수행하여 crash 상태를 정리 ## bash-4.4$ ceph crash archive-all
확인하는 차원에서 아래 명령으로 한번 더 ceph 상태를 확인한다.
bash-4.4$ ceph status cluster: id: 4e855f4b-085d-45d4-b713-19fc82d1a2a5 health: HEALTH_OK services: mon: 3 daemons, quorum a,b,d (age 11d) mgr: b(active, since 11d), standbys: a osd: 3 osds: 3 up (since 11d), 3 in (since 4w) data: pools: 2 pools, 33 pgs objects: 3.69k objects, 13 GiB usage: 40 GiB used, 710 GiB / 750 GiB avail pgs: 33 active+clean
'kubernetes' 카테고리의 다른 글
Kubespray를 이용하여 Kubernetes Cluster 구축하기 (3) | 2023.08.21 |
---|---|
Kubernetes 관련 영상 모음 (Use Case, 데브시스터즈, 설치, 배포, CI/CD, etc) (0) | 2023.03.17 |
Kubernetes, Ceph Storage 환경에서 PV Snapshot 방식 백업 (0) | 2023.02.22 |
Ceph 성능 튜닝 (0) | 2023.02.22 |
Oracle Cloud Infra(OCI) 그리고 OKE 기술 블로그(사용 설명서) (0) | 2023.02.15 |