【ceph】集群运维记录 - osd reweight & 节点重启

时间:2021-09-22
本文章向大家介绍【ceph】集群运维记录 - osd reweight & 节点重启 ,主要包括【ceph】集群运维记录 - osd reweight & 节点重启 使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

001 - osd磁盘超过95%后集群不可读写-调整权重进行reblance

#背景:三节点ceph集群某个osd打满之后>95%,影响ceph使用
#获取当前ceph集群osd信息命令:
ceph osd df  #获取当前集群osd列表,权总,与使用率等信息
ceph osd tree  #获取当前集群osd 物理位置,权重等信息
 
#reblance操作:
ceph osd reweight osd.{ osd number } { WEIGHT }  #示例:ceph osd reweight osd.5 0.8
 
#之后等待集群同步完成,初期比较慢,后期会快很多。
#同步完成后将osd权重修改会1.0
ceph osd reweight osd.5 1.0

002 - ceph集群节点宿主机重启操作步骤

#背景:osd满了之后,由于使用rbd本地挂载的方式使用,目前已经打开的文件链接无法中断,进程变为被主进程1接管的僵尸进程,只能通过重启解决。
#首先停止ceph集群自动化恢复的相关配置:
ceph osd set noout
ceph osd set norecover
ceph osd set norebalance
ceph osd set nobackfill
ceph osd set nodown
ceph osd set pause
 
#停止osd进程
 systemctl list-units --type=service | grep ceph  #常看当前节点ceph进程,按照osd  mon 其他的顺序停止进程
 
#命令示例
systemctl disable ceph-osd@6.service
 
#重启服务器
shutdown -r now
 
#恢复ceph相关配置:
ceph osd unset noout
ceph osd unset norecover
ceph osd unset norebalance
ceph osd unset nobackfill
ceph osd unset nodown
ceph osd unset pause

原文地址:https://www.cnblogs.com/liujian001/p/15319901.html