测试环境

操作系统 主机名 IP OSD 设备 OSD ID 容量 ceph 版本
CentOS7 ceph101 192.168.1.101 /dev/sdb 0 3TB jewel
CentOS7 ceph102 192.168.1.102 /dev/sdb 1 3TB jewel
CentOS7 ceph103 192.168.1.103 /dev/sdb 2 3TB jewel
  • ceph 部署机
    • 操作系统: CentOS7
    • 部署用户: cephdeploy
    • 操作目录: /home/cephdeploy/ceph-cluster
    • IP: 192.168.1.100

新增 OSD

  • 设置 ceph 三个 noflag,禁止 ceph 自动迁移数据
    1
    2
    3
    4
    5
    
    # 在任一节点上执行下面命令即可
    ceph osd set noout
    ceph osd set nobackfill
    ceph osd set norecover
    ceph -s # 此时能看到这三个 flag,而且集群处于不健康状态
    
  • 关闭这三台 ceph 服务器, 加装新的磁盘,个人认为无需配置多盘 raid
  • 启动这三台 ceph 服务器,此时 ceph 自动启动,那三个 noflag 依旧有效
  • 此时查看每台服务器的存储,应该能看到新增的一个或多个裸磁盘
    1
    
    lsblk
    
  • 这里假设每台服务器新增两个磁盘(/dev/sdc,/dev/sdd),都配置成 osd
     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    
    # 在 ceph 部署机上执行以下命令
    su - cephdeploy
    cd /home/cephdeploy/ceph-cluster
    # 每次创建一个,别浪 ...
    ceph-deploy osd create ceph101:/dev/sdc
    ceph-deploy osd create ceph101:/dev/sdd
    ceph-deploy osd create ceph102:/dev/sdc
    ceph-deploy osd create ceph102:/dev/sdd
    ceph-deploy osd create ceph103:/dev/sdc
    ceph-deploy osd create ceph103:/dev/sdd
    
  • osd 增加完成后, 取消之前设置的那三个 noflag
    1
    2
    3
    4
    
    # 在任一节点上执行下面命令即可
    ceph osd unset noout
    ceph osd unset nobackfill
    ceph osd unset norecover
    
  • 此时数据向新增的 osd 上均衡,时间不确定 …… 只能等!
    1
    2
    
    # 在任一节点上执行下面命令,观察数据迁移
    ceph -w
    
  • 直至 ceph 恢复健康状态
    1
    2
    
    # 在任一节点上执行下面命令,查看集群状态
    ceph -s
    

删除 OSD

  • 把指定的 osd 踢出集群
    1
    2
    3
    
    # 在任一节点上执行下面命令即可
    ceph osd out {osd-id}
    ceph -s # 此时能看到一个 osd 已经 out
    
  • 此时数据在剩下的几个 osd 上均衡,时间不确定 …… 只能等!
    1
    2
    
    # 在任一节点上执行下面命令,观察数据迁移
    ceph -w
    
  • 直至 ceph 恢复健康状态
    1
    2
    
    # 在任一节点上执行下面命令,查看集群状态
    ceph -s
    
  • 停止该被踢出的 osd
    1
    2
    3
    
    # 在运行该 osd 的节点上执行下面命令
    systemctl stop ceph-osd@{osd-id}
    ceph -s # 此时能看到一个 osd 已经 down
    
  • 删除该被停止的 osd
    1
    2
    3
    4
    5
    6
    7
    8
    
    # 在任一节点上执行下面命令即可
    # 删除 CRUSH 图对应的 osd 条目
    ceph osd crush remove osd.{osd-id}
    # 删除 osd 认证密钥
    ceph auth del osd.{osd-id}
    # 删除 osd
    ceph osd rm {osd-num}
    # 删除各节点的 ceph.conf 可能存在的 osd.{osd-id} 配置
    
  • 设置 ceph 三个 noflag,禁止 ceph 自动迁移数据
    1
    2
    3
    4
    5
    
    # 在任一节点上执行下面命令即可
    ceph osd set noout
    ceph osd set nobackfill
    ceph osd set norecover
    ceph -s # 此时能看到这三个 flag,而且集群处于不健康状态
    
  • 关闭这三台 ceph 服务器,撤掉已被删除 osd 对应的旧磁盘
  • 启动这三台 ceph 服务器,此时 ceph 自动启动,三个 noflag 依旧有效;
  • 取消之前设置的那三个 noflag
    1
    2
    3
    4
    
    # 在任一节点上执行下面命令即可
    ceph osd unset noout
    ceph osd unset nobackfill
    ceph osd unset norecover
    
  • 直至 ceph 恢复健康状态
    1
    2
    
    # 在任一节点上执行下面命令,查看集群状态
    ceph -s
    

OSD 动态配置

  • 查看 osd 当前配置
    1
    
    ceph -n osd.0 --show-config
    
  • 动态修改 osd 某个参数
    1
    
    ceph tell osd.* injectargs '--osd_max_backfills 7'
    

PG 和 PGP

  • 少于 5 个 OSD 时可把 pg_num 设置为 128
  • OSD 数量在 5 到 10 个时,可把 pg_num 设置为 512
  • OSD 数量在 10 到 50 个时,可把 pg_num 设置为 1024
  • OSD 数量大于 50 时,<osd数量> * 100/副本数量(默认3),该值接近的 2 的 N 次方值
  • 存储池的 PG 和 PGP 数量一般相等,都是 2 的 N 次方,只能增加,每次增加为当前的 2 倍
  • 查看存储池的 PG 和 PGP 数量
    1
    2
    
    ceph osd pool get {pool_name} pg_num
    ceph osd pool get {pool_name} pgp_num
    
  • 增加/设置存储池的 PG 和 PGP 数量
    1
    2
    
    ceph osd pool set {pool_name} <cur_pg_num>*2
    ceph osd pool set {pool_name} <cur_pgp_num>*2
    
  • 获取所有卡在某状态的归置组统计信息
    1
    2
    3
    
    ceph pg dump_stuck inactive|unclean|stale|undersized|degraded
    #Inactive (不活跃)归置组不能处理读写,因为它们在等待一个有最新数据的 OSD 复活且进入集群
    #Unclean (不干净)归置组含有复制数未达到期望数量的对象,它们应该在恢复中
    
  • 获取一个具体归置组的归置组图
    1
    
    ceph pg map {pg-id}
    

CEPH 服务器关机维护

  • 设置 ceph 节点 down 后不自动迁移或恢复数据
    1
    2
    3
    
    ceph osd set noout
    ceph osd set nobackfill
    ceph osd set norecover
    
  • 直接关机
  • 下次开机
  • 设置 ceph 节点开始自动迁移或回复数据
    1
    2
    3
    
    ceph osd unset noout
    ceph osd unset nobackfill
    ceph osd unset norecover