使用cephadm部署ceph集群

1、准备工作

机器编号主机名IP
1ceph0110.0.1.211
2ceph0210.0.1.212
3ceph0310.0.1.213

关闭selinux、firewalld,配置hostname以及/etc/hosts

$ systemctl stop firewalld
$ systemctl disable firewalld
$ setenforce 0
$ sed -i 's#SELINUX=enforcing#SELINUX=disabled#g' /etc/sysconfig/selinux
$ cat >> /etc/hosts <<EOF
10.0.1.211 ceph01
10.0.1.212 ceph02
10.0.1.213 ceph03
EOF

为每一台机器都准备至少一块单独的磁盘(vmware下很方便增加虚拟磁盘),不需要格式化。

所有机器安装时间同步服务chrony

$ yum install -y chrony
$ systemctl start chronyd
$ systemctl enable chronyd

设置yum源(ceph1上)

$ vi  /etc/yum.repos.d/ceph.repo
#内容如下
$ cat /etc/yum.repos.d/ceph.repo

[ceph]

name=ceph baseurl=http://mirrors.aliyun.com/ceph/rpm-pacific/el8/x86_64/ gpgcheck=0 priority =1

[ceph-noarch]

name=cephnoarch baseurl=http://mirrors.aliyun.com/ceph/rpm-pacific/el8/noarch/ gpgcheck=0 priority =1

[ceph-source]

name=Ceph source packages baseurl=http://mirrors.aliyun.com/ceph/rpm-pacific/el8/SRPMS gpgcheck=0 priority=1

所有机器安装docker-ce(ceph使用docker形式部署)
先安装yum-utils工具

$ yum install -y yum-utils

配置Docker官方的yum仓库,如果做过,可以跳过

$ yum-config-manager 
    --add-repo 
    https://download.docker.com/linux/centos/docker-ce.repo

安装docker-ce

$ yum install -y docker-ce

启动服务

$ systemctl start docker
$ systemctl enable docker

所有机器安装python3、lvm2(三台都做)

$ yum install -y python3  lvm2

2、安装cephadm(ceph1上执行)

$ yum install -y cephadm

3、使用cephadm部署ceph(ceph1上)

$ cephadm  bootstrap --mon-ip 10.0.1.211  # IP为ceph01的IP

Ceph Dashboard is now available at:

         URL: https://ceph01:8443/
        User: admin
    Password: sl6q1pzsa7

Enabling client.admin keyring and conf on hosts with "admin" label
Enabling autotune for osd_memory_target
  • 注意看用户名、密码

因网络问题导致镜像无法下载可以配置docker源

cat > /etc/docker/daemon.json <<EOF
{
  "registry-mirrors": ["https://e8uef4us.mirror.aliyuncs.com"]
}
EOF

4、访问dashboard

地址:https://10.0.1.211:8443
登陆后需要先更改密码
FileSharing59.png
更改密码后使用新密码登录
FileSharing60.png
FileSharing61.png

5、增加节点
首先进入ceph shell(ceph01上)

$ cephadm  shell  ##会进入ceph的shell界面下

Inferring fsid 69e2f148-7005-11ee-8438-00505684afef
Using recent ceph image quay.io/ceph/ceph@sha256:2d92fe9c95e31bba4d9482194544bc3e78cae6c658bad219365203064c3e46e3

生成ssh密钥对儿

[ceph: root@ceph1 /]# ceph cephadm get-pub-key > ~/ceph.pub

配置到另外两台机器免密登录

[ceph: root@ceph1 /]# ssh-copy-id -f -i ~/ceph.pub root@ceph02
[ceph: root@ceph1 /]# ssh-copy-id -f -i ~/ceph.pub root@ceph03

到浏览器里,增加主机
FileSharing62.png
两个节点都需要添加,方法如上图
添加后如下图
FileSharing63.png

6、创建OSD(ceph shell模式下,在ceph01上操作)
假设三台机器上新增的新磁盘为/dev/sdb

$ ceph orch daemon add osd ceph01:/dev/sdb
$ ceph orch daemon add osd ceph02:/dev/sdb
$ ceph orch daemon add osd ceph03:/dev/sdb

查看磁盘列表:

$ ceph orch device ls

HOST    PATH      TYPE  DEVICE ID   SIZE  AVAILABLE  REFRESHED  REJECT REASONS                                                 
ceph01  /dev/sdb  hdd               100G             53s ago    Insufficient space (<10 extents) on vgs, LVM detected, locked  
ceph02  /dev/sdb  hdd               100G             23s ago    Insufficient space (<10 extents) on vgs, LVM detected, locked  
ceph03  /dev/sdb  hdd               100G  Yes        95s ago                                                                   

此时dashboard上也可以看到
FileSharing64.png

7、创建pool
FileSharing65.png
FileSharing66.png
FileSharing67.png

8、查看集群状态

$ ceph -s

  cluster:
    id:     69e2f148-7005-11ee-8438-00505684afef
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum ceph01,ceph02,ceph03 (age 9m)
    mgr: ceph01.kymaix(active, since 23m), standbys: ceph02.vmtjjk
    osd: 3 osds: 3 up (since 7m), 3 in (since 8m)

  data:
    pools:   2 pools, 33 pgs
    objects: 0 objects, 0 B
    usage:   871 MiB used, 299 GiB / 300 GiB avail
    pgs:     33 active+clean

  progress:
  • health为HEALTH_OK为正常

9、针对pool01 pool启用rbd application

$ ceph osd pool application enable  pool01 rbd

enabled application 'rbd' on pool 'pool01'

10、初始化pool

$ rbd pool init pool01
FileSharing68.png
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给TA打赏
共{{data.count}}人
人已打赏
SkyWalking云原生

应用接入Skywalking

2025-7-15 6:25:17

Ceph云原生

使用Rook部署Ceph存储集群

2025-7-15 6:30:45

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
本站支持IPv6访问