Ceph部署02:添加集群节点

Ceph部署02:添加集群节点

登录到节点1,节点2,节点3,修改机器名,以及hosts文件。已经修改过的就不用修改了。

#登录节点2
hostnamectl set-hostname vm-c02

#登录节点3
hostnamectl set-hostname vm-c03
vi /etc/hosts
#增加
192.168.1.105 vm-c01
192.168.1.106 vm-c02
192.168.1.107 vm-c03

[root@localhost ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.105 vm-c01
192.168.1.106 vm-c02
192.168.1.107 vm-c03

两个新节点增加集群SSH公钥,在第一台部署节点上执行如下指令

ssh-copy-id -f -i /etc/ceph/ceph.pub root@192.168.1.106
ssh-copy-id -f -i /etc/ceph/ceph.pub root@192.168.1.107

将新节点增加到ceph集群内

ceph orch host add vm-c02 192.168.1.106
ceph orch host add vm-c03 192.168.1.107
Ceph 会在集群增长时自动部署监视器守护进程,并在集群缩小时自动缩减监视器守护进程。所以我们在增加完节点的时候,新节点上啥进程也没有。如图:

耐心等等,过一会儿,相关的监控进程,管理进程等服务,就会逐步的扩张完毕了。能够自维护的特性,非常棒。

嗯。这个一会儿,时间稍微有点久。大概十五分钟。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注