标签: 添加集群节点

  • Ceph部署02:添加集群节点

    登录到节点1,节点2,节点3,修改机器名,以及hosts文件。已经修改过的就不用修改了。

    #登录节点2
    hostnamectl set-hostname vm-c02
    
    #登录节点3
    hostnamectl set-hostname vm-c03
    vi /etc/hosts
    #增加
    192.168.1.105 vm-c01
    192.168.1.106 vm-c02
    192.168.1.107 vm-c03
    
    [root@localhost ~]# cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    192.168.1.105 vm-c01
    192.168.1.106 vm-c02
    192.168.1.107 vm-c03

    两个新节点增加集群SSH公钥,在第一台部署节点上执行如下指令

    ssh-copy-id -f -i /etc/ceph/ceph.pub root@192.168.1.106
    ssh-copy-id -f -i /etc/ceph/ceph.pub root@192.168.1.107

    将新节点增加到ceph集群内

    ceph orch host add vm-c02 192.168.1.106
    ceph orch host add vm-c03 192.168.1.107
    Ceph 会在集群增长时自动部署监视器守护进程,并在集群缩小时自动缩减监视器守护进程。所以我们在增加完节点的时候,新节点上啥进程也没有。如图:

    耐心等等,过一会儿,相关的监控进程,管理进程等服务,就会逐步的扩张完毕了。能够自维护的特性,非常棒。

    嗯。这个一会儿,时间稍微有点久。大概十五分钟。