环境准备
1.一台服务器(测试用途)
ceph01 172.16.1.230
2.设置主机名
172.16.1.230 ceph01
关闭防火墙
systemctl stop firewalld.service systemctl disable firewalld.service
禁用selinux
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config setenforce 0
时间更新同步
yum install ntpdate -y ntpdate asia.pool.ntp.org
做免密钥认证(多台机器之间)
在管理节点上生成密钥,并复制到其他节点
3.安装ceph
安装ceph管理工具ceph-deploy
yum install -y ceph-deploy
创建工作目录
mkdir /ceph cd /ceph
安装ceph客户端
在每台主机上安装ceph
yum install -y ceph
或者 在管理节点上之行
ceph-deploy install ceph01 [host02...]
在管理主机上操作
启动一个新的ceph集群,并设置初始监控节点
ceph-deploy new ceph01
激活监控节点
ceph-deploy mon create-initial
磁盘操作
ceph-deploy disk zap cephnode01:/dev/sdb1 [host02:/dev/sdx1...] #擦除盘所有数据 ceph-deploy osd prepare cephnode01:/dev/sdb1 [host02:/dev/sdx1...] #格式化盘 ceph-deploy osd activate cephnode01:/dev/sdb1 [host02:/dev/sdx1...] #激活盘
也可以使用create完成,但是有bug
ceph-deploy osd create node4:sdb node2:sdb node4:sdc node2:sdc node3:sdb node3:sdc
确认集群状态,显示OK则正常
ceph -s
创建相关的池
ceph osd pool create image 64
ceph建好后默认有个rbd池,可以考虑删除
ceph osd pool delete rbd rbd --yes-i-really-really-mean-it
创建一个镜像,-p参数指定池的名称,-size单位为M
rbd create test --size 1024 -p image
如果安装中途有什么问题,可以推到重来
ceph-deploy purge 节点1 节点2 .... ceph-deploy purgedata 节点1 节点2 .... ceph-deploy forgetkeys