Linux | Ceph | Ubuntu 中部署 Ceph 集群
2021/10/20 7:12:31
本文主要是介绍Linux | Ceph | Ubuntu 中部署 Ceph 集群,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
Ceph 部署 : 手动
注意事项
- 操作系统 ubuntu 20.4
1. 配置 Ceph APT源
echo deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
2. 添加 APT 源 Key
wget -q -O- 'https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc' | sudo apt-key add -
3.更新源并且安装 ceph-deploy
sudo apt-get update sudo apt-get install ceph-deploy -y
4. 配置host文件 (所有节点执行)
cat /etc/hosts 192.168.1.101 controller1 192.168.1.102 controller2 192.168.1.103 controller3
5. 配置各个节点互信 (所有节点执行)
ssh-keygen
6. 赋值 Key 到各个节点 (所有节点执行)
ssh-copy-id controller1 ssh-copy-id controller2 ssh-copy-id controller3
7. 安装Cephadm(所有节点)
apt-get install cephadm
8. 安装 Ceph
8.1 步骤1: 创建配置文件目录
- (重建时需要删除改目录内的文件)
mkdir -p /etc/ceph
8.2 引导集群(创建第一个 mon
节点)
cephadm bootstrap \ --mon-ip 10.2.32.187 \ --initial-dashboard-user admin \ --initial-dashboard-password Troila12 # cephadm bootstrap \ # --mon-ip 第一个节点IP \ # --initial-dashboard-user 用户名 \ # --initial-dashboard-password 密码
8.3 安装Ceph 工具
cephadm add-repo --release octopus cephadm install ceph-common
8.4 部署 mon 节点
- 步骤1: 禁止自动监视器部署
ceph orch apply mon --unmanaged
- 步骤2: 增加节点到集群
ceph orch host add {node1} ceph orch host add {node2} ceph orch host add {node3} # 示例 ceph orch host add controller1 ceph orch host add controller2 ceph orch host add controller3
- 步骤3:标记 mon 节点
ceph orch host label add {node1} mon ceph orch host label add {node2} mon ceph orch host label add {node3} mon # 查看标记结果 正常如下: HOST ADDR LABELS STATUS controller1 controller1 mon controller2 controller2 mon controller3 controller3 mon
- 步骤4:配置cephadm 根据标签部署监视器
ceph orch apply mon label:mon
- 步骤5:确保将监视器应用于这三台主机
ceph orch apply mon "{node1},{node2},{node3}" # 示例--注意:controller 之间不能有空格 ceph orch apply mon "controller1,controller2,controller3"
8.5 部署 osd 节点
步骤一: 增加节点到集群
ceph orch host add {node2} ceph orch host add {node3} # 示例 ceph orch host add controller1 ceph orch host add controller2
步骤二:标记 osd 节点
ceph orch host add {node1} osd ceph orch host add {node2} osd # 示例 ceph orch host add controller1 osd ceph orch host add controller2 osd
步骤三:查看标记结果
ceph orch host ls # 正常结果如下: HOST ADDR LABELS STATUS controller1 controller1 mon controller2 controller2 osd mon controller3 controller3 osd mon
8.6 查看存储节点上所有设备
ceph orch device ls
注意事项:
- Ceph拒绝在不可用的设备上配置OSD,满足以下所有条件,则认为存储设备可用:
- 设备必须没有分区。
- 设备不得具有任何LVM状态。
- 不得安装设备。
- 该设备不得包含文件系统。
- 该设备不得包含Ceph BlueStore OSD。
- 设备必须大于5 GB。
8.7 部署 OSD
ceph orch daemon add osd {node1}:/dev/sdb ceph orch daemon add osd {node2}:/dev/sdb ceph orch daemon add osd {node3}:/dev/sdb ceph orch daemon add osd {node1}:/dev/sdc ceph orch daemon add osd {node2}:/dev/sdc ceph orch daemon add osd {node3}:/dev/sdc ceph orch daemon add osd {node1}:/dev/sdd ceph orch daemon add osd {node2}:/dev/sdd ceph orch daemon add osd {node3}:/dev/sdd
Ceph 相关操作
查看 ceph 状态
ceph -s # 正常如下: cluster: id: f2024656-3082-11ec-a2b1-1d2be083b36b health: HEALTH_OK ###### HEALTH_OK 是正常状态 services: mon: 3 daemons, quorum controller1,controller3,controller2 (age 3h) mgr: controller1.fkiash(active, since 3h), standbys: controller2.znlcmv osd: 9 osds: 9 up (since 49m), 9 in (since 49m) data: pools: 1 pools, 1 pgs objects: 0 objects, 0 B usage: 9.1 GiB used, 891 GiB / 900 GiB avail pgs: 1 active+clean
查看 ceph pool
ceph osd lspools
参考文章
- https://my.oschina.net/comics/blog/4989965
这篇关于Linux | Ceph | Ubuntu 中部署 Ceph 集群的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-12如何创建可引导的 ESXi USB 安装介质 (macOS, Linux, Windows)
- 2024-11-08linux的 vi编辑器中搜索关键字有哪些常用的命令和技巧?-icode9专业技术文章分享
- 2024-11-08在 Linux 的 vi 或 vim 编辑器中什么命令可以直接跳到文件的结尾?-icode9专业技术文章分享
- 2024-10-22原生鸿蒙操作系统HarmonyOS NEXT(HarmonyOS 5)正式发布
- 2024-10-18操作系统入门教程:新手必看的基本操作指南
- 2024-10-18初学者必看:操作系统入门全攻略
- 2024-10-17操作系统入门教程:轻松掌握操作系统基础知识
- 2024-09-11Linux部署Scrapy学习:入门级指南
- 2024-09-11Linux部署Scrapy:入门级指南
- 2024-08-21【Linux】分区向左扩容的方法