解决异构 ceph 集群的一种思路
前言
我们的 ceph 集群里面的节点存在两种不同硬件配置规格的节点, 一种是老机器
: 由之前的其他用途的服务器移过来。二种是新机器
:专门为存储集群规划配置的。
ceph 最佳实践是存储节点使用同样的硬件配置,对硬件配置不一样的集群,叫做异构集群。
异构集群的应对一直是业界难点。对 ceph 而言,如果是异构集群,无法在性能和空间利用率上取得平衡。(尽管可以利用 osd 权重解决空间利用率的问题,却会影响性能)
而我们的集群通过一个巧妙的方法,规避了该问题,现在做一下说明,需要以后在维护的时候注意一下。
硬件情况
老机器配置:除系统盘外,有 7 块数据盘(其中 6 块机械盘, 1 块 ssd),共四台机器。
新机器配置:除系统盘外,有12 块 机械盘, 1 块 ssd。 剩下的节点都是统一的新配置,如果需要扩容,没有特殊情况也建议都统一按着新机器
配置来采购硬件。
老机器的 cpu 配置比新机器的 cpu 配置略强。