• Welcome to LiuJason's Blog!

标签:ceph

Ceph集群下更换坏盘OSD|全过程

前言Ceph集群大了之后,坏盘是很正常的事,这里记录一下更换坏盘的操作步骤。正文发现坏盘首先是通过ceph perf或者直接在管理面板中查看ceph osd的情况,发现latency很高的盘就是有问题的盘了,如果这个盘的使用量低且延迟高,就应该果断的换掉:移出坏盘ceph osd out 23这里的23换成自己的问题OSD编号停止服务sy……

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

总之就是Ceph没有成功把SSD识别成HDD,所以需要修改一下。首先把这个osd给out了:root@SH-2003:~# ceph osd out 43marked out osd.43.然后将原有的class信息删除:root@SH-2003:~# ceph osd crush rm-device-class 43done r……

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

背景简介继续上文的ceph性能调整,有兴趣的可以看看:测试环境的Ceph集群配置同前文,所以就不赘述了。将上述的Ceph pool中新建raw格式的ceph rbd,并挂载在虚拟机的/vz下,qemu cache设置为writeback[root@hn03 ~]# df -hFilesystem ……

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中……正好实测了一下性能,这里分享出来大家参考。对CEPH Pool的性能测试可以看前一篇:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-1005……

使用rados自带测速工具对ceph pool进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中……正好实测了一下性能,这里分享出来大家参考。简要信息通过ceph -s即可获取:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-10052……