• Welcome to LiuJason's Blog!

标签:ceph

[已解决]Proxmox下CEPH报错rbd: listing images failed

问题描述这个问题其实困扰我挺久的了,在删除包含ceph磁盘的虚拟机时经常性出现:rbd: listing images failed: (2) No such file or directory (500)上面这个报错是GUI下的,如果在cli中输入rbd ls -l Ceph-SSD-Rep2(其中Ceph-SSD-Rep2是cephpo……

Ceph集群在线修改存储池pool的CrushRule规则|备份数size|最小备份数min_size

没啥好说的,就是修改Ceph集群里存储池pool的CrushRule规则、备份数size和最小备份数min_size修改CrushRule:ceph osd pool set [存储池名] crush_rule [CrushRule规则名]修改默认备份数:ceph osd pool set [存储池名] size [份数]修改最小备份数(低于这个就停止……

Ceph集群设置crush rule指定osd类型(区分ssd固态硬盘和hdd机械硬盘)

官方的帮助文档中描述是:ceph crush rule create-replicated default 建立纯ssd的crush规则: ceph osd crush rule create-replicated ssd-pool default host ssd建立纯ssd的crush规则: ceph osd crush rule……

Ceph集群存储在分区中新建OSD

如果是全新新建的话,直接用这个就行了:sudo ceph-volume lvm create --data /dev/sda3记得用fdisk进行分区,例子中是sda3作为osd的分区……

Ceph集群下更换坏盘OSD|全过程

前言Ceph集群大了之后,坏盘是很正常的事,这里记录一下更换坏盘的操作步骤。正文发现坏盘首先是通过ceph perf或者直接在管理面板中查看ceph osd的情况,发现latency很高的盘就是有问题的盘了,如果这个盘的使用量低且延迟高,就应该果断的换掉:移出坏盘ceph osd out 23这里的23换成自己的问题OSD编号停止服务sy……

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

总之就是Ceph没有成功把SSD识别成HDD,所以需要修改一下。首先把这个osd给out了:root@SH-2003:~# ceph osd out 43marked out osd.43.然后将原有的class信息删除:root@SH-2003:~# ceph osd crush rm-device-class 43done r……

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

背景简介继续上文的ceph性能调整,有兴趣的可以看看:测试环境的Ceph集群配置同前文,所以就不赘述了。将上述的Ceph pool中新建raw格式的ceph rbd,并挂载在虚拟机的/vz下,qemu cache设置为writeback[root@hn03 ~]# df -hFilesystem ……

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中……正好实测了一下性能,这里分享出来大家参考。对CEPH Pool的性能测试可以看前一篇:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-1005……

使用rados自带测速工具对ceph pool进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中……正好实测了一下性能,这里分享出来大家参考。简要信息通过ceph -s即可获取:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-10052……