• Welcome to LiuJason's Blog!

标签:ceph

[已解决]Ceph集群报错'1 scrub errors'和'Possible data damage: 1 pg inconsistent'

问题描述在巡检Ceph集群时发现报错:1 scrub errorsPossible data damage: 1 pg inconsistent解决方案首先确定是哪个pg出现了问题,使用命令:ceph health detail可以看到上图中标识出2.3f4这个pg出现了inconsistent问题,因此需要针对它进行修复……

Ceph镜像无法删除rbd: error: image still has watchers解决方案

前言需要删除一些Ceph镜像,遇到标题的报错,这里写一下解决方案供后续查阅。其中pool是 Ceph-SSD-Rep3,磁盘镜像是vm-29101-disk-0使用rbd rm Ceph-SSD-Rep3/vm-29101-disk-0 -f删除时报错:2021-12-06T10:20:50.938+0100 7f20abfff700 -1 lib……

[已解决]Proxmox下CEPH报错rbd: listing images failed

问题描述这个问题其实困扰我挺久的了,在删除包含ceph磁盘的虚拟机时经常性出现:rbd: listing images failed: (2) No such file or directory (500)上面这个报错是GUI下的,如果在cli中输入rbd ls -l Ceph-SSD-Rep2(其中Ceph-SSD-Rep2是cephpo……

Ceph集群在线修改存储池pool的CrushRule规则|备份数size|最小备份数min_size

没啥好说的,就是修改Ceph集群里存储池pool的CrushRule规则、备份数size和最小备份数min_size修改CrushRule:ceph osd pool set [存储池名] crush_rule [CrushRule规则名]修改默认备份数:ceph osd pool set [存储池名] size [份数]修改最小备份数(低于这个就停止……

Ceph集群设置crush rule指定osd类型(区分ssd固态硬盘和hdd机械硬盘)

官方的帮助文档中描述是:ceph crush rule create-replicated default 建立纯ssd的crush规则: ceph osd crush rule create-replicated ssd-pool default host ssd建立纯ssd的crush规则: ceph osd crush rule……

Ceph集群存储在分区中新建OSD

如果是全新新建的话,直接用这个就行了:sudo ceph-volume lvm create --data /dev/sda3 --crush-device-class ssd记得用fdisk进行分区,例子中是sda3作为osd的分区,ssd是crush中的磁盘类型如果因为连接cluster失败的话,先初始化pveceph init,并更新ke……

Ceph集群下更换坏盘OSD|全过程

前言Ceph集群大了之后,坏盘是很正常的事,这里记录一下更换坏盘的操作步骤。正文发现坏盘首先是通过ceph perf或者直接在管理面板中查看ceph osd的情况,发现latency很高的盘就是有问题的盘了,如果这个盘的使用量低且延迟高,就应该果断的换掉:移出坏盘ceph osd out 23这里的23换成自己的问题OSD编号停止服务sy……

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

总之就是Ceph没有成功把SSD识别成HDD,所以需要修改一下。首先把这个osd给out了:root@SH-2003:~# ceph osd out 43marked out osd.43.然后将原有的class信息删除:root@SH-2003:~# ceph osd crush rm-device-class 43done r……

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

背景简介继续上文的ceph性能调整,有兴趣的可以看看:测试环境的Ceph集群配置同前文,所以就不赘述了。将上述的Ceph pool中新建raw格式的ceph rbd,并挂载在虚拟机的/vz下,qemu cache设置为writeback[root@hn03 ~]# df -hFilesystem ……

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中......正好实测了一下性能,这里分享出来大家参考。对CEPH Pool的性能测试可以看前一篇:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-10052Manage……