• Welcome to LiuJason's Blog!
Nginx实现静态文件301跳转|全站静态文件改写域名调用CDN

Nginx实现静态文件301跳转|全站静态文件改写域名调用CDN

前言有些CDN是绑定域名的,如果有多个域名需要使用一个CDN订阅就需要将静态的文件改写到对应的域名下,找了一些资料实现了,这边记录一下具体操作源站my.cloudraft.cn,CDN域名cdn-cloudraft.cloud.ac.cnCDN指向源站IP,源站添加host记录修改Nginx配置文件:location ~* \.(gif|jp……

实测虚拟机中使用fallocate后是否会真实占用宿主机的空间

实测虚拟机中使用fallocate后是否会真实占用宿主机的空间

前言fallocate使用后会在系统中声明所占用空间从而实现快速新建一个文件的功能。根据官方manual的说法,对于支持fallocate系统调用的文件系统(目前知道我们最爱的ZFS原生格式并不支持,但是挂载成volume格式化成ext4后就支持了),可通过分配块并将其标记为未初始化来快速完成预分配,而无需对数据块进行任何IO操作。 这比通过用零填充文件来……

Ceph集群下更换坏盘OSD|全过程

Ceph集群下更换坏盘OSD|全过程

前言Ceph集群大了之后,坏盘是很正常的事,这里记录一下更换坏盘的操作步骤。正文发现坏盘首先是通过ceph perf或者直接在管理面板中查看ceph osd的情况,发现latency很高的盘就是有问题的盘了,如果这个盘的使用量低且延迟高,就应该果断的换掉:移出坏盘ceph osd out 23这里的23换成自己的问题OSD编号停止服务sy……

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

总之就是Ceph没有成功把SSD识别成HDD,所以需要修改一下。首先把这个osd给out了:root@SH-2003:~# ceph osd out 43marked out osd.43.然后将原有的class信息删除:root@SH-2003:~# ceph osd crush rm-device-class 43done r……

MegaCli64设置阵列卡开启JBOD模式|解决Adapter: 0: Failed to change PD state

MegaCli64设置阵列卡开启JBOD模式|解决Adapter: 0: Failed to change PD state

有些阵列卡默认关闭了JBOD功能,要手动开启才能正常使用,否则报错:root@SH-2001:~# MegaCli64 -PDMakeJBOD -PhysDrv[252:3] -a0Adapter: 0: Failed to change PD state at EnclId-252 SlotId-3.解决方案:root@SH-2001……

Debian/Ubuntu下一键编译安装MegaCli64

Debian/Ubuntu下一键编译安装MegaCli64

前言每次都去github找,结果每次都是错的(有typo),这里博客放一个备用。脚本#安装依赖apt install wget unzip alien dpkg -y#下载wget https://docs.broadcom.com/docs-and-downloads/raid-controllers/raid-controllers……

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

背景简介继续上文的ceph性能调整,有兴趣的可以看看:测试环境的Ceph集群配置同前文,所以就不赘述了。将上述的Ceph pool中新建raw格式的ceph rbd,并挂载在虚拟机的/vz下,qemu cache设置为writeback[root@hn03 ~]# df -hFilesystem ……

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中......正好实测了一下性能,这里分享出来大家参考。对CEPH Pool的性能测试可以看前一篇:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-10052Manage……

使用rados自带测速工具对ceph pool进行性能测试|测速跑分

使用rados自带测速工具对ceph pool进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中......正好实测了一下性能,这里分享出来大家参考。简要信息通过ceph -s即可获取:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-10052Manager:……

dell戴尔H310it卡刷直通后开机设置启动盘教程|Avago Technologies RAID Controller HBA

dell戴尔H310it卡刷直通后开机设置启动盘教程|Avago Technologies RAID Controller HBA

前言新进了两台R720用来做存储服务器,由于是用来当ceph节点的,所以需要用直通卡,选了最常见的H310刷it。然后安装系统和重启的时候遇到了问题,这里记录一下。设置启动盘方法1. 在看到dell标志后立刻按Ctrl+C,这个时间卡的比较紧,可以多次尝试....然后就能看到下面的Avago Technologies选择阵列卡的界面:2. 按回车……