• Welcome to LiuJason's Blog!
MikroTik RouterOS CHR设置PCC多线分流

MikroTik RouterOS CHR设置PCC多线分流

前言目前芬兰的万兆交换机上联还是1G的公网,所以下载需求高的时候有点吃紧。如果要换到上联10G的话机房那边说要按流量计费,对于我们目前每月几百T的流量来说价格较高并不划算。而每台物理机本身就附赠了1G的上联带宽,同时不计流量,所以考虑通过万兆内网将每台机器的千兆公网进行负载均衡。之前尝试了爱快的方案,配置很简单,多WAN配置后开启多线负载即可,根据流量……

Ubuntu20.04下配置并使用systemctl服务管理Jupyterhub/ipyparallel集群

Ubuntu20.04下配置并使用systemctl服务管理Jupyterhub/ipyparallel集群

前言根据 https://jupyterhub.readthedocs.io/en/stable/quickstart.html#installation 安装完成后,如果用screen运行会很麻烦,而且每次重启要手动执行,增加服务之后可以自动守护运行。在jupyterhub中开启ipyparallel集群功能安装ipyparallel:pip3 in……

Nginx实现静态文件301跳转|全站静态文件改写域名调用CDN

Nginx实现静态文件301跳转|全站静态文件改写域名调用CDN

前言有些CDN是绑定域名的,如果有多个域名需要使用一个CDN订阅就需要将静态的文件改写到对应的域名下,找了一些资料实现了,这边记录一下具体操作源站my.cloudraft.cn,CDN域名cdn-cloudraft.cloud.ac.cnCDN指向源站IP,源站添加host记录修改Nginx配置文件:location ~* \.(gif|jp……

实测虚拟机中使用fallocate后是否会真实占用宿主机的空间

实测虚拟机中使用fallocate后是否会真实占用宿主机的空间

前言fallocate使用后会在系统中声明所占用空间从而实现快速新建一个文件的功能。根据官方manual的说法,对于支持fallocate系统调用的文件系统(目前知道我们最爱的ZFS原生格式并不支持,但是挂载成volume格式化成ext4后就支持了),可通过分配块并将其标记为未初始化来快速完成预分配,而无需对数据块进行任何IO操作。 这比通过用零填充文件来……

Ceph集群下更换坏盘OSD|全过程

Ceph集群下更换坏盘OSD|全过程

前言Ceph集群大了之后,坏盘是很正常的事,这里记录一下更换坏盘的操作步骤。正文发现坏盘首先是通过ceph perf或者直接在管理面板中查看ceph osd的情况,发现latency很高的盘就是有问题的盘了,如果这个盘的使用量低且延迟高,就应该果断的换掉:移出坏盘ceph osd out 23这里的23换成自己的问题OSD编号停止服务sy……

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

手动修改Ceph识别错误的磁盘类型|HDD改成SSD

总之就是Ceph没有成功把SSD识别成HDD,所以需要修改一下。首先把这个osd给out了:root@SH-2003:~# ceph osd out 43marked out osd.43.然后将原有的class信息删除:root@SH-2003:~# ceph osd crush rm-device-class 43done r……

MegaCli64设置阵列卡开启JBOD模式|解决Adapter: 0: Failed to change PD state

MegaCli64设置阵列卡开启JBOD模式|解决Adapter: 0: Failed to change PD state

有些阵列卡默认关闭了JBOD功能,要手动开启才能正常使用,否则报错:root@SH-2001:~# MegaCli64 -PDMakeJBOD -PhysDrv[252:3] -a0Adapter: 0: Failed to change PD state at EnclId-252 SlotId-3.解决方案:root@SH-2001……

Debian/Ubuntu下一键编译安装MegaCli64

Debian/Ubuntu下一键编译安装MegaCli64

前言每次都去github找,结果每次都是错的(有typo),这里博客放一个备用。脚本#安装依赖apt install wget unzip alien dpkg -y#下载wget https://docs.broadcom.com/docs-and-downloads/raid-controllers/raid-controllers……

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

CentOS下使用fio测试挂载了CEPH rbd磁盘的读写性能|4k随机/顺序读写

背景简介继续上文的ceph性能调整,有兴趣的可以看看:测试环境的Ceph集群配置同前文,所以就不赘述了。将上述的Ceph pool中新建raw格式的ceph rbd,并挂载在虚拟机的/vz下,qemu cache设置为writeback[root@hn03 ~]# df -hFilesystem ……

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

使用rbd bench/bench-write自带测速工具和fio对ceph image进行性能测试|测速跑分

前言最近在折腾CEPH集群,测试环境是4台ceph物理节点,每台8~12个SATA/SAS机械硬盘,共43个OSD。性能远低于预期,目前正在调整配置中……正好实测了一下性能,这里分享出来大家参考。对CEPH Pool的性能测试可以看前一篇:集群配置4 CEPH节点:SH-1001 SH-1003 SH-1004 SH-1005……