drbd-优化性能

测试吞吐量:

测试系统吞吐量不是关键,最重要的是在使用DRBD性能前后的影响;该测试使用一个512M的块到drbd设备,进行对比测试

#!/bin/bashresource=r0test_device=`drbdadm sh-dev $resource`test_ll_device=`drbdadm sh-ll-dev $resource`drbdadm primary $resourcefor i in $(seq 5)dodd if=/dev/zero of=$test_device bs=512M count=1 oflag=directdonedrbdadm down $resourcefor i in $(seq 5)dodd if=/dev/zero of=$test_ll_device bs=512M count=1 oflag=directdonedrbdadm up $resource

注意:

1、dd 要使用关键字 oflag=direct 即写文件的时候忽略cache的影响;还有一个可选的关键字iflag=directio, 用来控制源文件和目标文件的读写方式为directio;

2、以上脚本是需要两个角色是secondary的时候进行测试;

3、测试完,在设定primary node 并挂载/dev/drbd0的时候会提示“mount: you must specify the filesystem type”,需要重新格式化/dev/drbd0

优化部分:

这个主要还是看硬件,磁盘的转速啊,网络的吞吐啊,,

调整参数建议:

net { max-buffers 8000; max-epoch-size 8000; sndbuf-size 0;}

max-buffers:是drbd数据写入到磁盘缓冲区的最大数,默认为2048;

max-epoch-size 是两个写入瓶颈的最大允许写的数量;

sndbuf-size: TCP发送缓冲区大小,设置为0,可以自动调节大小;

syncer { rate 90M; al-extents 257;}

al-extents: 活动日志的大小,多少个x4M 的block;增大这个值的好处是:

减少更新元数据到drbd 设备上的频率;

降低同步数据时对IO流的中断数量;

提高drbd设备相应速度;

存在的风险是:当primary node crash 后,所有的活动数据(al-extentsx 4M block)需要重新同步,这个时间secondary node 是outdate状态,修复时间变长;

sync rate 参数设置,只有 backgroud re-synchronization才会受限于该参数的设置;另一个同步进程只负责同步一些block的更改,不受限该参数;所以改值不要设置的太大,以防占用太多的带宽,导致IO出现同步异常;

disk { on-io-error detach; disk-flushes no;}

磁盘考虑不少于6块15K的sas磁盘做raid10,或者直接使用ssd ,如果raid 卡有bbu电池保护的话,可以考虑进行禁止drbd的磁盘刷写;

可以参考官网推荐,更改IO调度算法:

echo deadline > /sys/block/<device>/queue/scheduler (sas盘可以用deadline;ssd的话可以考虑使用noop调度算法)

本文出自 “技术成就梦想” 博客,请务必保留此出处

接受失败,是我们不常听到或看到的一个命题,

drbd-优化性能

相关文章:

你感兴趣的文章:

标签云: