Как бы проверить правильно ли все выровнено и на всех ли уровнях (второй раздел наверное можно не учитывать, его не планируется использовать):
уровни представляются как-то так:
SSD+SSD
|
MD RAID 1
|
EXT4
таблица разделов:
% fdisk -l /dev/sda
Disk /dev/sda: 240.1 GB, 240057409536 bytes
32 heads, 32 sectors/track, 457873 cylinders
Units = cylinders of 1024 * 512 = 524288 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000977d2
Device Boot Start End Blocks Id System
/dev/sda1 * 3 454059 232476672+ fd Linux raid autodetect
/dev/sda2 454059 457874 1953367+ fd Linux raid autodetect
%
% fdisk -lu /dev/sda
Disk /dev/sda: 240.1 GB, 240057409536 bytes
32 heads, 32 sectors/track, 457873 cylinders, total 468862128 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000977d2
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 464955392 232476672+ fd Linux raid autodetect
/dev/sda2 464955393 468862127 1953367+ fd Linux raid autodetect
%
информация о диске из smartctl (оба одинаковые)
Model Family: Intel 530 Series SSDs
Device Model: INTEL SSDSC2BW240A4
Firmware Version: DC32
User Capacity: 240,057,409,536 bytes [240 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: Solid State Device
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
данные о массиве:
% cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sda1[0] sdb1[1]
232476480 blocks super 1.0 [2/2] [UU]
bitmap: 1/2 pages [4KB], 65536KB chunk
данные о фс:
% dumpe2fs /dev/md1 | head -200
dumpe2fs 1.41.12 (17-May-2010)
Filesystem volume name: <none>
Last mounted on: /
Filesystem UUID: 458225ff-580f-4e56-baeb-a5bf8d2e72b0
Filesystem magic number: 0xEF53
Filesystem revision #: 1 (dynamic)
Filesystem features: has_journal ext_attr resize_inode dir_index filetype needs_recovery extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags: signed_directory_hash
Default mount options: user_xattr acl
Filesystem state: clean
Errors behavior: Continue
Filesystem OS type: Linux
Inode count: 14532608
Block count: 58119120
Reserved block count: 2905956
Free blocks: 56966011
Free inodes: 14511793
First block: 0
Block size: 4096
Fragment size: 4096
Reserved GDT blocks: 1010
Blocks per group: 32768
Fragments per group: 32768
Inodes per group: 8192
Inode blocks per group: 512
Flex block group size: 16
Filesystem created: Mon Mar 24 21:31:05 2014
Last mount time: Mon Mar 24 22:08:11 2014
Last write time: Mon Mar 24 21:36:46 2014
Mount count: 4
Maximum mount count: -1
Last checked: Mon Mar 24 21:31:05 2014
Check interval: 0 (<none>)
Lifetime writes: 11 GB
Reserved blocks uid: 0 (user root)
Reserved blocks gid: 0 (group root)
First inode: 11
Inode size: 256
Required extra isize: 28
Desired extra isize: 28
Journal inode: 8
First orphan inode: 4065166
Default directory hash: half_md4
Directory Hash Seed: 3088fcf6-c9e9-4b8b-8df0-a5a87dcbd547
Journal backup: inode blocks
Journal features: journal_incompat_revoke
Journal size: 128M
Journal length: 32768
Journal sequence: 0x0055757c
Journal start: 31832
Вопрос возник из-за низкой скорости mysql-slave сервера который работает на вышеописанной схеме (со стороны это выглядит как будто репликация не успевает за мастером упираясь в io), данные iostat со slave:
avg-cpu: %user %nice %system %iowait %steal %idle
0.03 0.00 0.08 4.32 0.00 95.57
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sda 0.00 113.40 0.40 257.40 3.20 2904.40 11.28 1.28 4.97 3.58 92.38
sdb 0.00 113.40 0.00 257.20 0.00 2904.40 11.29 1.32 5.13 3.72 95.62
md1 0.00 0.00 0.40 365.00 3.20 2894.40 7.93 0.00 0.00 0.00 0.00
при этом на master-сервере все чудесно, не смотря на большую нагрузку на io, так же master-сервер имеет другие диски (intel SSD 320 (SSDSA2CW080G3)), которые вроде бы должны быть медленнее или я ошибаюсь?
avg-cpu: %user %nice %system %iowait %steal %idle
13.35 0.00 16.97 2.12 0.00 67.56
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sda 0.00 532.00 0.00 931.60 0.00 13365.80 14.35 0.31 0.33 0.12 11.58
sdb 0.00 532.00 1.40 931.60 20.80 13365.80 14.35 0.30 0.32 0.13 11.90
md1 0.00 0.00 1.40 1456.40 20.80 13366.40 9.18 0.00 0.00 0.00 0.00