Software Raid1: статус "inactive" у одного из массивов сразу после загрузки

Иногда, даже можно сказать изредка, сразу после загрузки системы один из массивов raid1 имеет статус "inactive" в /proc/mdstat. И соответственно все что должно было быть примонтировано с них — не работает.
Т.к как это бывает редко и сразу же обнаруживается после загрузки, решается это перезагрузкой. И это уже изрядно надоело.

Примечания:
1. глючат только те массивы у которых metadata=1.2, массивы с metadata=0.90 ни разу так себя не вели.
2. во время установки software raid1 всем разделам выделенным для массивов ставился тип "fd Автоопределение Linux raid", но после того как ядро стало при каждой загрузке ругаться в логи такой тип был оставлен только для тех разделов на которых были массивы с metadata=0.90
3. LVM не используется

Как решить эту проблему пока ничего не нагуглилось.

Ядро: 3.7.10
Профиль: x86/13.0

fdisk -l /dev/sda

Disk /dev/sda: 320.1 GB, 320072933376 bytes, 625142448 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x9b3b7309

Устр-во Загр     Начало       Конец       Блоки   Id  Система
/dev/sda1   *        2048      133119       65536   fd  Автоопределение Linux raid
/dev/sda2          133120     4327423     2097152   82  Linux своп / Solaris
/dev/sda3         4327424    67241983    31457280   fd  Автоопределение Linux raid
/dev/sda4        67241984   625140334   278949175+   5  Расширенный
/dev/sda5        67244032   172101631    52428800   83  Linux
/dev/sda6       172103680   625140334   226518327+  83  Linux

fdisk -l /dev/sdb

Disk /dev/sdb: 320.1 GB, 320071851520 bytes, 625140335 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xbfc6380f

Устр-во Загр     Начало       Конец       Блоки   Id  Система
/dev/sdb1   *        2048      133119       65536   fd  Автоопределение Linux raid
/dev/sdb2          133120     4327423     2097152   82  Linux своп / Solaris
/dev/sdb3         4327424    67241983    31457280   fd  Автоопределение Linux raid
/dev/sdb4        67241984   625140334   278949175+   5  Расширенный
/dev/sdb5        67244032   172101631    52428800   83  Linux
/dev/sdb6       172103680   625140334   226518327+  83  Linux

cat /proc/mdstat

Personalities : [raid1] 
md2 : active raid1 sda2[2] sdb2[1]
      2096116 blocks super 1.2 [2/2] [UU]
      
md5 : active raid1 sdb5[1] sda5[2]
      52427704 blocks super 1.2 [2/2] [UU]
      
md6 : active raid1 sda6[2] sdb6[1]
      226517167 blocks super 1.2 [2/2] [UU]
      
md1 : active raid1 sdb1[1] sda1[0]
      65472 blocks [2/2] [UU]
      
md3 : active raid1 sdb3[1] sda3[0]
      31457216 blocks [2/2] [UU]
      
unused devices: 

grep -v "^#" /etc/mdadm.conf

ARRAY /dev/md1 metadata=0.90 UUID=ca67f3b4:f5bef4df:7991acb6:251754d2
ARRAY /dev/md3 metadata=0.90 UUID=471181d2:4ee922d8:7991acb6:251754d2
ARRAY /dev/md2 metadata=1.2 name=linux:2 UUID=2f9feeb9:b24c901f:359bfd12:43b528f0
ARRAY /dev/md5 metadata=1.2 name=linux:5 UUID=f3595881:c6be6476:45ed0c12:01263b23
ARRAY /dev/md6 metadata=1.2 name=linux:6 UUID=3b9d1831:d67ee99a:02cad641:b1cfed87

grep -v "^#" /etc/fstab

/dev/md1                /boot           ext2            noauto,noatime  1 2
/dev/md3                /               ext3            noatime         0 1
/dev/md2                none            swap            sw              0 0
/dev/md5                /opt            ext3            noatime         0 2
/dev/md6                /home           ext3            noatime         0 2
/dev/cdrom              /mnt/cdrom      auto            noauto,ro,users 0 0

dmesg | grep "md"

[    0.000000] Kernel command line: root=/dev/md3 real_root=/dev/md3 vga=0x305
[    0.379046] md: raid1 personality registered for level 1
[    0.599014] md: Waiting for all devices to be available before autodetect
[    0.602093] md: If you don't use raid, use raid=noautodetect
[    0.605306] md: Autodetecting RAID arrays.
[    0.629273] md: Scanned 4 and added 4 devices.
[    0.632368] md: autorun ...
[    0.635380] md: considering sdb3 ...
[    0.638380] md:  adding sdb3 ...
[    0.641341] md: sdb1 has different UUID to sdb3
[    0.644304] md:  adding sda3 ...
[    0.647237] md: sda1 has different UUID to sdb3
[    0.650311] md: created md3
[    0.653232] md: bind
[    0.656146] md: bind
[    0.659013] md: running: 
[    0.661977] md/raid1:md3: active with 2 out of 2 mirrors
[    0.664871] md3: detected capacity change from 0 to 32212189184
[    0.667780] md: considering sdb1 ...
[    0.670634] md:  adding sdb1 ...
[    0.673447] md:  adding sda1 ...
[    0.676297] md: created md1
[    0.678998] md: bind
[    0.681678] md: bind
[    0.684333] md: running: 
[    0.687079] md/raid1:md1: active with 2 out of 2 mirrors
[    0.689733] md1: detected capacity change from 0 to 67043328
[    0.692380] md: ... autorun DONE.
[    0.704357]  md3: unknown partition table
[    0.724450] EXT3-fs (md3): mounted filesystem with writeback data mode
[    2.189801] systemd-udevd[1050]: starting version 200
[    3.196525]  md1: unknown partition table
[    3.389096] md: bind
[    3.391131] md: bind
[    3.393447] md: bind
[    3.394992] md/raid1:md5: active with 2 out of 2 mirrors
[    3.395017] md5: detected capacity change from 0 to 53685968896
[    3.441376]  md5: unknown partition table
[    3.498524] md: bind
[    3.534413] md: bind
[    3.537691] md/raid1:md2: active with 2 out of 2 mirrors
[    3.537708] md2: detected capacity change from 0 to 2146422784
[    3.583119] md: bind
[    3.590281] md/raid1:md6: active with 2 out of 2 mirrors
[    3.590296] md6: detected capacity change from 0 to 231953579008
[    3.597514]  md2: unknown partition table
[    3.611713]  md6: unknown partition table
[    6.079785] EXT3-fs (md3): using internal journal
[    6.264392] Adding 2096112k swap on /dev/md2.  Priority:-1 extents:1 across:2096112k 
[    6.347928] EXT3-fs (md5): using internal journal
[    6.347933] EXT3-fs (md5): mounted filesystem with writeback data mode
[    6.410362] EXT3-fs (md6): using internal journal
[    6.410368] EXT3-fs (md6): mounted filesystem with writeback data mode

grep -E "(RAID|MD)" /proc/config.gz

CONFIG_MD=y
CONFIG_BLK_DEV_MD=y
CONFIG_MD_AUTODETECT=y
CONFIG_MD_RAID1=y

у тебя ядро должно само raid

У тебя ядро должно само raid подхватывать(CONFIG_MD_AUTODETECT=y), без всяких там mdam.conf, он не нужен.
Типы разделов тоже левые - ставь на все "fd".

Даже если mdadm.conf не

Даже если mdadm.conf не нужен. Это не решает проблему. Да и про типы разделов fd я писал что бестолку это.

Помни форумчанин: Незнание исправляется чтением, а высокомерие рихтовкой читательных органов >8)

CREATIVE0809

CREATIVE0809 написал(а):
Иногда, даже можно сказать изредка, сразу после загрузки системы один из массивов raid1 имеет статус "inactive" в /proc/mdstat. И соответственно все что должно было быть примонтировано с них — не работает.
Т.к как это бывает редко и сразу же обнаруживается после загрузки, решается это перезагрузкой. И это уже изрядно надоело.

такое-же поведение на одном из относительно недавно построенных боксов. замечалось, кстати, что случается на рейдах и 0.9, и 1.2. не зависит ни от вида рейда, ни от наличия lvm (в моём случае md1 [mirror, 0.9, boot partition] и md4 [stripe, 1.2, для томов lvm]). интересно, что никогда не случалось для остальных raid в системе (имеются root, home partitions). для исправления не обязательно перегружаться, просто пересобрать raid:

mdadm --stop /dev/md4
mdadm --assemble /dev/md4

грешу на специфику железки и используемый uefi boot

кажется, в текущем стабильном ядре, 3.12.13 - полечилось (не могу утверждать, система перегружается редко)

Настройки просмотра комментариев

Выберите нужный метод показа комментариев и нажмите "Сохранить установки".