Le problème
Sur CentOS/RHEL 6, un disque a un problème et la commande mdadm indique que /dev/md5 était actif, état dégradé .
# mdadm -Q --detail /dev/md5 /dev/md5: Version : 0.90 Creation Time : Wed Apr 12 09:50:21 2017 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 1 Preferred Minor : 5 Persistence : Superblock is persistent Update Time : Mon Jun 5 14:47:09 2017 State : active, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 UUID : bdd69b24:0502f47d:04894333:532a878b Events : 0.358889 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 21 1 active sync /dev/sdb5
La solution
L'état dégradé se produira généralement si le disque physique réel tombe en panne, si un disque ne communique temporairement pas correctement ou si la synchronisation n'a pas fonctionné après le remplacement du disque.
Si le lecteur est toujours en ligne, une option "Reconstruire" ou "Synchroniser" est toujours disponible. Si tel est le cas, il analysera le lecteur que le système présume être correct et s'assurera que TOUTES les données sont copiées sur l'autre lecteur.
Engagez le fournisseur de matériel et vérifiez pourquoi la fonction de synchronisation ou de reconstruction n'a pas fonctionné lors du remplacement du RAID.
-- After the replacement -- [root@localhost ~]# mdadm -Q --detail /dev/md5 /dev/md5: Version : 0.90 Creation Time : Wed Apr 12 09:50:21 2017 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 5 Persistence : Superblock is persistent Update Time : Mon Jun 12 17:34:10 2017 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 UUID : bdd69b24:0502f47d:04894333:532a878b Events : 0.818295 Number Major Minor RaidDevice State 0 8 213 0 active sync /dev/sdn5 1 8 21 1 active sync /dev/sdb5