GNU/Linux >> Tutoriels Linux >  >> Linux

Comment faire fonctionner à nouveau un périphérique RAID inactif ?

Pour votre question bonus :

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

J'ai trouvé que je dois ajouter le tableau manuellement dans /etc/mdadm/mdadm.conf afin que Linux le monte au redémarrage. Sinon, je reçois exactement ce que vous avez ici - md_d1 -appareils inactifs, etc.

Le fichier conf devrait ressembler à ci-dessous - c'est-à-dire un ARRAY -line pour chaque appareil md. Dans mon cas, les nouveaux tableaux manquaient dans ce fichier, mais si vous les avez répertoriés, ce n'est probablement pas une solution à votre problème.

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d

Ajoutez un tableau par md-device et ajoutez-les après le commentaire inclus ci-dessus, ou si aucun commentaire de ce type n'existe, à la fin du fichier. Vous obtenez les UUID en faisant sudo mdadm -E --scan :

$ sudo mdadm -E --scan
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d

Comme vous pouvez le voir, vous pouvez à peu près simplement copier la sortie du résultat de l'analyse dans le fichier.

J'exécute Ubuntu Desktop 10.04 LTS, et pour autant que je me souvienne, ce comportement diffère de la version serveur d'Ubuntu, mais il y a si longtemps que j'ai créé mes md-devices sur le serveur, je me trompe peut-être. Il se peut aussi que j'ai raté une option.

Quoi qu'il en soit, l'ajout du tableau dans le fichier de configuration semble faire l'affaire. J'ai exécuté le raid 1 et le raid 5 ci-dessus pendant des années sans aucun problème.


Avertissement : Tout d'abord, permettez-moi de dire que ce qui suit (en raison de l'utilisation de "--force") me semble risqué, et si vous avez des données irrécupérables, je vous recommande de faire des copies des partitions impliquées avant de commencer à essayer l'une des choses dessous. Cependant, cela a fonctionné pour moi.

J'ai eu le même problème, avec un tableau apparaissant comme inactif, et rien de ce que j'ai fait, y compris le "mdadm --examine --scan>/etc/mdadm.conf", comme suggéré par d'autres ici, n'a aidé du tout.

Dans mon cas, lorsqu'il a essayé de démarrer la matrice RAID-5 après un remplacement de disque, il disait qu'il était sale (via dmesg ):

md/raid:md2: not clean -- starting background reconstruction
md/raid:md2: device sda4 operational as raid disk 0
md/raid:md2: device sdd4 operational as raid disk 3
md/raid:md2: device sdc4 operational as raid disk 2
md/raid:md2: device sde4 operational as raid disk 4
md/raid:md2: allocated 5334kB
md/raid:md2: cannot start dirty degraded array.

Le faire apparaître comme inactif dans /proc/mdstat :

md2 : inactive sda4[0] sdd4[3] sdc4[2] sde4[5]
      3888504544 blocks super 1.2

J'ai trouvé que tous les appareils avaient les mêmes événements, à l'exception du lecteur que j'avais remplacé (/dev/sdb4 ):

[[email protected] sr]# mdadm -E /dev/sd*4 | grep Event
mdadm: No md superblock detected on /dev/sdb4.
         Events : 8448
         Events : 8448
         Events : 8448
         Events : 8448

Cependant, les détails de la baie ont montré qu'elle disposait de 4 appareils sur 5 :

[[email protected] sr]# mdadm --detail /dev/md2
/dev/md2:
[...]
   Raid Devices : 5
  Total Devices : 4
[...]
 Active Devices : 4
Working Devices : 4
[...]
    Number   Major   Minor   RaidDevice State
       0       8        4        0      inactive dirty  /dev/sda4
       2       8       36        2      inactive dirty  /dev/sdc4
       3       8       52        3      inactive dirty  /dev/sdd4
       5       8       68        4      inactive dirty  /dev/sde4

(Ce qui précède est de mémoire sur la colonne "State", je ne le trouve pas dans mon tampon de défilement).

J'ai pu résoudre ce problème en arrêtant le tableau, puis en le réassemblant :

mdadm --stop /dev/md2
mdadm -A --force /dev/md2 /dev/sd[acde]4

À ce moment-là, la baie était opérationnelle, fonctionnant avec 4 des 5 appareils, et j'ai pu ajouter l'appareil de remplacement et il se reconstruit. Je peux accéder au système de fichiers sans aucun problème.


Linux
  1. Remplacement d'un disque miroir défaillant dans une matrice RAID logicielle (mdadm)

  2. Simple mdadm RAID 1 n'active pas la réserve

  3. Comment forcer mdadm à arrêter la matrice RAID5 ?

  4. Impossible d'arrêter le périphérique de raid

  5. Comment remplacer en toute sécurité un disque pas encore défaillant dans une matrice Linux RAID5 ?

Comment faire fonctionner un modem Iball 3.5g sur Ubuntu ?

Comment faire fonctionner le moniteur USB Lilliput ?

Comment faire fonctionner 4k @ 60hz à 4:2:0 dans Ubuntu 16.04?

Comment obtenir une connexion Mtp fonctionnelle pour Galaxy S2 en 12.04 ??

Comment faire fonctionner l'idmap NFSv4 avec sec=sys ?

Comment déplacer un RAID logiciel Linux vers une nouvelle machine ?