GNU/Linux >> Tutoriels Linux >  >> Cent OS

« mdadm :aucun tableau trouvé dans le fichier de configuration » - erreur lors de l'exécution de « mdadm –assemble –scan »

Le problème

Après le démarrage du système, md0 est manquant et tous les LV utilisés au-dessus de md0 ne sont pas montés

# mount -a
mount: special device /dev/mapper/vg_test-x0 does not exist
mount: special device /dev/mapper/vg_test-y0 does not exist
# cat /etc/mdadm.conf
ARRAY /dev/md0 level=raid5 num-devices=6 metadata=0.90 spares=1 UUID=73560e25:92fb30cb:1c74ff07:ca1df0f7
# cat /proc/mdstat
Personalities :
unused devices: [none]

Plus de données pour montrer que /dev/md0 est manquant :

# mdadm --detail /dev/md0
mdadm: cannot open /dev/md0: No such file or directory

md0 n'est pas visible du tout, /var/log/messages ne contient aucun problème d'E/S sur les disques locaux utilisés par md0.

La solution

L'erreur est due à des paramètres incorrects dans /etc/mdadm.conf . Suivez les étapes décrites ci-dessous pour résoudre le problème :

1. Analysez d'abord tous les événements d'appareils md possibles :

# mdadm --examine /dev/sd[a-z] | egrep 'Event|/dev/sd'

Ou recherchez tous les appareils avec des informations détaillées sur md raid UUID

# mdadm --examine /dev/sd[a-z]

La commande mdadm examine va essayer de vérifier toutes les informations disponibles sur les disques et de vérifier s'ils font partie d'un raid md.

Exemple de sortie :

# mdadm --examine /dev/sd[a-z]

/dev/sdb:
Magic : a92b4efc
Version : 0.90.00
UUID : 08877d71:d7dc9c1b:16f3496b:a22042b7
Creation Time : Wed Aug 31 14:19:18 2016
Raid Level : raid5
Used Dev Size : 586061696 (558.91 GiB 600.13 GB)
Array Size : 2930308480 (2794.56 GiB 3000.64 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 0

Update Time : Wed Sep 21 11:33:48 2016
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Checksum : 153be7ed - correct
Events : 202

Layout : left-symmetric
Chunk Size : 64K

Number Major Minor RaidDevice State
this 0 8 16 0 active sync /dev/sdb

0 0 8 16 0 active sync /dev/sdb
1 1 8 48 1 active sync /dev/sdd
2 2 8 64 2 active sync /dev/sde
3 3 8 80 3 active sync /dev/sdf
4 4 8 96 4 active sync /dev/sdg
5 5 8 112 5 active sync /dev/sdh

Ainsi, mdadm est capable de trouver un périphérique mdraid avec l'UUID approprié de ce raid md0, l'UUID de md0 est :08877d71:d7dc9c1b:16f3496b:a22042b7

2. Comparez cet UUID avec celui dans /etc/mdadm.conf :

# cat /etc/mdadm.conf
ARRAY /dev/md0 level=raid5 num-devices=6 metadata=0.90 spares=1 UUID=73560e25:92fb30cb:1c74ff07:ca1df0f7

Les deux UUID ne correspondent pas réellement.

3. Il est possible de monter manuellement mdraid en donnant à chaque appareil une partie du raid md0 :

# mdadm --assemble /dev/md0 /dev/sdb /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh
mdadm: /dev/md0 has been tarted with 6 drives.
# ls -l /dev/md0
brw-r----- 1 root disk 9, 0 Sep 23 11:18 /dev/md0
# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Wed Aug 31 14:19:18 2016
Raid Level : raid5
Array Size : 2930308480 (2794.56 GiB 3000.64 GB)
Used Dev Size : 586061696 (558.91 GiB 600.13 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Wed Sep 21 11:33:48 2016
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 64K

UUID : 08877d71:d7dc9c1b:16f3496b:a22042b7
Events : 0.202

Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 48 1 active sync /dev/sdd
2 8 64 2 active sync /dev/sde
3 8 80 3 active sync /dev/sdf
4 8 96 4 active sync /dev/sdg
5 8 112 5 active sync /dev/sdh

4. Maintenant que md0 est visible, recherchez pv et vg :

# pvscan
PV /dev/md0 VG vg_data lvm2 [2.73 TB / 546.56 GB free]
Total: 1 [2.73 TB] / in use: 1 [2.73 TB] / in no VG: 0 [0 ]
# vgscan
Reading all physical volumes. This may take a while...
Found volume group "vg_data" using metadata type lvm2

5. Activez le vg maintenant :

# vgchange -a y

6. Vérifiez si les LV sont maintenant actifs et visibles

# lvscan
ACTIVE '/dev/vg_data/lvm-admin' [200.00 GB] inherit
ACTIVE '/dev/vg_data/lvm-backup' [2.00 TB] inherit

7. Maintenant, exécutez la commande de montage

# mount -a

8. Pour corriger le mauvais UUID dans mdadm.conf, exécutez la commande ci-dessous :

– Créer une sauvegarde du mdadm.conf actuel

# cp /etc/mdadm.conf /etc/mdadm.conf.bak1

– Remplacez maintenant le fichier de configuration actuel par la commande ci-dessous :

# mdadm --examine --scan > /etc/mdadm.conf

La commande ci-dessus mettra à jour /etc/mdadm.conf avec la strophe de configuration RAID appropriée.


Cent OS
  1. Comment réparer l'erreur "commande semanage" introuvable dans CentOS

  2. Erreur utilisateur du gestionnaire de fichiers

  3. Le volume "test_vg/lvol0" n'est pas actif localement - Erreur lors de l'exécution de lvcreate

  4. "pas assez pour démarrer la matrice" - erreur lors du démarrage de la matrice RAID mdadm

  5. nano :commande introuvable

Utilisation du fichier de configuration SSH

Comment résoudre l'erreur de page de mon site Web introuvable

mkfs :commande introuvable

fichier :commande introuvable

tune2fs :commande introuvable

Localisation d'iostream dans Clang++ :erreur fatale :fichier 'iostream' introuvable