J'ai également rencontré ce problème après avoir ajouté un nouveau volume de 16 Go et l'avoir attaché à une instance existante. Tout d'abord, vous devez savoir quels disques vous avez presentRun
sudo fdisk -l
Vous aurez une sortie qui apparaît comme celle ci-dessous détaillant les informations sur vos disques (volumes"
Disk /dev/xvda: 12.9 GB, 12884901888 bytes
255 heads, 63 sectors/track, 1566 cylinders, total 25165824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/xvda1 * 16065 25157789 12570862+ 83 Linux
Disk /dev/xvdf: 17.2 GB, 17179869184 bytes
255 heads, 63 sectors/track, 2088 cylinders, total 33554432 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/xvdf doesn't contain a valid partition table
Comme vous pouvez le voir, le disque nouvellement ajouté /dev/xvdf est présent. Pour le rendre disponible, vous devez créer un système de fichiers dessus et le monter sur un point de montage. Vous pouvez y parvenir avec les commandes suivantes
sudo mkfs -t ext4 /dev/xvdf
La création d'un nouveau système de fichiers efface tout ce qui se trouve dans le volume, faites-le donc sur un nouveau volume sans données importantes
Ensuite, montez-le peut-être dans un répertoire sous le dossier /mnt
sudo mount /dev/xvdf /mnt/dir/
Confirmez que vous avez monté le volume sur l'instance en exécutant
df -h
C'est ce que vous devriez avoir
Filesystem Size Used Avail Use% Mounted on
udev 486M 12K 486M 1% /dev
tmpfs 100M 400K 99M 1% /run
/dev/xvda1 12G 5.5G 5.7G 50% /
none 4.0K 0 4.0K 0% /sys/fs/cgroup
none 5.0M 0 5.0M 0% /run/lock
none 497M 0 497M 0% /run/shm
none 100M 0 100M 0% /run/user
/dev/xvdf 16G 44M 15G 1% /mnt/ebs
Et c'est tout, vous avez le volume à utiliser attaché à votre instance existante.credit
J'ai remarqué que pour une raison quelconque, le volume était situé à /dev/xvdf1
, pas /dev/xvdf
.
Utilisation de
sudo mount /dev/xvdf1 /vol -t ext4
a fonctionné comme un charme
La doublure unique
ð¥ Montez la partition (si le disque est partitionné) :
sudo mount /dev/xvdf1 /vol -t ext4
Monter le disque (s'il n'est pas partitionné) :
sudo mount /dev/xvdf /vol -t ext4
où :
/dev/xvdf
est remplacé par le périphérique EBS Volume en cours de montage/vol
est remplacé par le dossier vous voulez monter.ext4
est le type de système de fichiers du volume en cours de montage
Comment faire pour les erreurs courantes :
✳️ Liste des appareils connectés
Vérifiez votre commande de montage pour le correct Volume EBS nom de l'appareil et type de système de fichiers . Ce qui suit les listera tous :
sudo lsblk --output NAME,TYPE,SIZE,FSTYPE,MOUNTPOINT,UUID,LABEL
Si votre volume EBS s'affiche avec un partition
attaché , montez le partition
; pas le disque.
✳️ Si votre volume n'est pas répertorié
S'il ne s'affiche pas, vous n'avez pas Attach
votre volume EBS dans la console Web AWS
✳️ Remontage automatique au redémarrage
Ces appareils redeviennent démontés si jamais l'instance EC2 redémarre.
Une façon de les faire monter à nouveau au démarrage est d'ajouter le volume au /etc/fstab
du serveur fichier.
ð¥ Attention : ð¥
Si vous corrompez le /etc/fstab
fichier, cela rendra votre système impossible à démarrer. Lisez le court article d'AWS pour vérifier que vous l'avez fait correctement.
https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-using-volumes.html#ebs-mount-after-reboot
Premier :
Avec le lsblk
commande ci-dessus, trouvez le UUID
de votre volume &FSTYPE
.
Deuxième :
Conservez une copie de votre fstab
original fichier.
sudo cp /etc/fstab /etc/fstab.original
Troisième :
Ajouter une ligne pour le volume en sudo nano /etc/fstab
.
Les champs de fstab
sont "séparés par des tabulations" et chaque ligne contient les champs suivants :
<UUID> <MOUNTPOINT> <FSTYPE> defaults,discard,nofail 0 0
Voici un exemple pour vous aider, mon propre fstab
se lit comme suit :
LABEL=cloudimg-rootfs / ext4 defaults,discard,nofail 0 0
UUID=e4a4b1df-cf4a-469b-af45-89beceea5df7 /var/www-data ext4 defaults,discard,nofail 0 0
Ça y est, vous avez terminé. Vérifiez les erreurs dans votre travail en exécutant :
sudo mount --all --verbose
Vous verrez quelque chose comme ça si les choses sont ð :
/ : ignored
/var/www-data : already mounted
J'ai rencontré ce problème, et je l'ai maintenant,
[[email protected] ~]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 8G 0 disk
└─xvda1 202:1 0 8G 0 part /
xvdf 202:80 0 8G 0 disk
└─xvdf1 202:81 0 8G 0 part
Vous devez monter le partition
/dev/xvdf1 (dont le type est une partition)
ne pas monter le disk
/dev/xvdf (dont le type est un disque)