Ce tutoriel montre comment configurer un stockage haute disponibilité avec deux serveurs de stockage (CentOS 6.3) qui utilisent GlusterFS. Chaque serveur de stockage sera un miroir de l'autre serveur de stockage et les fichiers seront automatiquement répliqués sur les deux serveurs de stockage. Le système client (CentOS 6.3 également) pourra accéder au stockage comme s'il s'agissait d'un système de fichiers local. GlusterFS est un système de fichiers en cluster capable d'évoluer jusqu'à plusieurs péta-octets. Il agrège diverses briques de stockage sur une interconnexion Infiniband RDMA ou TCP/IP dans un seul grand système de fichiers réseau parallèle. Les briques de stockage peuvent être constituées de n'importe quel matériel de base, tel que des serveurs x86_64 avec RAID SATA-II et HBA Infiniband.
Je n'émets aucune garantie que cela fonctionnera pour vous !
1 Remarque préliminaire
Dans ce tutoriel, j'utilise trois systèmes, deux serveurs et un client :
- server1.example.com :adresse IP 192.168.0.100 (serveur)
- server2.example.com :adresse IP 192.168.0.101 (serveur)
- client1.exemple.com :adresse IP 192.168.0.102 (client)
Les trois systèmes doivent pouvoir résoudre les noms d'hôte des autres systèmes. Si cela ne peut pas être fait via DNS, vous devez modifier le fichier /etc/hosts afin qu'il ressemble à ceci sur les trois systèmes :
vi /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 192.168.0.100 server1.example.com server1 192.168.0.101 server2.example.com server2 192.168.0.102 client1.example.com client1 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 |
(Il est également possible d'utiliser des adresses IP au lieu de noms d'hôte dans la configuration suivante. Si vous préférez utiliser des adresses IP, vous n'avez pas à vous soucier de savoir si les noms d'hôte peuvent être résolus ou non.)
2 Activer les référentiels supplémentaires
serveur1.exemple.com/serveur2.exemple.com/client1.exemple.com :
Nous importons d'abord les clés GPG pour les packages logiciels :
rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY*
Ensuite, nous activons le référentiel EPEL6 sur nos systèmes CentOS :
rpm --import https://fedoraproject.org/static/0608B895.txt
cd /tmp
wget http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm
rpm -ivh epel-release-6- 7.noarch.rpm
yum install yum-priorities
Modifier /etc/yum.repos.d/epel.repo...
vi /etc/yum.repos.d/epel.repo
... et ajoutez la ligne priority=10 à la section [epel] :
[epel] name=Extra Packages for Enterprise Linux 6 - $basearch #baseurl=http://download.fedoraproject.org/pub/epel/6/$basearch mirrorlist=https://mirrors.fedoraproject.org/metalink?repo=epel-6&arch=$basearch failovermethod=priority enabled=1 priority=10 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-6 [...] |
3 Configuration des serveurs GlusterFS
serveur1.exemple.com/serveur2.exemple.com :
GlusterFS est disponible sous forme de package pour EPEL, nous pouvons donc l'installer comme suit :
yum install glusterfs-server
Créez les liens de démarrage du système pour le démon Gluster et démarrez-le :
chkconfig --levels 235 glusterd on
/etc/init.d/glusterd start
La commande
glusterfsd --version
devrait maintenant afficher la version de GlusterFS que vous venez d'installer (3.2.7 dans ce cas) :
[[email protected] ~]# glusterfsd --version
glusterfs 3.2.7 construit le 11 juin 2012 13:22:28
Révision du référentiel :git://git.gluster.com/glusterfs.git
Copyright (c) 2006-2011 Gluster Inc.
GlusterFS est livré avec ABSOLUMENT AUCUNE GARANTIE.
Vous pouvez redistribuer des copies de GlusterFS sous les termes de la licence publique générale GNU.
[[email protected] ~]#
Si vous utilisez un pare-feu, assurez-vous que les ports TCP 111, 24007, 24008, 24009-(24009 + nombre de briques sur tous les volumes) sont ouverts sur server1.example.com et server2.example.com.
Ensuite, nous devons ajouter server2.example.com au pool de stockage approuvé (veuillez noter que j'exécute toutes les commandes de configuration GlusterFS à partir de server1.example.com, mais vous pouvez également les exécuter à partir de server2.example.com car la configuration est répliqué entre les nœuds GlusterFS - assurez-vous simplement d'utiliser les bons noms d'hôte ou adresses IP) :
serveur1.exemple.com :
Sur server1.example.com, exécutez
gluster peer probe server2.example.com
[[email protected] ~]# gluster peer probe server2.example.com
Sonde réussie
[[email protected] ~]#
L'état du pool de stockage approuvé devrait maintenant ressembler à ceci :
gluster peer status
[[email protected] ~]# statut de pair gluster
Nombre de pairs :1
Nom d'hôte :server2.example.com
Uuid :7cd93007-fccb-4fcb-8063-133e6ba81cd9
État :pair dans le cluster (connecté)
[[email protected] ~]#
Ensuite, nous créons le partage nommé testvol avec deux répliques (veuillez noter que le nombre de répliques est égal au nombre de serveurs dans ce cas car nous voulons configurer la mise en miroir) sur server1.example.com et server2.example.com dans le /répertoire de données (celui-ci sera créé s'il n'existe pas) :
gluster volume create testvol replica 2 transport tcp server1.example.com:/data server2.example.com:/data
[[email protected] ~]# gluster volume create testvol replica 2 transport tcp server1.example.com:/data server2.example.com:/data
La création du volume testvol a réussi. Veuillez démarrer le volume pour accéder aux données.
[[email protected] ~]#
Démarrer le volume :
gluster volume start testvol
Il est possible que la commande ci-dessus vous indique que l'action n'a pas abouti :
[[email protected] ~]# gluster volume start testvol
Le démarrage du volume testvol a échoué
[[email protected] ~]#
Dans ce cas, vous devriez vérifier la sortie de...
serveur1.exemple.com/serveur2.exemple.com :
netstat -tap | grep glusterfsd
sur les deux serveurs.
Si vous obtenez une sortie comme celle-ci...
[[email protected] ~]# netstat -appuyez | Grep Glusterfsd
TCP 0 0 *:24009 *:* Écoutez 1365 / Glusterfsd
TCP 0 0 LocalHost:1023 LocalHost:24007 établi 1365 / Glusterfsd
TCP 0 0 Server1.example.com:24009 server1.example.com:1023 ETABLI 1365/glusterfsd
[[email protected] ~]#
... tout va bien, mais si vous n'obtenez aucune sortie...
[[email protected] ~]# netstat -tap | grep glusterfsd
[[email protected] ~]#
... redémarrez le démon GlusterFS sur le serveur correspondant (server2.example.com dans ce cas) :
serveur2.exemple.com :
/etc/init.d/glusterfsd restart
Vérifiez ensuite la sortie de...
netstat -tap | grep glusterfsd
... à nouveau sur ce serveur - il devrait maintenant ressembler à ceci :
[[email protected] ~]# netstat -appuyez | Grep Glusterfsd
TCP 0 0 *:24010 *:* Écoutez 1458 / Glusterfsd
TCP 0 0 LocalHost.Localdom:1021 LocalHost.Localdo:24007 établi 1458 / Glusterfsd
[[Protégé par e-mail] ~ ]#
Revenons maintenant à server1.example.com :
serveur1.exemple.com :
Vous pouvez vérifier l'état du volume avec la commande
gluster volume info
[[email protected] ~]# gluster volume info
Nom du volume :testvol
Type :Répliqué
Statut :Démarré
Nombre de briques :2
Type de transport :tcp
Briques :
Brique1 : serveur1. example.com:/data
Brick2 :server2.example.com:/data
[[email protected] ~]#
Par défaut, tous les clients peuvent se connecter au volume. Si vous souhaitez accorder l'accès à client1.example.com (=192.168.0.102) uniquement, exécutez :
gluster volume set testvol auth.allow 192.168.0.102
Veuillez noter qu'il est possible d'utiliser des caractères génériques pour les adresses IP (comme 192.168.*) et que vous pouvez spécifier plusieurs adresses IP séparées par des virgules (par exemple, 192.168.0.102,192.168.0.103).
Les informations sur le volume devraient maintenant afficher l'état mis à jour :
gluster volume info
[[email protected] ~]# gluster volume info
Nom du volume :testvol
Type :Répliqué
Statut :Démarré
Nombre de briques :2
Type de transport :tcp
Briques :
Brique1 : serveur1. example.com:/data
Brick2 :server2.example.com:/data
Options reconfigurées :
auth.allow :192.168.0.102
[[email protected] ~]#
4 Configuration du client GlusterFS
client1.exemple.com :
Sur le client, nous pouvons installer le client GlusterFS comme suit :
yum install glusterfs-client
Ensuite, nous créons le répertoire suivant :
mkdir /mnt/glusterfs
C'est ça! Nous pouvons maintenant monter le système de fichiers GlusterFS sur /mnt/glusterfs avec la commande suivante :
mount.glusterfs server1.example.com:/testvol /mnt/glusterfs
(Au lieu de server1.example.com, vous pouvez également utiliser server2.example.com dans la commande ci-dessus !)
Vous devriez maintenant voir la nouvelle part dans les sorties de...
mount
[[email protected] ~]# mount
/dev/mapper/vg_client1-LogVol00 sur / type ext4 (rw)
proc sur /proc type proc (rw)
sysfs sur /sys type sysfs (rw)
devpts sur /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs sur /dev/shm type tmpfs (rw)
/dev/sda1 sur /boot type ext4 (rw)
aucun sur /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc sur /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
server1.example.com :/testvol sur /mnt/glusterfs tapez fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)
[[email protected] ~]#
... et...
df -h
[[email protected] ~]# df -h
Système de fichiers Taille Utilisé Avail Utilisation % Monté sur
/dev/mapper/vg_client1-LogVol00
9.7G 1.7G 7.5G 19 % /
[[email protected] ~]#
Au lieu de monter manuellement le partage GlusterFS sur le client, vous pouvez modifier /etc/fstab afin que le partage soit monté automatiquement au démarrage du client.
Ouvrez /etc/fstab et ajoutez la ligne suivante :
vi /etc/fstab
[...] server1.example.com:/testvol /mnt/glusterfs glusterfs defaults,_netdev 0 0 |
(Encore une fois, au lieu de server1.example.com, vous pouvez également utiliser server2.example.com !)
Pour tester si votre /etc/fstab modifié fonctionne, redémarrez le client :
reboot
Après le redémarrage, vous devriez retrouver le partage dans les sorties de...
df -h
... et...
mount
5 Tests
Créons maintenant des fichiers de test sur le partage GlusterFS :
client1.exemple.com :
appuyez sur /mnt/glusterfs/test1
appuyez sur /mnt/glusterfs/test2
Vérifions maintenant le répertoire /data sur server1.example.com et server2.example.com. Les fichiers test1 et test2 doivent être présents sur chaque nœud :
serveur1.exemple.com/serveur2.exemple.com :
ls -l /data
[[email protected] ~]# ls -l /data
total 8
-rw-r--r-- 1 root root 0 2012-12-17 11:17 test1
- rw-r--r-- 1 root root 0 2012-12-17 11:17 test2
[[email protected] ~]#
Maintenant, nous fermons server1.example.com et ajoutons/supprimons des fichiers sur le partage GlusterFS sur client1.example.com.
serveur1.exemple.com :
shutdown -h now
client1.exemple.com :
toucher /mnt/glusterfs/test3
toucher /mnt/glusterfs/test4
rm -f /mnt/glusterfs/test2
Les modifications doivent être visibles dans le répertoire /data sur server2.example.com :
serveur2.exemple.com :
ls -l /data
[[email protected] ~]# ls -l /data
total 8
-rw-r--r-- 1 root root 0 2012-12-17 11:17 test1
- rw-r--r-- 1 racine racine 0 2012-12-17 11:38 test3
-rw-r--r-- 1 racine racine 0 2012-12-17 11:38 test4
[[email protected] ~]#
Redémarrons server1.example.com et regardons le répertoire /data :
serveur1.exemple.com :
ls -l /data
[[email protected] ~]# ls -l /data
total 8
-rw-r--r-- 1 root root 0 2012-12-17 11:17 test1
- rw-r--r-- 1 root root 0 2012-12-17 11:17 test2
[[email protected] ~]#
Comme vous le voyez, server1.example.com n'a pas remarqué les changements qui se sont produits pendant qu'il était en panne. C'est facile à corriger, tout ce que nous avons à faire est d'invoquer une commande de lecture sur le partage GlusterFS sur client1.example.com, par exemple :
client1.exemple.com :
ls -l /mnt/glusterfs/
[[email protected] ~]# ls -l /mnt/glusterfs/
total 8
-rw-r--r-- 1 root root 0 2012-12-17 11:17 test1
-rw-r--r-- 1 racine racine 0 2012-12-17 11:38 test3
-rw-r--r-- 1 racine racine 0 2012-12-17 11:38 test4
[[email protected] ~]#
Examinez à nouveau le répertoire /data sur server1.example.com et vous devriez voir que les modifications ont été répliquées sur ce nœud :
serveur1.exemple.com :
ls -l /data
[[email protected] ~]# ls -l /data
total 4
-rw-r--r-- 1 root root 0 2012-12-17 11:17 test1
- rw-r--r-- 1 racine racine 0 2012-12-17 11:38 test3
-rw-r--r-- 1 racine racine 0 2012-12-17 11:38 test4
[[email protected] ~]#
6 liens
- GlusterFS :http://www.gluster.org/
- Documentation GlusterFS 3.2 :http://download.gluster.com/pub/gluster/glusterfs/3.2/Documentation/AG/html/index.html
- CentOS :http://www.centos.org/