Ce tutoriel montre comment configurer un serveur de stockage autonome sur CentOs 6.3. Au lieu de NFS, j'utiliserai ici GlusterFS. Le système client pourra accéder au stockage comme s'il s'agissait d'un système de fichiers local. GlusterFS est un système de fichiers en cluster capable d'évoluer jusqu'à plusieurs péta-octets. Il agrège diverses briques de stockage sur une interconnexion Infiniband RDMA ou TCP/IP dans un seul grand système de fichiers réseau parallèle. Les briques de stockage peuvent être constituées de n'importe quel matériel de base, tel que des serveurs x86_64 avec RAID SATA-II et HBA Infiniband.
Je n'émets aucune garantie que cela fonctionnera pour vous !
1 Remarque préliminaire
Dans ce tutoriel, j'utilise deux systèmes, un serveur et un client :
- server1.example.com :adresse IP 192.168.0.100 (serveur)
- serveur2.exemple.com :adresse IP 192.168.0.101 (client)
Les deux systèmes doivent pouvoir résoudre le nom d'hôte de l'autre système. Si cela ne peut pas être fait via DNS, vous devez modifier le fichier /etc/hosts afin qu'il ressemble à ceci sur les deux systèmes :
vi /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 192.168.0.100 server1.example.com server1 192.168.0.101 server2.example.com server2 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 |
(Il est également possible d'utiliser des adresses IP au lieu de noms d'hôte dans la configuration suivante. Si vous préférez utiliser des adresses IP, vous n'avez pas à vous soucier de savoir si les noms d'hôte peuvent être résolus ou non.)
2 Activer les référentiels supplémentaires
serveur1/serveur2 :
Nous importons d'abord les clés GPG pour les packages logiciels :
rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY*
Ensuite, nous activons le référentiel EPEL6 sur nos deux systèmes CentOS :
rpm --import https://fedoraproject.org/static/0608B895.txt
cd /tmp
wget http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm
rpm -ivh epel-release-6- 7.noarch.rpm
yum install yum-priorities
Modifier /etc/yum.repos.d/epel.repo...
vi /etc/yum.repos.d/epel.repo
... et ajoutez la ligne priority=10 à la section [epel] :
[epel] name=Extra Packages for Enterprise Linux 6 - $basearch #baseurl=http://download.fedoraproject.org/pub/epel/6/$basearch mirrorlist=https://mirrors.fedoraproject.org/metalink?repo=epel-6&arch=$basearch failovermethod=priority enabled=1 priority=10 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-6 [...] |
3 Configuration du serveur GlusterFS
serveur1.exemple.com :
GlusterFS est disponible sous forme de package pour EPEL, nous pouvons donc l'installer comme suit :
yum install glusterfs-server
Créez les liens de démarrage du système pour le démon Gluster et démarrez-le :
chkconfig --levels 235 glusterd on
/etc/init.d/glusterd start
La commande
glusterfsd --version
devrait maintenant afficher la version de GlusterFS que vous venez d'installer (3.2.7 dans ce cas) :
[[email protected] ~]# glusterfsd --version
glusterfs 3.2.7 construit le 11 juin 2012 13:22:28
Révision du référentiel :git://git.gluster.com/glusterfs.git
Copyright (c) 2006-2011 Gluster Inc.
GlusterFS est livré avec ABSOLUMENT AUCUNE GARANTIE.
Vous pouvez redistribuer des copies de GlusterFS sous les termes de la licence publique générale GNU.
[[email protected] ~]#
Si vous utilisez un pare-feu, assurez-vous que les ports TCP 111, 24007, 24008, 24009-(24009 + nombre de briques sur tous les volumes) sont ouverts sur server1.example.com.
Ensuite, nous créons le partage nommé testvol sur localhost (=serveur1) dans le répertoire /data (celui-ci sera créé s'il n'existe pas) :
gluster volume create testvol server1.example.com:/data
[[email protected] ~]# gluster volume create testvol server1.example.com:/data
La création du volume testvol a réussi. Veuillez démarrer le volume pour accéder aux données.
[[email protected] ~]#
Démarrer le volume :
gluster volume start testvol
Vous pouvez vérifier l'état du volume avec la commande
gluster volume info
[[email protected] ~]# gluster volume info
Nom du volume :testvol
Type :Distribuer
Statut :Démarré
Nombre de briques :1
Type de transport :tcp
Briques :
Brique1 : serveur1. example.com :/data
[[email protected] ~]#
S'il vous dit que le volume est démarré, tout va bien, sinon redémarrez-le simplement.
Par défaut, tous les clients peuvent se connecter au volume. Si vous souhaitez accorder l'accès à client1.example.com (=192.168.0.101) uniquement, exécutez :
gluster volume set testvol auth.allow 192.168.0.101
Veuillez noter qu'il est possible d'utiliser des caractères génériques pour les adresses IP (comme 192.168.*) et que vous pouvez spécifier plusieurs adresses IP séparées par des virgules (par exemple, 192.168.0.101,192.168.0.102).
Les informations sur le volume devraient maintenant afficher l'état mis à jour :
gluster volume info
[[email protected] ~]# gluster volume info
Nom du volume :testvol
Type :Distribuer
Statut :Démarré
Nombre de briques :1
Type de transport :tcp
Briques :
Brique1 : serveur1. example.com :/data
Options reconfigurées :
auth.allow :192.168.0.101
[[email protected] ~]#
4 Configuration du client GlusterFS
serveur2.exemple.com :
Sur le client, nous pouvons installer le client GlusterFS comme suit :
yum install glusterfs-client
Ensuite, nous créons le répertoire suivant :
mkdir /mnt/glusterfs
C'est ça! Nous pouvons maintenant monter le système de fichiers GlusterFS sur /mnt/glusterfs avec la commande suivante :
mount.glusterfs server1.example.com:/testvol /mnt/glusterfs
Vous devriez maintenant voir la nouvelle part dans les sorties de...
mount
[[email protected] ~]# mount
/dev/mapper/vg_client1-LogVol00 sur / type ext4 (rw)
proc sur /proc type proc (rw)
sysfs sur /sys type sysfs (rw)
devpts sur /dev/pts type devpts (rw,gid=5,mode=620)
tmpfs sur /dev/shm type tmpfs (rw)
/dev/sda1 sur /boot type ext4 (rw)
aucun sur /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc sur /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
server1.example.com :/testvol sur /mnt/glusterfs tapez fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)
[[email protected] ~]#
... et...
df -h
[[email protected] ~]# df -h
Système de fichiers Taille Utilisé Avail Utilisation % Monté sur
/dev/mapper/vg_client1-LogVol00
9.7G 1.7G 7.5G 19 % /
[[email protected] ~]#
Au lieu de monter manuellement le partage GlusterFS sur le client, vous pouvez modifier /etc/fstab afin que le partage soit monté automatiquement au démarrage du client.
Ouvrez /etc/fstab et ajoutez la ligne suivante :
vi /etc/fstab
[...] server1.example.com:/testvol /mnt/glusterfs glusterfs defaults,_netdev 0 0 |
Pour tester si votre /etc/fstab modifié fonctionne, redémarrez le client :
reboot
Après le redémarrage, vous devriez retrouver le partage dans les sorties de...
df -h
... et...
mount
5 liens
- GlusterFS :http://www.gluster.org/
- Documentation GlusterFS 3.2 :http://download.gluster.com/pub/gluster/glusterfs/3.2/Documentation/AG/html/index.html
- CentOS :http://www.centos.org/