GNU/Linux >> Tutoriels Linux >  >> Cent OS

Stockage haute disponibilité avec GlusterFS sur CentOS 7 - Mise en miroir sur deux serveurs de stockage

Ce tutoriel montre comment configurer un stockage haute disponibilité avec deux serveurs de stockage (CentOS 7.2) qui utilisent GlusterFS. Chaque serveur de stockage sera un miroir de l'autre serveur de stockage et les fichiers seront automatiquement répliqués sur les deux serveurs de stockage. Le système client (CentOS 7.2 également) pourra accéder au stockage comme s'il s'agissait d'un système de fichiers local. GlusterFS est un système de fichiers en cluster capable d'évoluer jusqu'à plusieurs péta-octets. Il agrège diverses briques de stockage sur une interconnexion Infiniband RDMA ou TCP/IP dans un seul grand système de fichiers réseau parallèle. Les briques de stockage peuvent être constituées de n'importe quel matériel de base, tel que des serveurs x86_64 avec RAID SATA-II et HBA Infiniband.

1 Remarque préliminaire

Dans ce tutoriel, j'utilise trois systèmes, deux serveurs et un client :

  • server1.example.com :adresse IP 192.168.0.100 (serveur)
  • server2.example.com :adresse IP 192.168.0.101 (serveur)
  • client1.example.com :adresse IP 192.168.0.102 (client)

Les trois systèmes doivent pouvoir résoudre les noms d'hôte des autres systèmes. Si cela ne peut pas être fait via DNS, vous devez modifier le fichier /etc/hosts afin qu'il ressemble à ceci sur les trois systèmes :

nano /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
192.168.0.100   server1.example.com     server1
192.168.0.101   server2.example.com     server2
192.168.0.102   client1.example.com     client1

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

(Il est également possible d'utiliser des adresses IP au lieu de noms d'hôte dans la configuration suivante. Si vous préférez utiliser des adresses IP, vous n'avez pas à vous soucier de savoir si les noms d'hôte peuvent être résolus ou non.)

2 Activer des référentiels supplémentaires

serveur1.exemple.com/serveur2.exemple.com/client1.exemple.com :

Tout d'abord, nous importons les clés GPG pour les packages logiciels :

rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY*

Ensuite, nous activons le référentiel EPEL 7 sur nos systèmes CentOS :

yum -y install epel-release
yum -y install yum-priorities

Modifier /etc/yum.repos.d/epel.repo...

nano /etc/yum.repos.d/epel.repo

... et ajoutez la ligne priority=10 à la section [epel] :

[epel]
name=Extra Packages for Enterprise Linux 7 - $basearch
#baseurl=http://download.fedoraproject.org/pub/epel/7/$basearch
mirrorlist=https://mirrors.fedoraproject.org/metalink?repo=epel-7&arch=$basearch
failovermethod=priority
enabled=1
priority=10
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7
[...]

Ensuite, nous mettons à jour nos packages existants sur le système :

yum -y update

3 Configuration des serveurs GlusterFS

serveur1.exemple.com/serveur2.exemple.com :

GlusterFS est disponible dans le référentiel du groupe d'intérêt spécial de stockage CentOS. Installez le dépôt avec cette commande :

yum -y install centos-release-gluster

Installez ensuite le serveur GlusterFS comme suit :

yum -y install glusterfs-server

Créez les liens de démarrage du système pour le démon Gluster et démarrez-le :

systemctl enable glusterd.service
systemctl start glusterd.service

La commande

glusterfsd --version

devrait maintenant afficher la version de GlusterFS que vous venez d'installer (3.7.12 dans ce cas) :

[[email protected] ~]# glusterfsd --version
glusterfs 3.7.12 built on Jun 24 2016 14:11:19
Repository revision: git://git.gluster.com/glusterfs.git
Copyright (c) 2006-2013 Red Hat, Inc. <http://www.redhat.com/>
GlusterFS comes with ABSOLUTELY NO WARRANTY.
It is licensed to you under your choice of the GNU Lesser
General Public License, version 3 or any later version (LGPLv3
or later), or the GNU General Public License, version 2 (GPLv2),
in all cases as published by the Free Software Foundation.

Si vous utilisez un pare-feu, assurez-vous que les ports TCP 111, 24007, 24008, 24009-(24009 + nombre de briques sur tous les volumes) sont ouverts sur server1.example.com et server2.example.com.

Ensuite, nous devons ajouter server2.example.com au pool de stockage approuvé (veuillez noter que j'exécute toutes les commandes de configuration GlusterFS à partir de server1.example.com, mais vous pouvez également les exécuter à partir de server2.example.com car la configuration est répliqué entre les nœuds GlusterFS - assurez-vous simplement d'utiliser les bons noms d'hôte ou adresses IP) :

serveur1.exemple.com :

Sur server1.example.com, exécutez

gluster peer probe server2.example.com
[[email protected] ~]# gluster peer probe server2.example.com
peer probe: success.

L'état du pool de stockage approuvé devrait maintenant ressembler à ceci :

gluster peer status
[[email protected] ~]# gluster peer status
Number of Peers: 1
Hostname: server2.example.com
Uuid: 582e10da-aa1b-40b8-908c-213f16f57fe5
State: Peer in Cluster (Connected)

Ensuite, nous créons le partage nommé testvol avec deux répliques (veuillez noter que le nombre de répliques est égal au nombre de serveurs dans ce cas car nous voulons mettre en place une mise en miroir) sur server1.example.com et server2.example.com dans le répertoire /data (celui-ci sera créé s'il n'existe pas) :

gluster volume create testvol replica 2 transport tcp server1.example.com:/data server2.example.com:/data force
[[email protected] ~]# gluster volume create testvol replica 2 transport tcp server1.example.com:/data server2.example.com:/data force
volume create: testvol: success: please start the volume to access data
[[email protected] ~]#

Démarrer le volume :

gluster volume start testvol

Le résultat devrait être :

[[email protected] ~]# gluster volume start testvol
volume start: testvol: success
[[email protected] ~]#

Il est possible que la commande ci-dessus vous indique que l'action n'a pas abouti :

[[email protected] ~]# gluster volume start testvol
Starting volume testvol has been unsuccessful
[[email protected] ~]#

Dans ce cas, vous devez vérifier la sortie de...

serveur1.exemple.com/serveur2.exemple.com :

netstat -tap | grep glusterfsd

sur les deux serveurs.

Si vous obtenez une sortie comme celle-ci...

[[email protected] ~]# netstat -tap | grep glusterfsd
tcp 0 0 0.0.0.0:49152 0.0.0.0:* LISTEN 22880/glusterfsd
tcp 0 0 server1.example.c:49152 server2.example.c:49148 ESTABLISHED 22880/glusterfsd
tcp 0 0 server1.example.c:49152 server1.example.c:49148 ESTABLISHED 22880/glusterfsd
tcp 0 0 server1.example.c:49150 server1.example.c:24007 ESTABLISHED 22880/glusterfsd
tcp 0 0 server1.example.c:49152 server2.example.c:49142 ESTABLISHED 22880/glusterfsd
tcp 0 0 server1.example.c:49152 server1.example.c:49149 ESTABLISHED 22880/glusterfsd
[[email protected] ~]#

... tout va bien, mais si vous n'obtenez aucune sortie...

[[email protected] ~]# netstat -tap | grep glusterfsd
[[email protected] ~]#

... redémarrez le démon GlusterFS sur le serveur correspondant (server2.example.com dans ce cas) :

serveur2.exemple.com :

systemctl restart glusterd.service

Vérifiez ensuite la sortie de...

netstat -tap | grep glusterfsd

... à nouveau sur ce serveur - il devrait maintenant ressembler à ceci :

[[email protected] ~]# netstat -tap | grep glusterfsd
tcp 0 0 0.0.0.0:49152 0.0.0.0:* LISTEN 10971/glusterfsd
tcp 0 0 server2.example.c:49152 server1.example.c:49140 ESTABLISHED 10971/glusterfsd
tcp 0 0 server2.example.c:49152 server2.example.c:49149 ESTABLISHED 10971/glusterfsd
tcp 0 0 server2.example.c:49152 server2.example.c:49143 ESTABLISHED 10971/glusterfsd
tcp 0 0 server2.example.c:49152 server1.example.c:49142 ESTABLISHED 10971/glusterfsd
tcp 0 0 server2.example.c:49150 server2.example.c:24007 ESTABLISHED 10971/glusterfsd
[[email protected] ~]#

Revenons maintenant à server1.example.com :

serveur1.exemple.com :

Vous pouvez vérifier l'état du volume avec la commande

gluster volume info

[[email protected] ~]# informations sur le volume de gluster

Volume Name: testvol
Type: Replicate
Volume ID: e1f825ca-c9d9-4eeb-b6c5-d62c4aa02376
Status: Started
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1.example.com:/data
Brick2: server2.example.com:/data
Options Reconfigured:
performance.readdir-ahead: on
[[email protected] ~]#

Par défaut, tous les clients peuvent se connecter au volume. Si vous souhaitez accorder l'accès à client1.example.com (=192.168.1.102) uniquement, exécutez :

gluster volume set testvol auth.allow 192.168.1.102

Veuillez noter qu'il est possible d'utiliser des caractères génériques pour les adresses IP (comme 192.168.*) et que vous pouvez spécifier plusieurs adresses IP séparées par des virgules (par exemple, 192.168.1.102,192.168.1.103).

Les informations sur le volume devraient maintenant afficher l'état mis à jour :

gluster volume info
[[email protected] ~]# gluster volume info
Volume Name: testvol
Type: Replicate
Volume ID: e1f825ca-c9d9-4eeb-b6c5-d62c4aa02376
Status: Started
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1.example.com:/data
Brick2: server2.example.com:/data
Options Reconfigured:
auth.allow: 192.168.1.102
performance.readdir-ahead: on
[[email protected] ~]#

4 Configuration du client GlusterFS

client1.exemple.com :

Sur le client, nous pouvons installer le client GlusterFS comme suit :

yum -y install glusterfs-client

Ensuite, nous créons le répertoire suivant :

mkdir /mnt/glusterfs

C'est ça! Nous pouvons maintenant monter le système de fichiers GlusterFS sur /mnt/glusterfs avec la commande suivante :

mount.glusterfs server1.example.com:/testvol /mnt/glusterfs

(Au lieu de server1.example.com, vous pouvez également utiliser server2.example.com dans la commande ci-dessus !)

Vous devriez maintenant voir la nouvelle part dans les sorties de...

mount
[[email protected] ~]# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime,seclabel)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
devtmpfs on /dev type devtmpfs (rw,nosuid,seclabel,size=930336k,nr_inodes=232584,mode=755)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,seclabel)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,seclabel,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,nodev,seclabel,mode=755)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,seclabel,mode=755)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpuacct,cpu)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/net_cls type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls)
configfs on /sys/kernel/config type configfs (rw,relatime)
/dev/mapper/centos-root on / type xfs (rw,relatime,seclabel,attr2,inode64,noquota)
selinuxfs on /sys/fs/selinux type selinuxfs (rw,relatime)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=34,pgrp=1,timeout=300,minproto=5,maxproto=5,direct)
debugfs on /sys/kernel/debug type debugfs (rw,relatime)
mqueue on /dev/mqueue type mqueue (rw,relatime,seclabel)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,seclabel)
/dev/sda1 on /boot type xfs (rw,relatime,seclabel,attr2,inode64,noquota)
tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,seclabel,size=188060k,mode=700)
server1.example.com:/testvol on /mnt/glusterfs type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
[[email protected] ~]#

... et...

df -h
[[email protected] ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos-root 28G 1.3G 27G 5% /
devtmpfs 909M 0 909M 0% /dev
tmpfs 919M 0 919M 0% /dev/shm
tmpfs 919M 8.6M 910M 1% /run
tmpfs 919M 0 919M 0% /sys/fs/cgroup
/dev/sda1 497M 192M 306M 39% /boot
tmpfs 184M 0 184M 0% /run/user/0
server1.example.com:/testvol 28G 12G 17G 41% /mnt/glusterfs
[[email protected] ~]#

Au lieu de monter manuellement le partage GlusterFS sur le client, vous ajoutez la commande de montage au fichier /etc/rc.local. Je ne l'ajouterai pas à /etc/fstab car rc.local est toujours exécuté une fois le réseau activé, ce qui est requis pour un système de fichiers réseau

Ouvrez /etc/rc.local et ajoutez la ligne suivante :

nano /etc/rc.local
[...]
/usr/sbin/mount.glusterfs server1.example.com:/testvol /mnt/glusterfs

(Encore une fois, au lieu de server1.example.com, vous pouvez également utiliser server2.example.com !)

Pour tester si votre fichier /etc/rc.local modifié fonctionne, redémarrez le client :

reboot

Après le redémarrage, vous devriez retrouver le partage dans les sorties de...

df -h

... et...

mount

5 Tests

Créons maintenant des fichiers de test sur le partage GlusterFS :

client1.exemple.com :

touch /mnt/glusterfs/test1
touch /mnt/glusterfs/test2

Vérifions maintenant le répertoire /data sur server1.example.com et server2.example.com. Les fichiers test1 et test2 doivent être présents sur chaque nœud :

serveur1.exemple.com/serveur2.exemple.com :

ls -l /data
[[email protected] ~]# ls -l /data
total 0
-rw-r--r--. 2 root root 0 Jul 1 2016 test1
-rw-r--r--. 2 root root 0 Jul 1 2016 test2
[[email protected] ~]

Maintenant, nous fermons server1.example.com et ajoutons/supprimons des fichiers sur le partage GlusterFS sur client1.example.com.

serveur1.exemple.com :

shutdown -h now

client1.exemple.com :

touch /mnt/glusterfs/test3
touch /mnt/glusterfs/test4
rm -f /mnt/glusterfs/test2

L'exécution des commandes peut prendre un certain temps car le Glusterfs passe au serveur 2 après qu'il ne peut plus atteindre le serveur 1. Nous pouvons voir ici la tolérance aux pannes du système car nous pouvons toujours travailler sur notre partage de stockage de données lorsque le serveur 1 est hors ligne. Les modifications doivent être visibles dans le répertoire /data sur server2.example.com :

serveur2.exemple.com :

ls -l /data
[[email protected] ~]# ls -l /data
total 8
-rw-r--r--. 2 root root 0 Jul 1 15:17 test1
-rw-r--r--. 2 root root 0 Jul 1 15:19 test3
-rw-r--r--. 2 root root 0 Jul 1 15:19 test4

Redémarrons server1.example.com et regardons le répertoire /data :

serveur1.exemple.com :

ls -l /data
[[email protected] ~]# ls -l /data
total 8
-rw-r--r--. 2 root root 0 Jul 1 15:17 test1
-rw-r--r--. 2 root root 0 Jul 1 15:19 test2
[[email protected] ~]#

Comme vous le voyez, server1.example.com a automatiquement synchronisé les modifications. Dans le cas où la modification n'a pas encore été synchronisée, cela est facile à corriger, tout ce que nous avons à faire est d'invoquer une commande de lecture sur le partage GlusterFS sur client1.example.com, par exemple :

client1.exemple.com :

ls -l /mnt/glusterfs/
[[email protected] ~]# ls -l /data
total 8
-rw-r--r--. 2 root root 0 Jul 1 15:17 test1
-rw-r--r--. 2 root root 0 Jul 1 15:19 test3
-rw-r--r--. 2 root root 0 Jul 1 15:19 test4
[[email protected] ~]#

Examinez à nouveau le répertoire /data sur server1.example.com et vous devriez voir que les modifications ont été répliquées sur ce nœud :

serveur1.exemple.com :

ls -l /data
[[email protected] ~]# ls -l /data
total 8
-rw-r--r--. 2 root root 0 Jul 1 15:17 test1
-rw-r--r--. 2 root root 0 Jul 1 15:19 test3
-rw-r--r--. 2 root root 0 Jul 1 15:19 test4
[[email protected] ~]#

  • GlusterFS :http://www.gluster.org/
  • Documentation GlusterFS 3.2 :http://download.gluster.com/pub/gluster/glusterfs/3.2/Documentation/AG/html/index.html
  • CentOS :http://www.centos.org/

Cent OS
  1. Stockage haute disponibilité avec GlusterFS sur Debian 8 - Mise en miroir sur deux serveurs de stockage

  2. Stockage distribué sur quatre nœuds de stockage avec GlusterFS 3.2.x sur Ubuntu 12.10

  3. Stockage répliqué distribué sur quatre nœuds de stockage avec GlusterFS 3.2.x sur Ubuntu 12.10

  4. Stockage haute disponibilité avec GlusterFS 3.2.x sur Debian Wheezy - Réplication automatique de fichiers (miroir) sur deux serveurs de stockage

  5. Répartition sur quatre nœuds de stockage avec GlusterFS sur Fedora 12

Stockage haute disponibilité avec GlusterFS 3.2.x sur CentOS 6.3 - Réplication automatique des fichiers (miroir) sur deux serveurs de stockage

Création d'un serveur de stockage autonome de type NFS avec GlusterFS 3.2.x sur CentOS 6.3

Répartition sur quatre nœuds de stockage avec GlusterFS 3.2.x sur CentOS 6.3

Stockage distribué sur quatre nœuds de stockage avec GlusterFS 3.2.x sur CentOS 6.3

Stockage répliqué distribué sur quatre nœuds de stockage avec GlusterFS 3.2.x sur CentOS 6.3

Stockage haute disponibilité avec GlusterFS sur Fedora 12 - Réplication automatique de fichiers (miroir) sur deux serveurs de stockage