En considérant uniquement les concepts impliqués à chaque couche de la pile et non l'implémentation spécifique, il pourrait être logique pour certaines applications de superposer ces trois modes RAID.
Cependant, la mise en page dans le diagramme représenté présente un sérieux défaut. Vous avez mal ordonné les calques. Pour des performances et une fiabilité optimales, vous devez échanger l'ordre des couches RAID-1 et RAID-6.
Habituellement RAID-6 est configuré pour tolérer la perte de deux disques. On s'attend donc à ce qu'un RAID-6 échoue une fois que vous avez perdu trois disques. Cela signifie que dans le pire des cas, la perte de trois des 48 disques entraînerait la défaillance de l'un des composants RAID-6.
Vos données survivraient à cet incident, mais vous devriez créer un nouveau RAID-6 à partir des 9 bons disques et des 3 nouveaux disques. Après cela, vous devrez à la fois synchroniser un RAID-6 nouvellement créé et répliquer la couche RAID-1 de l'autre RAID-6 vers le RAID-6 en cours de synchronisation. C'est une opération très gourmande en E/S.
Ainsi, un cas de 3 disques perdus nécessite à la fois l'attention de l'administrateur pour la récupération et est lourd en E/S.
Au lieu de cela, vous pouvez d'abord regrouper les 24 disques en 12 paires à l'aide de RAID-1, puis combiner ces 12 disques RAID-1 en un RAID-6.
De cette façon, la perte d'un seul disque peut toujours être récupérée au niveau de la couche RAID-1, ce qui est beaucoup plus efficace que la récupération au niveau de la couche RAID-6. Et même en cas de perte de 5 disques, vous avez la garantie que la couche RAID-6 survivra.
Dans les deux cas, vos données survivront à la perte de 5 disques, mais il y a une différence dans la rapidité de récupération.
Dans les deux cas, vos données pourraient être perdues en raison de la perte de 6 disques, mais le risque est beaucoup plus élevé dans votre scénario décrit que si les couches sont permutées.
Détails de la mise en œuvre
Plus vous utilisez de couches, plus le risque de rencontrer des cas que l'implémentation spécifique a des problèmes à gérer est élevé. Une question à garder à l'esprit est de savoir si les disques de secours peuvent être partagés entre les différentes branches de la structure. Un autre est de savoir comment la récupération automatisée de la perte de l'un des sous-RAID serait. Par exemple, si vous avez perdu les deux disques dans l'un des RAID-1 de la couche la plus basse, peut-il créer automatiquement un nouveau RAID-1 à partir de deux disques de secours et l'utiliser comme disque de secours pour la couche suivante ?
Je pense que cela repousse les limites du concept RAID et que vous rencontrerez des problèmes, le contrôleur PERC vous permettra-t-il d'ajouter des disques virtuels à une autre baie ? Chacun n'aura-t-il pas sa propre politique d'écriture et de cache, quelle est la taille du cache sur votre contrôleur - de toute façon, si les performances sont ce que vous recherchez, avez-vous regardé Ceph? -il est certifié pour fonctionner sur les R730 mais vous auriez besoin d'un disque de journal SSD - toutes les écritures se produisent sur le SSD et sont déplacées vers la baie plus tard, il n'a pas besoin de raid pour la redondance et offre un stockage d'objet, de bloc et de fichier et un codage d'effacement
Je pense que l'architecture que vous avez en tête est trop complexe sans aucune raison à laquelle je puisse penser. Essentiellement, vous gaspillez 28 disques sur votre matrice de 48 disques pour la redondance. La raison pour laquelle RAID6 a été inventé est que beaucoup considèrent que RAID1/RAID10 est trop inutile, mais vous allez encore plus loin en appliquant RAID10 au-dessus de RAID6.
Je recommanderais soit d'utiliser RAID10 complètement ici si vous avez effectivement besoin de toute cette redondance, soit d'opter pour RAID6 + RAID0 (a.k.a RAID60).
De plus, gardez à l'esprit que la taille raisonnable pour la matrice RAID6 est de 8 à 20 disques, 12 à 16 étant le plus courant, au-delà de ce qui est techniquement possible mais peu pratique en raison des temps de récupération extrêmement longs.