Stockage Persistant
Last updated
Last updated
cegedim.cloud propose désormais une plateforme de stockage Ceph multi-locataires en tant que fournisseur de CSI avec les spécifications suivantes :
Les données sont répliquées 4 fois et réparties uniformément (à l'aide de Ceph Crush Map) sur 2 centres de données afin de garantir que, dans les scénarios de catastrophe, 2 répliques de données sont toujours disponibles.
Chaque cluster Kubernetes, en tant que client Ceph, dispose de son propre pool de données sur le serveur Ceph et consomme des services avec ses propres identifiants.
Seul le RBD Ceph CSI est fourni pour le moment.
De plus amples informations sur le Ceph CSI sont disponibles via le lien ci-dessous :
Composant | Version |
---|---|
Ceph Cluster | 17.2.5 |
CSI Ceph | 3.9.0 |
Nom | Description |
---|---|
cgdm-rwo | Utiliser CSI Ceph rbd pour provisioner des volumes persistants |
EB | ET | |
---|---|---|
Réplication | x4 | x4 |
Tolérance de panne : Une AZ indisponible | ||
Tolérance de panne : Un DC indisponible |
CSI Ceph-rbd | |
---|---|
Approvisionnement de nouveaux PV | |
Remonter le PV existant | |
Compatible avec toutes les applications K8S | |
Montage multiple (RWX) | |
Redimensionnable | |
Aperçu | |
Tolérance de panne : perte de 1 AZ | |
Tolérance de panne : perte de 1 DC | |
Compatible avec K8S 1.22+ | |
Compatible avec K8S 1.22- |
cegedim.cloud utilise External Snapshotter pour prendre des clichés et restaurer le PVC de vos clusters Kubernetes.
Toutes les informations relatives à cette application sont disponibles à l'adresse suivante :
Il est recommandé de nommer la classe d'instantanés d'après la classe de stockage. Il suffit d'exécuter la commande ci-dessous pour vérifier :
Pour répertorier tous les CSI disponibles dans un cluster Kubernetes, procédez comme suit :
Voici une correspondance entre la classe de stockage et le CSI :
Classes de stockage | CSI |
---|---|
cgdm-rwo | Ceph RBD |