Stockage Persistant
Last updated
Last updated
cegedim.cloud propose désormais une plateforme de stockage Ceph multi-locataires en tant que fournisseur de CSI avec les spécifications suivantes :
Les données sont répliquées 4 fois et réparties uniformément (à l'aide de Ceph Crush Map) sur 2 centres de données afin de garantir que, dans les scénarios de catastrophe, 2 répliques de données sont toujours disponibles.
Chaque cluster Kubernetes, en tant que client Ceph, dispose de son propre pool de données sur le serveur Ceph et consomme des services avec ses propres identifiants.
Seul le RBD Ceph CSI est fourni pour le moment.
De plus amples informations sur le Ceph CSI sont disponibles via le lien ci-dessous :
Ceph Cluster
17.2.5
CSI Ceph
3.9.0
cgdm-rwo
Utiliser CSI Ceph rbd pour provisioner des volumes persistants ReadWriteOnce
Réplication
x4
x4
Tolérance de panne : Une AZ indisponible
Tolérance de panne : Un DC indisponible
Approvisionnement de nouveaux PV
Remonter le PV existant
Compatible avec toutes les applications K8S
Montage multiple (RWX)
Redimensionnable
Aperçu
Tolérance de panne : perte de 1 AZ
Tolérance de panne : perte de 1 DC
Compatible avec K8S 1.22+
Compatible avec K8S 1.22-
cegedim.cloud utilise External Snapshotter pour prendre des clichés et restaurer le PVC de vos clusters Kubernetes.
Toutes les informations relatives à cette application sont disponibles à l'adresse suivante :
Il est recommandé de nommer la classe d'instantanés d'après la classe de stockage. Il suffit d'exécuter la commande ci-dessous pour vérifier :
Pour répertorier tous les CSI disponibles dans un cluster Kubernetes, procédez comme suit :
Voici une correspondance entre la classe de stockage et le CSI :
cgdm-rwo
Ceph RBD