Paper97 Slides Rev2611 20220525 162013
Paper97 Slides Rev2611 20220525 162013
Paper97 Slides Rev2611 20220525 162013
●
Double HCI : pourquoi, comment
●
Joies et désenchantements
●
Bilan provisoire
Rafael [email protected]
Difficultés avec notre SAN
●
Fin de vie annoncée par l’éditeur
●
Performances dégradées
●
Résilience limitée dans notre cas
(réplication entre 2 salles, mais basculement manuel)
●
Manque de compétences de l’équipe
●
Volonté de récupérer la maîtrise technique et financière
avec investissements progressifs
Stockage
Distribué
Logiciel
Ceph
Linux OS
Matériel
Standard
Source : https://medium.com/@pk0752/ceph-the-next-generation-store-67f7c51780d3
Migration vers une double infrastructure hyperconvergée 18 mai 2022 –
Rafael [email protected] JRES Marseille
erasure-coding (vSAN et Ceph)
●
Le codage à effacement
– Découpage d’un objet en K fragments
– Codés avec m fragments redondants
●
Assure une parité
– (perte de m fragments)
– +- RAID5
– => SSD
Joies et désenchantements
[email protected]
Joies… 1/2
●
Redéploiement de :
– SSD possibles entre les 2 HCI
– nœuds possibles vers l’une ou l’autre
●
Liberté de déployer des VM sur l’infra la plus appropriée :
– matrice compatibilité, coût associé, performances, stabilité
●
Migration VM scriptée de vSphere vers Proxmox
(utilisation uuid, ajout pilotes (virtio), conversion disques (qemu-
img), renommage interfaces réseau, installation agent)
– En cours de Proxmox vers vSphere
Migration vers une double infrastructure hyperconvergée 18 mai 2022 –
Rafael [email protected] JRES Marseille
Joies… 2/2
●
Administration des VM indifférenciée :
– déploiement Linux (PXE), windows (template)
– gestion configuration, sauvegarde fichiers, journalisation, supervision,
métrologie
●
Meilleure résilience des services en cluster
– bonne validation (cf. pannes non franches)
●
1 atout pour Proxmox et 1 pour Ceph :
– Hébergement VM hors DSI (filtrage réseau au sein d’un même VLAN)
– Import/Export de snapshots de VM (images RBD)
ou de pools Ceph complets vers un autre cluster
Migration vers une double infrastructure hyperconvergée 18 mai 2022 –
Rafael [email protected] JRES Marseille
…et désenchantement 3/3
●
Même socle réseau
– une opération de maintenance du cœur de réseau a coupé les 2
HCI quelques minutes
– stockages reconstruits automatiquement
●
Courbe d’apprentissage plus longue (absorbée)
●
et...
Bilan provisoire
[email protected]
Quelques chiffres
●
HCI Proxmox/Ceph (12 nœuds + 3 moniteurs)
– 260 VM, 864 vCPU, 9To vRAM, 480 To bruts (avec extension en 2021 )
– ~20 % à réserver pour Ceph et Proxmox (+ seuil 80 % max)
– Début 2022 en moyenne pour 1 VM : 2 vCPU + 23 Go RAM + 450 Go de SSD
●
HCI vSphere/vSAN (10 nœuds + 1 witness)
– 320 VM, 720 vCPU, 7,5To vRAM, 260 To bruts (espace non étendu)
– ~20 % à réserver pour vSphere et vSAN (+ seuil 80 % max)
– Début 2022 en moyenne pour 1 VM : 1,5 vCPU + 15 Go RAM + 250 Go de SSD
●
10 min pour migrer 1 VM (50Go) de vSphere vers Proxmox
●
Disponibilité :
– Proxmox/Ceph sur 2 ans : 99,87 %
– vSphere/vSAN sur 1 an : 99,86 %
Migration vers une double infrastructure hyperconvergée 18 mai 2022 –
Rafael [email protected] JRES Marseille
Retour sur le projet
●
400 JH sur 4 ans :
– 2017/2018 : 1ères réflexions, études, formations
merci ANF CNRS sur le stockage distribué (2016) puis sur Ceph (2017)
– début 2019 : déploiement réseau et formation Proxmox
– fin 2019 : déploiement Proxmox/Ceph sur 4 nœuds (1ères VM + migrations) et formation vSAN
– avril 2020 : déploiement moodle sur CephFS
– fin 2020 : déploiement vSphere/vSAN + extension Proxmox/Ceph sur 3 sites
– mars 2021 : migration 550 VM depuis l’ancienne infra
– fin 2021 : docker sur CephFS
– début 2022 : ouverture hébergement laboratoires, POC samba sur CephFS
●
4 personnes impliquées :
– 1 orchestrateur (+ Proxmox/Ceph) + 1 Réseau + 1 vSphere/vSAN + 1 VM
●
MCO comparable
●
Ceph : + de services donc + de temps passé
Migration vers une double infrastructure hyperconvergée 18 mai 2022 –
Rafael [email protected] JRES Marseille
Perspectives et évolutions
●
Ré-internalisation de moodle
●
Internalisation de Learning Analytics
●
Remplacement du NAS FluidFS
– NFS => CephFS (natif dans linux)
– SMB/CIFS => samba dans LXC (Proxmox) au dessus de CephFS
●
Automatiser migration VM Proxmox vers vSphere
●
Remplacement des baies de stockage hétérogènes
●
Scripter bascule VM Proxmox pour PCA/PRA
●
POC à venir de Ceph RADOS Gateway (S3)
– pour Nuxeo (GED), et autres ?
Migration vers une double infrastructure hyperconvergée 18 mai 2022 –
Rafael [email protected] JRES Marseille
Conclusion
●
Les incidents (bugs ou miss-configs résolus) ne
remettent pas en cause le choix d’une double HCI :
– performantes, stables et fiables
– support Proxmox, Ceph, vSphere, vSAN
●
Nous sommes parvenus à prendre en main les différentes
technologies qui répondent à nos besoins actuels et aux
projets envisagés
Annexes
[email protected]
Performances du stockage
●
Ceph orienté résilience, est plus performant en écritures
aléatoires sur ce test
– 1 seule VM Rockylinux 8.5 : 2 vCPU, 4 GO RAM
– mesure (avec fio) sur vSAN puis migration de la VM sur Ceph
Des questions ?
[email protected]
DSI de l’Université de Rennes1,
Responsable de l’équipe système