Kubernetes en production : retour d'expérience
Migrer vers Kubernetes : retour terrain
On a migre l'infrastructure d'un client dans l'energie (40 microservices, 12 equipes) de Docker Compose vers Kubernetes. 6 mois de mission. Voici ce qu'on en retient.
Le contexte
Avant K8s : deploiements manuels via SSH, 3 a 4 incidents/mois lies a des configurations divergentes entre les environnements. Temps moyen de deploiement : 45 minutes par service. Aucune scalabilite automatique.
La stack deployee
- ArgoCD pour le GitOps : chaque merge sur main declenche un deploiement automatique
- HPA (Horizontal Pod Autoscaler) : scaling de 2 a 16 pods sur les services critiques
- Prometheus + Grafana : monitoring avec alertes sur latence P95 et taux d'erreur
- Cert-manager + Let's Encrypt pour le TLS automatique
Resultats mesures
Apres 3 mois en production :
- Deploiement : de 45 min a 3 min (pipeline ArgoCD)
- Incidents de config : de 4/mois a 0
- Disponibilite : de 97.2% a 99.8%
- Cout infra : -18% grace au scaling dynamique
Les pieges rencontres
Le plus couteux : les limites de ressources mal definies. Sans requests/limits corrects, le scheduler place trop de pods sur les memes noeuds. On a eu un OOMKill en cascade le mois 2.
Autre piege : ne pas anticiper les PodDisruptionBudgets. Sans PDB, une mise a jour de noeud peut couper un service entier.
Kubernetes ne simplifie pas. Il structure. Et ca change tout.
Mehdi
Consultant chez AGATE IT
Expert en cloud & devops, notre consultant partage ses retours d’expérience et ses bonnes pratiques pour vous aider dans vos projets.