Réduire l'empreinte carbone du cloud n'est pas seulement un acte de communication : c'est une responsabilité opérationnelle qui doit s'intégrer au quotidien des équipes DevOps. J'interviens souvent auprès d'équipes produits et d'ingénierie qui souhaitent aller au-delà des rapports RSE et mettre en place des pratiques concrètes, mesurables et répétables. Voici une checklist opérationnelle que j'utilise et que j'adapte selon les contextes — vous pouvez l'appliquer telle quelle ou vous en inspirer pour créer votre propre feuille de route.
Pourquoi une checklist pour les équipes DevOps ?
Les décisions qui ont le plus d'impact sur l'empreinte carbone sont souvent techniques et prises au quotidien : choix d'instances, architecture des données, fréquence des tâches batch, scalabilité automatique, localisation des ressources. Sans une checklist, ces décisions restent dispersées et difficilement mesurables. J'ai constaté que formaliser les bonnes pratiques facilite l'alignement entre développeurs, ingénieurs cloud et responsables produit.
Mes principes de base
Avant la checklist, je veille à ce que les équipes adhèrent à ces principes :
Mesurer pour optimiser — on ne gère bien que ce que l'on mesure.Prioriser l'impact — petite optimisation, grand effet ? On la fait d'abord.Automatiser les bonnes pratiques — rendre l'optimisation triviale via des pipelines et des outils.Être transparent — partager métriques et choix techniques avec les parties prenantes.Checklist opérationnelle — actions à mettre en œuvre
Je classe la checklist par catégories : instrumentation & métriques, architecture & infrastructure, déploiement & runtime, données & stockage, process & gouvernance.
Instrumentation & métriques
Déployer une solution de monitoring carbone : installez des outils comme Cloud Carbon Footprint, AWS Customer Carbon Footprint ou des SDKs carbon-aware pour capter les émissions estimées par ressource.Collecter les métriques essentielles : consommation CPU, mémoire, I/O disque, réseau, durée des jobs batch, nombre d'instances et heures d'utilisation.Relier la télémétrie cloud (CloudWatch, Azure Monitor, Stackdriver) aux dashboards carbone (Grafana, Tableau) pour lier consommation technique et estimation d'émissions.Définir des KPIs quantifiables : kgCO2e/service/mois, kgCO2e/deployment, kWh/utilisateur actif.Architecture & infrastructure
Choisir la bonne taille d'instance : dimensionnez selon les 95e percentiles de charge, pas sur des pics rares. Favorisez les instances à performance variable (ex. burstable).Privilégier les instances plus récentes et plus efficientes : préparer des scripts Terraform pour remplacer progressivement les familles d'instances anciennes par des familles plus efficaces.Utiliser les zones géographiques optimisées : rapprocher workloads des utilisateurs finaux pour réduire la latence et la consommation réseau, tout en tenant compte du mix énergétique des régions.Configurer le multi-tenancy quand c'est pertinent : mutualiser des services pour augmenter l'utilisation moyenne des ressources.Activer l'auto-scaling horizontal avec des règles basées sur des métriques d'efficacité énergétique (par exemple, scale-to-zero pour les fonctions inoccupées).Déploiement & runtime
Mettre en place le scale-to-zero pour les workloads intermittents : Kubernetes + Knative, ou serverless (AWS Lambda, Azure Functions, Google Cloud Functions) quand cela réduit l'empreinte globale.Optimiser les images conteneurisées : utiliser des images distroless/minimales (Alpine, distroless), supprimer les dépendances inutiles, et scanner pour la dette technique.Automatiser la gestion des ressources via IaC : Terraform/CloudFormation pour appliquer des labels énergétiques et des limites de ressources par environnement.Limiter la sur-provisioning : politiques strictes de requests/limits pour CPU et mémoire sur Kubernetes, et review obligatoire lors des Pull Requests.Mettre en place des CI/CD « low-carbon » : planifier les builds et tests gourmands en heures creuses (si le mix électrique est plus propre à ces moments) et utiliser des runners mutualisés optimisés.Données & stockage
Classer les données par fréquence d'accès : stockage chaud vs froid vs archive. Déplacer automatiquement vers des classes moins coûteuses et moins énergivores (S3 Intelligent-Tiering, Azure Blob tiering).Compacter et dédupliquer : mettre en place compression et déduplication au niveau applicatif et stockage.Éviter les réplicas inutiles : ajuster le niveau de réplication selon la criticité des données et la conformité.Limiter la rétention des logs : règles de rétention par catégorie (debug vs production) et archivage automatique.Process & gouvernance
Inclure un critère d'efficacité carbone dans les revues d'architecture et PRs.Créer des runbooks pour les optimisations fréquentes : comment réduire la taille d'une image, comment configurer un HPA/KEDA ou activer le scale-to-zero.Former les équipes : sessions techniques sur l'empreinte du cloud, ateliers pour apprendre à lire les dashboards carbone.Définir des seuils d'alerte et des actions automatiques (ex. limiter provisioning en cas d'envolée des émissions ou de coûts).Automatisations & outils recommandés
| Action | Outils |
| Mesure carbone | Cloud Carbon Footprint, AWS/Azure/GCP carbon tools, The Green Software Foundation tools |
| Monitoring & dashboard | Prometheus, Grafana, Datadog, New Relic |
| IaC | Terraform, Pulumi, CloudFormation |
| Orchestration | Kubernetes, Knative, KEDA, AWS ECS/Fargate |
| CI/CD | GitHub Actions, GitLab CI, Azure DevOps avec runners mutualisés |
Exemples concrets que j'ai mis en place
Dans une mission récente pour une fintech, nous avons réduit de 25 % les consommations serveur en six mois en combinant :
remplacement des instances m5 par m6a plus efficientes,compression des backups et réduction de la rétention à 90 jours pour les logs non critiques,passage de plusieurs microservices à un modèle serverless pour les endpoints très peu sollicités.Autre exemple : pour une marketplace internationale, nous avons mis en place un pipeline Terraform qui applique automatiquement des quotas par environnement et des labels régionaux pour favoriser le déploiement vers des régions à mix électrique plus propre. Cela a permis des arbitrages transparents entre performance, coût et émissions.
Indicateurs à suivre régulièrement
kgCO2e par service / par moisUtilisation moyenne CPU/instanceRatio temps actif / temps provisionné (occupation)Coût cloud corrélé aux émissionsNombre d'instances inutilisées ou sous-utiliséesPièges fréquents
Se focaliser uniquement sur le coût financier : les optimisations coût-CO2 ne sont pas toujours alignées mais souvent elles le sont ; il faut mesurer les deux.Ignorer l'impact des services managés : certaines offres managées peuvent être plus efficientes que des solutions self-hosted mal optimisées.Reporter les décisions à une équipe « durabilité » sans outiller les ingénieurs : l'impact se joue dans le code et l'infrastructure.Cette checklist est un point de départ. L'important est d'intégrer ces pratiques dans vos pipelines et vos revues quotidiennes : automatiser, mesurer et ajuster. Si vous souhaitez, je peux l'adapter à votre stack (AWS/GCP/Azure, Kubernetes, serverless) et fournir des exemples Terraform ou des templates de dashboard pour démarrer rapidement.