Quel empreinte environnementale pour le Cloud ? Nombreuses sont les organisations à se poser la question et à rester bien souvent sans réponse. Une situation peu confortable alors que les exigences réglementaires imposent de plus en plus d’être en capacité de reporter ces chiffres. Mais la réglementation avance, et la France est en pointe pour définir et proposer des méthodes d’évaluation normalisées à l’échelon européen.
Évaluer l’empreinte du Cloud relève très souvent du casse-tête pour les entreprises utilisatrices. La faute à un manque de transparence des acteurs que sont les opérateurs de datacenters et les fournisseurs de services cloud. Face à cela, les pouvoirs publics se mobilisent que ce soit au niveau national ou supranational en produisant différentes méthodologies et normes pour pousser les acteurs à évaluer l’impact de leurs services et infrastructures. Si ces outils sont particulièrement utiles, ils ne sont pas encore complets et pourraient ne pas toujours engendrer l’effet escompté.
Benoit Petit est spécialiste des sujets datacenters depuis de nombreuses années et a co-fondé Hubblo, une entreprise spécialisée sur l’évaluation de l’empreinte environnementale du numérique : « Pour l’instant, les données fournies par les cloud providers sont très partielles, biaisées, et souvent centrées impact carbone ». À ses yeux, l’évaluation se fait encore sur des méthodes non normalisées, « donc c’est un bon prétexte pour ne pas le faire. »
À titre d’exemple, il existe déjà des outils de type calculatrice mais largement imparfaits comme Cloud Carbon Footprint et Carbon Footprint Calculators. Il y a également l’API de Boavizta, dont les co-fondateurs d’Hubblo sont pour partie co-fondateurs de cette association à but non lucratif, qui, elle, est multi-critères. « En bout de chaîne, il faut que les entreprises utilisatrices puissent évaluer leur empreinte » juge Benoit Petit, « il existe des méthodes monétaires, des méthodes parcellaires d’évaluation… il n’y a rien de vraiment standard, il faut trouver les moyens pour uniformiser. »
D’autant plus que le contexte est plutôt inquiétant, les chiffres de l’Agence Internationale de l’Énergie (IEA) le confirment : de 2020 à 2024, la consommation électrique des datacenters à été multipliée par 2 et devrait augmenter de 1,2 à 1,5 fois entre 2024 et 2026. Au niveau France, l’Ademe vient de rectifier quelques chiffres : sur les impacts GES (Gaz à Effet de Serre), la part des datacenters dans les impacts environnementaux du numérique français passe de 16% à 42% si on importe la part des impacts des infrastructures basées à l’étranger sollicitées par les usages français. Une part colossale donc dans nos impacts liés au numérique.
Les réglementations s’appuient sur des normes qui elles-mêmes s’appuient sur des méthodes rappelle Benoit Petit. Ainsi, l’Ademe travaille depuis plus de deux ans sur une méthodologie appelée à devenir une norme : le PCR (Product Category Rule) Datacenter & Cloud ayant pour objectif de définir comment on fait le reporting de l’impact d’un service de type cloud.
Nous avions déjà parlé de PCR dans ces colonnes, à propos du PCR Système d’Information également initié par l’Ademe. Et pour cause, l’Ademe entend proposer, à échelle nationale puis européenne, une méthode de calcul par sous-ensemble du numérique pour normaliser ce travail au niveau global et améliorer ainsi la lisibilité des problématiques d’empreinte environnementale du numérique d’une part, et éviter le greenwashing d’autre part.
Alexis Perez, ingénieur numérique dans l’équipe sobriété numérique de l’Ademe explique la démarche menée depuis la première version sortie en janvier 2023 : « la mise à jour du PCR avait pour objectif de mettre des opérateurs de datacenters et fournisseurs de services cloud autour de la table pour pouvoir tester et améliorer la méthodologie ». C’est l’entreprise suisse Resilio qui a coordonné ce travail. Autour de la table, des grands noms du Cloud se sont réunis : AWS, Capgemini, Exoscale, Orange, OVH, Qarnot Computing, Scaleway ou encore Data4 ont contribué à construire cette mise à jour du PCR.
« Le premier enjeu était de clarifier la méthode, mieux définir les termes, faciliter le lien entre les méthodes de comptabilisation carbone comme le bilan carbone et le PCR » détaille Alexis Perez, « il fallait donc une méthodologie aboutie et la plus fiable possible ». Ainsi, pour l’ingénieur numérique, le PCR mis à jour devrait garantir un fort niveau de fiabilité.
Le PCR a été testé lors d’un pilote de sorte que plusieurs Analyses de Cycle de Vie (ACV) ont été réalisées en amont par unité fonctionnelle pour vérifier la cohérence de la méthodologie. L’entreprise Hubblo a d’ailleurs participé à ce pilote en accompagnant des fournisseurs de services cloud. « La volonté de l’Ademe derrière le PCR, c’est d’en faire une norme internationale » conclut Benoit Petit, « et même si d’ores et déjà cette norme ne vaut pas règlementation, elle va vraiment pousser les cloud providers à agir. »
Des réglementations existent déjà par ailleurs sur différents périmètres liés à l’activité de data hosting. Hubblo a réalisé un travail précieux pour les recenser et les détailler au cours d’un webinaire réalisé en décembre dernier. Parmi elles, la CSRD. Celle-ci précise que les activités de data hosting sont alignées avec la taxonomie CSRD à trois conditions : 1) mise en œuvre du Code of Conduct on Datacenter Energy Efficiency (CoC), 2) justification des exigences du CoC non déployées et 3) limitation des fluides réfrigérants au pouvoir de réchauffement global à un certain seuil d’impact.
En matière de réglementation, on peut aussi citer l’obligation Éco Énergie Tertiaire, issue du décret tertiaire en France qui a pour objectif d’imposer aux datacenters de réduire leur consommation d’énergie finale : 40% d’ici 2030, 50% d’ici 2040 et 60% d’ici 2050. Cette réglementation impose aux datacenters de travailler sur un PUE cible et d’intensité énergétique maximum.
« Dans notre webinaire, nous parlons aussi de l’Energy Efficiency Directive (EED) de l’UE, » poursuit Benoit Petit. À ses yeux, cette directive peut être un véritable levier pour la durabilité car « c’est le premier exemple de directive européenne qui impose aux datacenters de produire des données avec beaucoup de granularité. C’est un texte qui fait date. »
Ainsi, l’EED impose : 1) la récupération obligatoire de chaleur fatale pour tous les datacenters qui ont plus de 1 mégawatt de puissance IT installée et 2) le reporting de nombreuses données. Entre autres, les acteurs doivent transmettre des indicateurs énergétiques et environnementaux comme la consommation d’eau, la chaleur fatale récupérée, la surface au sol, la consommation d’énergie du bâtiment, etc. Et également, des données sur le trafic sortant et entrant sur le réseau des datacenters.
Mais gare à la sortie piste… Si Benoit Petit est optimiste sur le fait que les cloud providers vont se mettre à faire ces travaux de reporting, il porte un regard plus sceptique sur les tendances de consommation : « si on regarde aujourd’hui ce qu’il se passe, la croissance des datacenters est très importante. On mène une étude prospective sur ce sujet avec Hubblo. On voit une nette décorrélation entre le besoin réel et les datacenters construits ! ». Pour Benoit Petit, il ne s’agit pas d’une augmentation de capacité pour répondre aux besoins actuels : « cela correspond à une tendance de marché ». À ses yeux, on pourrait changer de paradigme en termes de taille de datacenters.
En attendant, la nouvelle version du PCR Datacenter & Cloud est attendue pour février 2025 au plus tard et ce sera la méthode dont il faudra s’imprégner dès maintenant pour porter de l’affichage environnemental reconnu. Un moyen assurément de prendre de l’avance sur ce qui risque bien de devenir une norme réglementaire d’une part et une exigence de la part des parties prenantes d’autre part. Normaliser pour éviter de rendre normale l’empreinte environnementale aberrante du numérique, c’est ce qu’il faut souhaiter pour plus de résilience et de sobriété.
Auteur de l'article : Rémy Marrone pour GreenTech Forum