Auteur/autrice : Olivier PHILIPPOT

Expert Sobriété Numérique Auteur des livres «Green Patterns», «Green IT - Gérer la consommation d’énergie de vos systèmes informatiques», ... Conférencier (VOXXED Luxembourg, EGG Berlin, ICT4S Stockholm, ...) Fondateur du Green Code Lab, association nationale de l’écoconception des logiciels

L’empreinte des cookies à la loupe – Impact environnemental avec ou sans consentement

Reading Time: 10 minutes

Le règlement général sur la protection des données RGPD a permis de protéger nos données privées en obligeant les fournisseurs de contenu à spécifier les informations personnelles récupérées, et plus particulièrement en demandant l’autorisation à l’utilisateur de le faire. 

La contrepartie pour l’utilisateur a été les “cookie walls”, les pop-ups de validation des cookies qui sont devenus systématiques. Un gain pour les données privées, mais quid de l’impact environnemental de ces éléments (et aussi de l’accessibilité ?) et est-ce que la validation ou non des cookies change cet impact ?

Sur cette dernière question, on s’attend à avoir un impact plus faible si l’on ne valide pas les cookies. Effectivement, la non-validation des cookies invalide le chargement de certains services comme les services d’analytiques et autre.

Nous allons utiliser les outils Greenspector pour étudier ces éléments, en prenant le cas des sites d’information. Nous avons automatisé un parcours : affichage de la page, actions diverses pour afficher le bouton de validation des cookies (scroll…), validation des cookies et affichage de la page finale. 

Ces tests sont lancés sur notre banc de test Cloud sur des devices réels pour 30 sites différents : 

  • https://www.20minutes.fr/ 
  • https://actu.fr/ 
  • https://www.bfmtv.com/ 
  • https://www.cnews.fr/ 
  • https://www.estrepublicain.fr/ 
  • https://www.france24.com/fr/
  • https://www.francebleu.fr/ 
  • https://www.francetvinfo.fr/ 
  • https://www.huffingtonpost.fr/ 
  • https://www.la-croix.com/ 
  • https://www.ladepeche.fr/ 
  • https://www.liberation.fr/ 
  • https://www.lindependant.fr/ 
  • https://www.midilibre.fr/ 
  • https://www.nouvelobs.com/ 
  • https://www.lanouvellerepublique.fr/ 
  • https://www.laprovence.com/ 
  • https://www.lavoixdunord.fr/ 
  • https://www.ledauphine.com/ 
  • https://www.lefigaro.fr/ 
  • https://www.lemonde.fr/ 
  • https://www.leparisien.fr/ 
  • https://www.lepoint.fr/ 
  • https://www.leprogres.fr/ 
  • https://www.letelegramme.fr/ 
  • https://www.lexpress.fr/ 
  • https://www.ouest-france.fr/ 
  • https://www.parismatch.com/ 
  • https://www.rfi.fr/fr/ 
  • https://www.sudouest.fr/ 

Vous retrouverez les noms des étapes suivantes dans tous les résultats : 

  • CHRGT_initial : Chargement initial de la page 
  • PAUSE_initial : Idle sur la page pendant 30s 
  • CHRGT_AfternRGPDAgreement : Chargement de la page suite à l’acceptation des cookies 
  • PAUSE_final : Idle sur la page après validation pendant 30s 

Fonctionnement des cookies

Le RGPD demande aux fournisseurs de services de demander le consentement à l’utilisateur quant aux données personnelles qui vont être utilisées. Cela implique donc de mettre en place un mécanisme de notification. Il s’agit généralement d’un bandeau.

L’utilisateur peut accepter ou refuser les cookies non-nécessaires. Il peut aussi, si le fournisseur le permet, refuser ou accepter finement par rapport à une liste. Il peut aussi ne pas donner suite aux notifications. Dans ce cas, si le placement du bandeau le permet, il peut continuer à utiliser le service. 

Si certains services ne sont pas acceptés, cela impliquera que certaines fonctionnalités ne soient pas disponibles pour l’utilisateur par exemple un plugin de chat). Dans la plupart des cas, comme par exemple pour les publicités, le service sera fonctionnel, mais aucune information personnelle ne pourra être utilisée par le service (par exemple pour proposer des publicités ciblées). Certains services « oublient” la réglementation alors qu’ils devraient la gérer (par exemple les Google fonts). 

Certains sites bloqueront le service totalement, on appelle cela un cookie wall. Ce type de notification est répandu dans les sites d’information que nous avons évalués. 

Pour plus d’information sur le RGDP, nous vous invitons à suivre le MOOC CNIL.

Résultats macro

La médiane des données chargées des sites est à 1,3MB (bleu foncé). Ensuite, pour la plupart des sites, l’inactivité n’implique que très peu de données (en orange) ; c’est ce que l’on attend car aucun service ne doit être lancé. On observe cependant certaines “anomalies” (les points au-dessus des moustaches). Il s’agit généralement de vidéos qui sont lancées automatiquement. Ceci est potentiellement une anomalie d’un point de vue RGPD et d’un point de vue sobriété (La lecture automatique des contenus n’est pas recommandée). Cependant, on peut aussi imaginer que le service vidéo qui se lance n’utilise pas de données personnelles et le fera ou non à la suite de la validation. 

Le chargement suite à la validation des cookies implique le chargement supplémentaire de 1Mo de données. C’est un comportement normal, car la validation des cookies devrait enclencher le chargement de certains services. On voit cependant, vu le ratio (1,3Mo avant), on peut supposer que des services sont chargés (et pas nécessairement tous appelés) avant la validation. C’est un gaspillage, car si l’utilisateur ne valide pas les cookies, le chargement d’une librairie n’est pas nécessaire. 

On peut noter que certains services de gestion de cookies traitent cela nativement (par exemple https://tarteaucitron.io/fr/).

Avec la validation des cookies, on voit une consommation de données qui augmente, ceci étant normalement dû au chargement des services autorisés. 

Sur francebleu.fr, on voit par exemple juste après le chargement initial et avant la validation, le chargement du widget meteofrance  (plus de 400ko). La validation des cookies n’amène aucun chargement (donc tout a été chargé avant validation). On peut alors se poser la question sur l’usage de données personnelles dans ce cas (voir par exemple l’analyse de Pixel de Tracking) 

À l’opposé, cnews.fr a une consommation de données à 0 ko suite au chargement initial et une consommation importante suite au consentement des cookies.

À noter sur ce dernier cas, si l’on ne consent pas aux cookies, il y a un peu moins de cookies cependant il semble qu’il y ait toujours beaucoup de requêtes (23 versus 27). Cela s’explique que certains services sont totalement bloqués mais que de nombreux services sont lancés (avec normalement aucune donnée personnelle utilisée).

Energie

Concernant l’énergie, nous allons observer deux métriques : l’énergie totale consommée sur l’étape et la vitesse de décharge de l’étape. 

La consommation d’énergie est légèrement plus importante au chargement suite à la validation des cookies. Ceci est  principalement lié au chargement des librairies autorisées avec les cookies et d’autre part à des repaints et reflows de la page suite à ces chargements. Ceci dit, le contenu utile (photo, texte) est généralement chargé initialement, le coût du consentement amène, en termes d’énergie, à un équivalent de deuxième chargement. 

La consommation lors des étapes d’inactivité est plus importante suite à la validation. Le déclenchement de certaines librairies d’analytiques et des vidéos induisent effectivement une surconsommation.

Vitesse de décharge

À noter, la consommation écran inactif suite au chargement initial pourrait être limitée. Par exemple sur Cnews.fr, une animation de type chargement de contenu en arrière-plan fait tripler la consommation de base du téléphone.

Mémoire

La validation du consentement fait augmenter la consommation mémoire. Ceci s’explique pour les librairies qui sont chargées. 

Voici l’exemple du chargement suite à consentement pour leparisien.fr, on observe bien les augmentations de l’utilisation de la mémoire à chaque chargement de librairie : 

Refus du consentement, moins d’impact ? 

Nous avons aussi automatisé le parcours de refus des cookies. Cependant, de nombreux sites n’ont pas pu être mesurés pour différentes raisons : 

  • Pas de bouton accessible facilement pour refuser, cela étant bien sûr en désaccord avec la RGPD (Cela aurait été potentiellement possible d’automatiser mais aurait demandé un peu plus de temps, et cela est dans tous les cas représentatifs d’un problème d’UX : les utilisateurs vont difficilement refuser les cookies. 
  • Le refus sans un abonnement n’est pas possible 

Exemple d’UX avec un refus possible (même s’il aurait été plus accessible avec un bouton plus visible, il est dans la pop-up initial) :

On peut féliciter les sites qui restent dans la liste, le bouton de refus était accessible facilement !

Dans la plupart des cas, l’énergie consommée est plus faible suite à un refus qu’un consentement. Ceci semble logique par rapport à des chargements moins importants de librairies. 

Dans certains cas comme Cnews, on a vu que le refus n’annulait pas certains services comme les vidéos (ce qui est potentiellement normal si le service n’utilise pas de données personnelles).

Sur la mémoire, on voit vraiment l’impact du consentement.

Concernant les données, le refus du consentement amène encore beaucoup de données, parfois autant que l’acceptation (gris versus bleu ciel). La consommation en inactivité est légèrement plus faible.

Pas de réponse à la notification, moins d’impact ?

Il est clair que si aucune réponse n’est donnée à la notification, l’impact est beaucoup plus faible (c’est uniquement l’impact du chargement initial). On peut moduler cela sur mobile et sur les sites évalués, car il s’agit de pop-up de notification qui ne permet pas une navigation sans réponse.

Analyse de l’impact

Nous allons maintenant utiliser le modèle d’impact Greenspector pour estimer l’impact environnemental des différents états de la validation RGPD. Pour cela, nous prenons l’hypothèse d’une localisation des utilisateurs et des serveurs en France, toutes les phases du matériel étant prises en compte. 

Nous estimons l’impact à chaque fois du chargement de la page et de 30s d’inactivité.

Le chargement initial est beaucoup plus faible que l’étape de validation RGPD (et des 30 secondes d’inactivité). Ceci s’explique par les éléments relevés plus haut (chargement des scripts, repaint, librairies qui fonctionnent…). La borne maximale est à 0,3g eq Co2 en chargement initial alors qu’elle est à 0,55 g pour la validation RGPD.

Quand on prend le panel de sites que l’on a mesuré avec le refus des cookies.

L’impact est relativement plus faible, ce qui normal mais la borne maximale est égale à celle avec validation RGDP. Statistiquement, dans tous les cas, l’impact augmente suite à une validation ou refus RGPD. Cela s’explique par le fait que le refus implique même parfois de scroller pour atteindre les boutons à cliquer afin de valider son choix.

Prise en compte des cookies dans les outils d’évaluation de l’impact 

L’un des biais de la mesure de pages d’un site via la plupart des outils est que l’on simule la navigation par un utilisateur qui n’interagit pas avec la page. Entre autres, aucun choix n’est effectué pour le consentement au recueil des données personnelles. Dans ce cas on évalue qu’un tiers des cas possibles (validation et refus ne sont pas évalués). 

Deux solutions sont possibles :  

  • On simule les cookies dans les headers via les outils de mesure 
  • On automatise le parcours utilisateurs. 

La deuxième solution est préférable car on sera proche de ce qui se passe chez l’utilisateur. En effet, l’UI de la validation des cookies implique de scroller pour atteindre des boutons et de nombreux boutons sont disponibles, la validation implique le chargement de scripts (et pas la simulation des cookies).  

Exemple d’usage du header pour simuler les cookies sur lighthouse

lighthouse <url> --extra-headers "{\"Cookie\":\"cookie1=abc; cookie2=def; \_id=foo\"}"

Comment utiliser Greenspector pour évaluer la validation des cookies sur son service numérique ?

Nous utilisons principalement l’approche d’automatisation pour gérer les cookies. Pour cela nous utilisons le langage GDSL de l’outil qui permet d’automatiser simplement un parcours. 

Il est important en effet de bien gérer les cookies. Si vous testez votre site avec les outils développeurs ou avec des outils de monitoring synthétique, vous risquez d’être toujours dans le même cas (soit cookies jamais validés soit le contraire) 

Nous lançons une première fois l’url et nous attendons la fin du chargement. Le chargement est encadré par measureStart et measureStop, ce qui permet de mesurer différentes métriques sur le chargement : performance, énergie, donnée… 

browserGoToUrl,${URL} 

measureStart,CHRGT_initial 

pressEnter 

waitUntilPageLoaded,40000 

MeasureStop

Nous mesurons ensuite le site inactif, normalement la pop-up de cookies est apparu avec le chargement. 

measureStart,PAUSE_initial 

pause,30000 

MeasureStop 

Nous nous attendons ici à une consommation de donnée faible, car aucun service ne doit être encore autorisé. 

Nous traitons ici un service de gestion de cookies que l’on retrouve dans une grosse partie des sites d’information (Didomi)

if,exists,id,didomi-popup 

measureStart,CHRGT_AfterRGDPAgreement 

swipeDownward 

swipeDownward 

swipeDownward 

clickById,didomi-notice-agree-button 

waitUntilPageLoaded,40000 

measureStop 

Fi

Le if permet d’exécuter la séquence uniquement si la pop-up est présente. Nous scrollons 3 fois pour arriver en bas de page avec swipeDownward et nous cliquons sur le bouton de validation qui est standardisé avec un identifiant didomi-notice-agree-button. 

Nous réalisons ensuite une mesure du site inactif :

measureStart,PAUSE_final 

pause,30000 

MeasureStop 

D’autres lignes de test sont présentes pour gérer d’autres framework de cookies, nous ne rentrerons ici pas dans les détails. Contactez-nous si vous voulez intégrer ce type de test ! 

Bonnes pratiques 

Le processus de notification des cookies a un impact non négligeable. Compte-tenu du fait que cette fonctionnalité se retrouve sur quasiment tous les sites, il est important d’appliquer des bonnes pratiques pour réduire son impact.

Ne pas utiliser de plugin du tout et regarder la préférence de l’utilisateur 

Très peu utilisé mais très pratique, l’utilisateur peut configurer l’option Global Privacy Control dans le navigateur. Ceci impliquera de gérer le header associé.

Ne pas utiliser de plugin du tout en rendant les cookies optionnels inactif  

En effet, les cookies pour certains services ne nécessiteront pas de notification. Ceci nécessitera peut-être une configuration des plugins (voir exemple pour les analytics ici). Cette approche est louable car elle ira dans une démarche de Privacy By Design.

Laisser l’utilisateur naviguer sans validation des cookies 

Ceci permettra d’éviter des traitements inutiles.

Ne pas cacher les services qui utilisent des données personnelles 

Cela va mieux en le disant, il faut éviter les dark patterns qui permettent de récupérer les données personnelles.

Chargement du script de notification au plus tôt 

Afin de réduire l’impact de la notification lors du chargement initial, il faut charger le plugin de gestion des cookies au plus tôt

  • Charger le script de façon asynchrone avec Async 
  • Etablir une connexion au plus tôt avec le site d’origin du cookies avec dns-prefetch ou preconnect 
  • Pré-charger le plugin avec preload

Réduire l’impact du plugin de notification 

  • Benchmarker les plugins pour identifier les librairies qui ont un impact le plus faible (taille et cpu) 
  • Proposer une interface de gestion des différents services simple et efficiente 
  • Proposer un bouton visible de refus (au même niveau que l’acceptation) 

Eviter les layout shift du au plugin de notification 

  • Utiliser des sticky footer ou des modals pour éviter des layout shift 
  • Eviter les animations dans le plugin de notification  
  • Limiter la stylisation de la notice (par exemple utiliser les polices systèmes) 

Eviter les animations lors de la notification 

Mettre un placeholder de chargement du contenu en arrière-plan pour indiquer à l’utilisateur l’attente amènera une surconsommation inutile. La pop-up de notification est déjà une information d’attente.

Ne charger les librairies optionnelles qu’à la validation 

Si certaines librairies ne peuvent pas être chargée si pas de consentement, alors il faut prévoir le chargement uniquement au consentement.

Limiter l’impact des librairies chargées à la validation

  • Réduire leur taille (ou benchmarker les pour avoir une plus légère) 
  • Eviter les impacts sur le shift layout (limiter et regrouper par exemple les modifications du dom) 

Pour les librairies nécessaires mais qui ont une prise en compte du consentement, charger au plus tôt la librairie

Il est nécessaire d’appliquer les mêmes stratégies que pour le chargement de la notification mais de charger la librairie sans gestion de données personnelles. Elles seront prises en compte dynamiquement uniquement si consentement.

Tester votre solution avec différents comportements de consentement 

Les mesures le montrent, l’impact de votre solution va varier énormément en fonction de l’utilisateur : avec consentement, avec refus du consentement ou sans actions de l’utilisateur. Il est important de maîtriser dans ce cas les chargements des différentes librairies et de connaitre le comportement réel. Des améliorations sont sûrement possibles ! 

Quel est l’impact du réseau dans les services numériques ?

Reading Time: 8 minutes

D’après l’étude ADEME/Arcep de 2022, le réseau en France est responsable de 2 à 14% de l’impact environnemntal des activités numériques. Les réseaux fixes génèrent plus d’impacts que les réseaux mobiles (entre 75% et 90%). Cependant compte tenu de l’usage plus important des réseaux fixes, l’impact unitaire, ramené par exemple à un utilisateur ou à un volume de données échangées est plus faible pour le réseau fixe.

De ce constat, en découlent certaines préconisations encourageant l’usage des réseaux fixes plutôt que les réseaux mobiles. Ceci est en phase avec les préconisations sur les 10 bons gestes pour le télétravail de l’ADEME :

“8. Utiliser le Wifi plutôt que la 4G sur les téléphones portables 

Sur votre téléphone portable, utilisez de préférence le Wifi quand vous travaillez à la maison. Il sollicite moins le réseau que la 4G. Vous pouvez aussi utiliser le réseau filaire pour connecter votre ordinateur à votre box.“ 

Cet impact du réseau se retrouve également dans la loi AGEC. Les opérateurs de communication doivent en effet afficher le coût EqCO₂ lié à la consommation par l’utilisateur.

Evaluation du réseau dans le cas de services numériques

Quand il s’agit d’évaluer les impacts environnementaux d’un service numérique, la prise en compte du réseau est nécessaire. L’approche communément utilisée est l’usage de l’intensité en gEqCO₂/Go (équivalent CO₂ par gigaoctet échangées). Cela part de l’hypothèse d’une linéarité entre l’impact CO₂ et les données échangées.

Note : Cette approche est malgré l’usage commun, critiquée. En effet, la réalité d’un réseau est qu’il existe une consommation constante d’énergie, consommation qui n’est pas dépendante des données qui transitent. Cependant l’approche d’intensité est applicable car on a une nécessité d’allouer cette énergie existante. De plus l’impact de fabrication doit aussi être réparti en fonction de l’usage. Une autre méthodologie d’allocation par temps d’usage serait préférable. Ceci nécessite cependant des données plus précises pour chaque partie du réseau. Une affectation par abonné est aussi possible, cependant cette métrique est très peu adaptée à la granularité d’un service numérique unitaire.

Cette méthodologie comptable de l’impact permet de prendre en compte l’effet de seuil qui est induit par une augmentation des infrastructures et de leurs usages si le volume augmente dans sa globalité (nouveaux matériels, dimensionnements plus importants en matériel et électricité pour l’alimenter).

Pour certaines parties comme la box de l’utilisateur, nous avons utilisé une méthode d’allocation temporelle et non basée sur l’intensité.

Lors de l’évaluation du service numérique, il est aussi nécessaire d’avoir un détail entre les différentes connexions (Wifi, 4G…) 

À travers le rapport de la loi AGEC, nous avons deux métriques intéressantes : 

  • 50 gEqCO₂ / Go pour les réseaux mobiles 
  • 18 gEqCO₂ / Go pour le réseaux fixes 

Les hypothèses associées ne sont cependant pas assez explicitées. En effet, l’impact du réseau va dépendre de nombreux éléments et hypothèses :

  • Scope pris en compte (Scope 3 en prenant en compte les opérations de l’opérateur réseau) 
  • Fabrication du matériel ou non 
  • Prise en compte de la box de l’utilisateur 
  • … 

Si on regarde d’autres sources utilisables directement, Il n’y a pas plus d’information. Par exemple, la base ADEME contient les données Negaoctet et en particulier deux métriques sur le mobile et le fixe :

“Fixed-line network; at consumer; xDSL, FFTx average mix; . Les données proviennent de l’installation des équipements et de la consommation d’énergie de 2020 – (…) Sources : French operators, ARCEP, ICT report: European Commission, ICT Impact study, (…), IEA-4E, (…)” 

Même si sourcé, aucune information ne permet d’analyser les données. D’autant plus qu’il est nécessaire quand on veut analyser l’impact du numérique précisément. C’est le cas de la méthodologie Greenspector.

Analyse des données du marché

Afin d’apporter plus de précisions à nos évaluations, nous avons réalisé un travail de R&D pour avoir des facteurs d’émission plus fiables. 

Nous avons modélisé le réseau en plusieurs tiers : 

  • Le cœur de réseau (backbone) qui assure l’interconnexion du réseau 
  • Le réseau d’accès, plus proche de l’utilisateur avec des architectures spécifiques à chaque type de connexion (3G,Fibre…) 
  • Le CPE (Customer Premise Equipement), principalement la box chez l’utilisateur 

Nous avons écarté le terminal utilisateur de la modélisation. Nous verrons en fin d’article comment le traiter spécifiquement. 

Pour les types d’accès, nous avons regroupé : 

  • Filaire Fibre 
  • Filaire Cuivre (xDSL) 
  • GSM “Ancienne génération” (2G et 3G) 
  • GSP “Nouvelle génération” (4G et 5G) 
  • Wifi Public (hotspot) 
  • Lan d’entreprise en Wifi 
  • Lan d’entreprise en Ethernet 

Il serait intéressant de descendre plus dans le regroupement (par exemple séparer 4G et 5G) cependant ce regroupement est adapté à la granularité des données disponibles.

Nous avons analysé 35 sources publiques (Rapport RSE opérateurs, papier scientifique, données constructeurs). Chaque donnée identifiée dans les documents a été classée par rapport aux 7 types d’accès, au tiers du réseau, au scope pris en compte (Fabrication/Usage en particulier). 169 données ont été identifiées. Nous en avons retenu 145 (certaines données ne semblaient pas pertinentes). 

La qualité de chaque donnée a été qualifiée selon notre méthodologie. 39 paramètres ont été ainsi qualifié (Cœur de réseau Usage, Cœur de réseau fabrication…) avec un format compatible avec notre méthodologie (Trapèze de détermination utilisable en logique floue). Par exemple pour l’impact d’usage du réseau d’accès fibre, nous avons les valeurs suivantes : 0,1293 / 0,3181 / 0,7891 / 1,9415. Ce qui veut dire que l’impact du réseau d’accès fibre, selon la bibliographie est probablement entre 0,3 et 0,78 Wh/GB. 

Au final, on peut représenter le modèle de la manière suivante :

Ce modèle peut être utilisé dynamiquement en précisant certains paramètres : durée de vie des CPE, mix énergétique… Notre API traite cela automatiquement.

Quel est l’impact probable de chaque réseau ?

En prenant l’unité fonctionnelle “Charger un site de 2 Mo en 1 seconde”, nous obtenons un impact Carbone du réseau suivant :

La fibre est largement moins impactante que les autres types d’accès. Le classement 4G/5G devant l’ADSL semble contre-intuitif, surtout par rapport aux messages que l’on entend régulièrement : « Privilégiez la connexion Filaire à la 4G » comme cité plus haut. Ces affirmations sont fausses pour différentes raisons : 

  • L’impact des antennes de base et du réseau d’accès des anciennes technologies GSM est effectivement plus consommatrice. Les chiffres des anciennes études sont basés sur ces constats. Il est important d’adapter les préconisations en fonction des technologies et de l’âge des études. 
  • Certaines études parlent de l’impact du réseau sur le terminal. Par exemple la documentation Eco-index annonce “(…)une connexion 4G nécessite jusqu’à 23 fois plus d’énergie pour transporter la même quantité de données qu’une connexion ADSL. (..)” Or la source utilisée est une étude sur l’impact de la connexion LTE sur des smartphones au niveau cellules. Nous reviendrons plus loin sur la réalité sur le smartphone.

On peut observer des marges d’incertitudes pour les réseaux XDSL et GSM ancienne génération :

Ceci provient d’une part des données d’études plus anciennes (et donc pondérées par notre algorithme) et d’autre part par une diversité de technologies plus importantes. 

La part de fabrication est variable en fonction des technologies : 

On peut noter une amélioration de l’efficience énergétique des réseaux nouvelles générations, c’est en effet un argument largement cité pour promouvoir les nouvelles architectures. 

Analyse critique des données d’impact du réseau

  • Malgré le modèle qui prend en compte un tri et une qualification des données, le scope de toutes les données n’est pas identifié. On peut trouver des chiffres avec l’impact de fabrication “brute” et potentiellement d’autres avec le scope 3 de l’opérateur (L’impact des bureaux, entre autres de l’opérateur). Ceci est pris en compte dans le modèle via les marges d’incertitude. 
  • Le modèle d’intensité du réseau en EqCO₂/GB est utilisé. Il n’est pas totalement représentatif de la réalité. Afin d’améliorer la représentativité, il faudrait plus de source pour avoir une allocation temporelle (Débit des réseaux, consommation par utilisateur…). Nous avons commencé à passer certaines métriques comme les données Box avec ce mode d’allocation.  
  • Il existe des éléments communs entre les réseaux, et parfois spécifique. Par exemple il y a des éléments backbones spécifiques pour la 5G. Il serait nécessaire de prendre cela en compte. 
  • Même si nous avons un niveau de granularité permettant de prendre en compte le mix énergétique dynamiquement, certaines données intègrent certaines des mix de pays différents. Ce qui pour certaines données, surestime potentiellement la valeur. 

Nous avons comparé nos métriques avec d’autres données du marché (pour 1GB).

Les valeurs Greenspector sont supérieures aux valeurs NegaOctet et Ademe (Les valeurs ARCEP/ADEME sont cependant supérieures au seuil bas Greenspector). Les données Telefonica sont supérieures (pour le fixe) au seuil haut de Greenspector (et identiques pour le mobile). 

Cette différence s’explique probablement par le fait que nous avons intégré de nombreuses valeurs de fabrication du réseau. Une deuxième explication est peut-être une sous-estimation des valeurs pour la France qui positionne ses chiffres dans un seuil bas. Sans entrer dans un débat, ces chiffres sur l’impact du réseau sont souvent surveillés, la tendance est peut-être à la sous-estimation des chiffres plus qu’à la surestimation ! 

Spécificité

Est-ce que les connexions autres qu’une box d’un particulier sont plus sobres ? 

Oui, ceci s’explique par le fait que ce type d’architecture est plus mutualisée. D’une part le matériel a une capacité de bande passante plus importante, donc une allocation par donnée échangée plus faible et d’autre part un impact de fabrication relative faible (pour la capacité). 

A noter on retrouve un impact un peu plus élevé du wifi que de l’éthernet. On retrouve cela sur les box (par exemple +3 Wh/h en plus sur une box orange).

Impact du réseau sur le terminal

Nous mesurons les applications mobiles et sites web tous les jours pour nos clients, nous traitons donc de l’impact du réseau sur le terminal et surtout sur le logiciel. Ce que l’on peut dire “à dire d’expert” mais basé sur des mesures, c’est que l’impact des réseaux GSM n’est pas 23 fois plus important, ni 10 fois plus.  

Voici quelques données de mesures sur une application de streaming (uniquement le lancement et la connexion à l’application, pas le streaming en lui-même) :

On le voit pour la connexion (2ème graphique), il y a quelques données (~700 KB) et la consommation est quasiment la même, voire légèrement supérieure pour la connexion Wifi.  

Pour le chargement de l’application (1er graphique), le Wifi est légèrement moins consommateur. On observe cependant une consommation importante de données (4MB vs 600kB). Ceci s’explique par un comportement différent de l’application en Wifi (chargement de données en plus si connexion Wifi). On voit ici un impact important sur le temps de chargement (passage de 4s à 7s pour la 3G). 

Le réseau va au final avoir un impact, cependant il n’existe pas de règle figée : 

  • Si l’application adapte son comportement au type de connexion et à la vitesse, alors on aura potentiellement plus de données chargées sur les connexions avec plus de débit. Et aussi potentiellement plus de CPU pour traiter ces données 
  • Pour des connexions type 3G/2G, le temps de chargement sera potentiellement plus long (parfois x2 voir x3) 
  • En fonction du regroupement ou non des requêtes, l’impact des réseaux GSM va être plus ou moins important 

Il est nécessaire de mesurer l’application au final pour comprendre son comportement par rapport au réseau. Mettre en place des règles d’estimation dans les modèles est donc complexe et va amener des données incertaines et probablement fausses.

Conclusion

L’évaluation de l’impact environnemental du réseau est complexe. Il est nécessaire d’avoir plus de données des opérateurs et des constructeurs. Ces données doivent être plus fines et plus transparentes. Cependant les données existantes sont utilisables, encore faut-il bien les qualifier et les utiliser. Compte-tenu de ces constats, l’usage de données moyennées n’est pas une approche idéale. C’est pour cela que nous avons adopté une approche avec calcul des incertitudes. Dès qu’on peut, il faut mesurer pour avoir des données contextualisées et plus précises. C’est l’approche que nous appliquons. Ceci apporte des précisions importantes lors des ICV (l’inventaire du Cycle de Vie dans la démarche d’évaluation de ce dernier), des évaluations d’impacts du numérique, ou plus unitairement de l’évaluation de logiciel.  

Le DOM comme métrique de suivi de sobriété du web ?

Reading Time: 3 minutes

Nous avons validé l’usage de l’énergie dans nos outils (se référer à notre article sur la mesure de la consommation énergétique et notre article sur le calcul d’impacts). Nous utilisons et mesurons cependant d’autres métriques comme entre autres le CPU. Cette métrique peut être complexe à mesurer et certains outils ou équipements utilisent d’autres éléments plus accessibles techniquement. Le CPU est utilisé pour mesurer l’empreinte des ressources côté terminal. En effet, nous avons réalisé des mesures sur plusieurs centaines de sites et il apparait clairement que le CPU est la métrique prépondérante si l’on veut analyser l’impact d’un logiciel. C’est pour cela que tous les modèles qui utilisent les données échangées pour calculer l’impact du terminal ne sont pas cohérents. On privilégiera des modèles basés sur le CPU comme par exemple Power API.

Il faut cependant être rigoureux dans l’analyse de cette métrique car il peut y avoir des biais d’interprétation (Nous en avons parlé dans un article précédent : critique sur le CPU). La critique doit être encore plus importante sur la façon d’obtenir cette métrique, et plus particulièrement dans le cas de modélisation du CPU. C’est le cas par exemple des méthodes de projection du CPU dans le web à partir des éléments du DOM. 

Cela part de l’hypothèse que la structure du DOM impacte la consommation des ressources sur le terminal. Plus le DOM est complexe, plus il est nécessaire de le traiter par le navigateur et plus cela utilise de ressources (CPU et RAM). En fonction de cette complexité l’impact environnemental sera plus ou moins élevé.

En supposant qu’on valide l’hypothèse de la corrélation entre complexité du DOM et impact environnemental, la métrique souvent utilisée est le nombre d’éléments. Un DOM avec beaucoup d’éléments sera peut-être complexe mais pas systématiquement. Pour prendre en compte la complexité du DOM, il faudrait prendre en compte l’architecture du DOM, en particulier la profondeur, le type de nœud (tous les nœuds n’ayant pas le même impact pour le browser…). Le choix du nombre d’éléments du DOM est donc discutable.

Mais est-ce que le choix de la complexité du DOM est une hypothèse viable ? On peut avoir plusieurs critiques sur cela. 

Le DOM est une structure brute qui n’est pas suffisante au navigateur pour afficher la page. Le style est utilisé avec le DOM pour créer le CSSOM, une complexité du style peut donc impacter grandement le CSSOM, même avec un DOM simple. Ensuite le layout tree est une structure qui va permettre de gérer l’affichage (Les typos, les tailles…), cette gestion est beaucoup plus complexe à traiter pour les navigateurs

Un DOM peut être modifié après sa création. On va parler de reflow et repaint. Le navigateur va recalculer le layout et différentes choses. Ceci peut arriver plusieurs fois lors du chargement et après ce dernier. La profondeur du DOM (et pas le nombre d’éléments) peut influencer la consommation de ressources mais pas uniquement; le chargement et l’exécution de code JS sont également à prendre en compte.

Indépendamment du DOM, la consommation de ressources peut être impactée par différents traitements sur le terminal. En particulier, tous les traitements JS qui vont s’exécuter au chargement de la page. Dans le web, le principal coût est actuellement sur le CPU. On peut avoir un DOM avec 100 éléments (c’est à dire peu) et une usine à gaz JS.

Les animations graphiques vont augmenter la consommation de ressources sans forcément impacter le DOM. Même si la plupart de ces traitements sont pris en charge par les GPU, l’impact sur les ressources existe et n’est pas négligeable. On peut aussi mettre dans cette catégorie le lancement de vidéos, de podcasts (et plus généralement les fichiers médias) et de publicités.

Il existe aussi bien d’autres sources de consommation de ressources : Requêtes réseau non regroupées, fuite mémoire. 

L’usage du DOM doit donc être utilisé avec beaucoup de précaution. Il est plutôt utilisable comme une métrique de qualité logicielle qui indique la “propreté du HTML”. Réduire le nombre d’éléments DOM et simplifier la structure du DOM pourra être une bonne pratique de sobriété mais pas un KPI de réduction de la sobriété ou de calcul du CO2.

Supprimer ses mails c’est inutile, travailler sur des solutions d’email sobre c’est obligatoire  

Reading Time: 2 minutes

La découverte du fait que le numérique n’était pas si virtuel et qu’il pouvait avoir un impact sur l’environnement a amené une multitude d’injonctions suivi d’une multitude de critiques et de contre-injonctions. “Il faut supprimer ses mails”, “Non c’est comme faire pipi dans la douche, cela ne sert à rien”… La critique de ces actions par les acteurs du numérique est assez forte relativement à la grande partie de la population “non technique” qui a pris cela à cœur (et qui a augmenté son éco-anxiété !). 

Ces discussions ont aussi amené à départager le plus pollueur entre l’usage et la fabrication. Usage du mail versus Fabrication du terminal sur lequel on lisait le mail. Ce dernier étant annoncé comme plus impactant, cela allait dans le sens d’une inutilité d’optimiser la partie mail!  

Oui l’impact se concentre sur la fabrication des terminaux. Oui l’impact unitaire d’un mail est faible, surtout comparé à une raclette (c’est une private joke, une blague qui circule chez les détracteurs de la sobriété numérique). Ce sont des messages assez rassurants dans un monde binaire. Rassurant pour limiter l’eco-anxiété. Mais surtout rassurant pour les acteurs du numérique pour ne pas traiter le problème et continuer le business-as-usual

Car oui il y a bien un potentiel problème. En effet, l’effet d’échelle fait qu’un impact unitaire faible peut amener à un impact important avec un grand nombre d’utilisateurs et des usages de plus en plus nombreux. Les 4% d’impact du numérique n’arrivent pas comme cela. Surtout quand on liste et observe ce qui se passe sur internet chaque minute.

Une diversité et une fréquence beaucoup plus importante que la raclette (pour information, il faudrait manger 12 fois de la raclette par an)

L’emballage plastique de nos aliments, pris unitairement n’a pas un impact énorme. C’est quelques milligrammes de plastique mais ce dernier est bien un problème environnemental global. Comme le dirait Gerry McGovern, le plastique est une plaie environnementale mais si tu as un sac plastique, utilise-le !  

“Avoid plastic packaging. Bring your own bag and avoid the barcodes. Whenever you can replace plastic with another material, do, but don’t replace it simply for the sake of it. If you have a plastic bag, use the hell out of it.”

Gerry McGovern

En tant qu’acteur du numérique, nous devons travailler sur les impacts car l’effet d’échelle fait que nos solutions ont un impact global non négligeable. Utiliser l’argument “d’ordre de grandeur” en ne prenant que l’impact unitaire n’est pas valide.

Derrière un email, il y a un éditeur de solution. Derrière un réseau social, aussi. Chaque acteur du numérique contribue à une brique utilisée au final par un utilisateur.  

Il est donc nécessaire d’optimiser nos solutions, de proposer de meilleure gestion des solutions. Quid des options de suppression de mail intelligente qui seraient proposées dans les solutions mail ? Quid la fourniture de solutions d’aide à la rédaction de mail sobre (pièces jointes, signatures…) ? C’est possible, les éditeurs l’ont fait pour la gestion des spams, pourquoi ne pas aller plus loin ? 

Quant à la sensibilisation des utilisateurs, elle est nécessaire mais elle doit être moins anxiogène, sans passer dans du whataboutisme.  

Quel format d’image choisir pour réduire sa consommation d’énergie et son impact environnemental ?

Reading Time: 4 minutes

Choisir le bon type d’image pour réduire l’impact environnemental d’un site n’est pas chose aisée. On peut se focaliser sur la taille de l’image ou sur la performance d’affichage (est-ce que les deux sont liés ?). C’est peut être la bonne approche. Cependant une mesure d’énergie sera un élément plus précis si on souhaite vraiment mesurer la consommation effective et aller vers une réduction de l’impact environnemental.

Nous avions réalisé en 2017 un benchmark du nouveau format WebP par rapport au JPEG et PNG. La prise en compte du Webp dans les navigateurs commençait. De plus l’AVIF, format d’image prometteur est arrivé.

Voici une étude mise à jour.

Méthodologie

Comme image de test, nous avons utilisé celle proposée par Addy Osmani dans un article sur Smashing Magazine.

Les images ont été générées pour avoir la même qualité perçue. Les qualités de compression sont donc différentes entre les formats.

Image 1 : https://res.cloudinary.com/ddxwdqwkr/image/upload/v1632192015/smashing-articles/206-webp-ayousef-espanioly-DA_tplYgTow-unsplash.webp

  • Test 1 Qualité par Défaut donné par Sqoosh (https://github.com/GoogleChromeLabs/squoosh/) : JPEG original (560KB), JPEG@q75 (289KB), WebP@q75 (206KB),  AVIF@q30 (101KB)
  • Test 2 Qualité cible JPEG@q70 : JPEG (323KB), WebP@q75 (214KB), AVIF@60 (117KB)
  • Test3 Faible qualité : JPEG@q10 (35KB), WebP@q1 (35KB), AVIF@q17 (36KB)2

Image 2 : https://res.cloudinary.com/ddxwdqwkr/image/upload/v1632080886/smashing-articles/q50jpg.jpg

  • Test1 : Taille cible de 45k : Original (442kB), JPEG@q50 , WebP@q54, AVIF@q36

Image 3 : https://res.cloudinary.com/ddxwdqwkr/image/upload/v1632082138/smashing-articles/q10-25.jpg

  • Test 1: Taille cible de 25kB : Original (716KB),  JPEG@q10 , WebP@q5, AVIF@q19

Protocole de mesure :

  • Nous affichons une par une les images dans un navigateur Chrome sur un device réél (Samsung Galaxy S10).
  • Nous utilisons les outils Greenspector pour mesurer la consommation d’énergie et les autres métriques (CPU, performance…).
  • Nous effectuons une mesure tout au long de l’affichage de l’image et cela 3 fois pour avoir des mesures stables.
  • Les mesures sont faites dans différentes conditions de réseau Wifi, 3G et 2G.

Résultats

Sur l’image 1 pour le test 1, on obtient les mesures de consommation d’énergie suivantes :

Consommation d'énergie pour l'image 1

Si l’on observe de plus près le comportement en Wifi, on peut mieux apprécier les différences de consommation avec l’intervalle de confiance.

Consommation d'énergie pour la wifi avec intervalle de tolérance

En Wifi, la consommation est relativement similaire entre les types d’image. Le JPEG est un peu plus consommateur suivi du format WebP et ensuite par AVIF.

En 3G et 2G, la différence de consommation est notable et AVIF consomme moins d’énergie que Webp.

Ces comportements s’expliquent par la taille des fichiers plus faible en AVIF et en Webp.

Sur l’image 2, le comportement est le même :

Comparaison de consommation d'énergie pour l'image 2 entre la wifi, la 3G et la 2G

Sur l’image 3, il n’y a presque aucune différence entre les formats. L’image est petite et on se retrouve dans un fonctionnement proche du wifi (transfert rapide) :

Comparaison de consommation d'énergie entre la wifi, la 3G et la 2G

Le comportement est le même avec l’image 2 qui est à 45ko :

Consommation d'énergie pour l'image 2 en wifi, 3G et 2G

C’est le même comportement pour l’image 3 :

Consommation d'énergie pour l'image 3 en wifi, 3G et 2G

Il est nécessaire de surveiller les nouveaux formats (JPEG XL, Webp2…) ainsi que l’optimisation des algorithmes car même si les gains en taille sont importants, les traitements de décodage pourraient potentiellement gagner encore en efficacité. En effet, voici par exemple le traitement CPU pour l’image 1 sur le test 1, où AVIF consomme plus de CPU que les autres formats.

Traitement CPU pour l’image 1

Préconisations :

  • Dans tous les cas, il est nécessaire de compresser les images avec une qualité plus faible, peu importe le format de l’image. Une qualité >85% est inutile. La consommation d’énergie est diminuée d’un facteur 2 pour des qualités qui restent élevée, et diminuée d’un facteur 6 pour des qualités faibles.
  • Même si la consommation d’énergie est relativement proche entre les formats, le gain apporté par l’AVIF et le Webp est beaucoup plus important pour des connexions moins performantes. Le choix de AVIF et Webp sera préférable car les utilisateurs ne sont pas connectés avec du haut débit ! De plus le gain en terme de données échangées sera intéressant pour limiter la taille globale du site.
  • Le choix entre Webp et AVIF n’est pas simple et va dépendre de la typologie des images et des visiteurs. De plus, Google travaille sur la version 2 de WebP, et des formats comme JPEG XL arrive pour concurrencer AVIF. Cependant, compte-tenu des avantages du Webp autres que l’impact environnemental, nous conseillons plus l’usage de WebP.

Pour information, voici la prise en compte du format AVIF dans les browsers :

Pour information, voici la prise en compte du format AVIF dans les browsers :

Ainsi que le format Webp :

Pour information, voici la prise en compte du format webp dans les browsers :

Dans tous les cas, optimisez vos images, compressez, réduisez la taille et lazy-loadez !

CMS, No Code ou sans CMS, quelle solution choisir pour un site web sobre ?

Reading Time: 6 minutes

Aujourd’hui, nous allons étudier l’impact de solutions permettant la mise en place de sites web sans connaissance de codage. Parmi ces solutions, nous pouvons inclure les CMS (Content Management System) mais aussi des solutions No Code.

Cet article est le premier d’une série où nous analysons les mesures de 1500 sites via nos outils.
Nous traiterons dans ces articles de l’impact des technologies, des paramètres… 

Avertissement sur la méthodologie :

Nous avons mesuré plus de 1500 sites sur des appareils réels via nos suites de benchmark permettant la réalisation de tests automatisés (lancement du site, mise en attente, scroll, mise en tâche de fond). Nous récupérons ensuite les informations de technologies de ces sites via la solution WepAnalyzer

Nous avons choisi de porter notre analyse sur la consommation d’énergie. Cet indicateur va fortement impacter l’usure des batteries sur les appareils utilisateurs et donc, au final, avoir un impact environnemental. 

Comment lire les graphiques ?

Nous visualisons les données par des graphiques à « boîtes à moustache » (ou Box plot): 

  • La barre centrale indique la médiane. Les classements sont réalisés par rapport à cette donnée. 
  • Le haut et le bas de la boîte sont délimités par les 25e et 75e quantile.  
  • La taille de la boîte est appelée l’intervalle interquartile (IQR) 
  • Les barres en haut et en bas sont les moustaches et délimitent les valeurs attendues
  • Les moustaches s’étendent à 1,5 IQR
  • Les valeurs hors des moustaches sont visualisées via des points. Ils représentent soit des erreurs soit des valeurs aberrantes. 

Nous avons volontairement écarté les sites qui n’avaient pas assez d’échantillons (par exemple moins de 10 sites avec une certaine technologie).

Comment se positionnent les CMS et les solutions No Code ?

Nous retrouvons les technologies les plus répandues (selon Web Core Vitals), mise à part Shopify (ces sites doivent être classés dans la catégorie « Pas de CMS »). 

Nous observons un écart de 20% entre la solution la plus efficiente (Ametys) et la moins performante (Webflow). 

3 CMS se positionnent devant les sites sans CMS. Les CMS répandus comme Drupal et WordPress se positionnent derrière. Les quatre dernières solutions sont des solutions No Code

Pour certaines catégories (WordPress, sites sans CMS), il y a beaucoup de points considérés comme aberrants. Cela s’explique par un jeu de données important (plusieurs centaines de sites). Une analyse exploratoire de ces sites montre généralement qu’il s’agit de sites avec des traitements en continu assez lourds (comme de la vidéo). Voici, un exemple d’un site positionné en « outlier« , l’étape de chargement et d’idle (site inactif) consomment de façon importante compte-tenu d’une animation qui tourne en continu. 

Quelques pistes d’explications à l’analyse des CMS :

Ametys : un CMS spécifique à un domaine

Ametys est un CMS spécifique qui est utilisé pour des sites institutionnels. Sa présence dans ce classement s’explique par le fait que nous avions réalisé un classement des sites d’école, dans lequel de nombreuses écoles utilisent cette technologie. Son bon positionnement serait à analyser d’un point de vue technique, cependant on peut en déduire d’une solution qui a pour cible un type de besoin sera plus optimisable qu’une solution générique. L’intégration de multiples fonctionnalités dans un CMS amènera en effet une surconsommation. On observe de plus que ces sites institutionnels intègrent moins de modules que les autres sites. Il s’agit au final d’une sobriété fonctionnelle. 

Squarespace : une solution tout en un

Squarespace est un CMS hébergé par l’éditeur. Sur les sites analysés, nous pouvons identifier qu’il y a peu de requêtes (<30) donc qu’il y a potentiellement des solutions d’optimisation intégrées. Autres pistes, toutes les ressources sont hébergées sur Squarespace et les atouts (ou assets) sont sur des serveurs dédiés. L’hébergement du CMS par l’éditeur est en effet une bonne chose car elle va permettre des optimisations systématiques et mutualisées. Cependant, ce n’est pas forcément natif, il faut que l’éditeur l’applique. 

Typo 3 : des options d’optimisation natives

Typo 3 qui est une solution open source est en 3ème position. Ce positionnement est confirmé par un classement HTTP Archive. Cette performance s’explique par une gestion fine des caches et d’options d’optimisation natives. 

Les sites sans CMS

Les sites sans CMS intègrent une hétérogénéité de solutions techniques. Il est difficile d’en tirer des conclusions poussées, cependant la médiane des sites se positionne très bien par rapport à d’autres solutions (No Code, WordPress, Drupal…). La moustache basse est la plus basse par rapport à toutes les autres solutions. Cela montre qu’une efficience importante est possible plus facilement.  

Drupal : un CMS professionnel

Drupal se positionne juste après les sites sans CMS. Son bon positionnement peut s’expliquer par le fait que ce CMS est moins accessible que WordPress en termes de mise en place et de prise en main.  

Contentful : un CMS headless

Contentful est un CMS “sans interface”. Il permet de publier du contenu depuis d’autres outils. Le gain d’efficience est sûrement présent pour la publication (car on n’utilise pas ses outils habituels), par contre on observe que ce CMS a la même efficience qu’un CMS classique. 

WordPress : un CMS simple et très répandu

WordPress est très répandu et offre de nombreux plugins et thèmes. Cette généricité et modularité ont un coût. Ce CMS est accessible à beaucoup de monde, dont des utilisateurs non-techniques. La contrepartie est une explosion potentielle de plugins utilisés et une non-configuration du CMS en termes de performance et d’efficience. On voit par rapport à la moustache basse que le CMS peut être efficient, cela nécessite cependant un travail conséquent.  

Wix, Webflow, SiteCore, Adobe : des solutions No Code ou équivalentes

Ces solutions offrent à l’utilisateur la possibilité de réaliser un site web sans connaissance de codage. La médiane est élevée mais aussi les moustaches basses qui sont plus élevées que d’autres solutions montrent que ce sont des solutions plus lourdes. 

Conclusion 

D’un point de vue statistique, les solutions CMS n’ont pas toute la même efficience. La conception initiale, prenant en compte les optimisations, va être primordiale pour atteindre des bonnes performances (cas de Typo 3). On observe que la maîtrise de bout en bout, associée à la mise en place de bonnes pratiques (Squarespace), permet aussi d’atteindre un bon niveau. De la même manière, spécialiser un CMS (Ametys) et donc les options qui vont avec va permettre d’obtenir des bons résultats. 

Cependant, à l’opposé, rendre un CMS très générique et modulaire (WordPress), même si potentiellement performant initialement, va apporter de l’obésiciel. De la même manière, le No Code va apporter une lourdeur. Reste à identifier les causes de cette lourdeur. En effet, elle peut provenir des niveaux d’abstraction mais aussi des possibilités de rendu (interactivité, animations…) qui sont possibles facilement et qui amène l’utilisateur à en ajouter plus qu’il n’en faut. De plus, l’usage d’un CMS “généraliste” est aussi potentiellement représentatif d’un manque de précision du besoin. 

Pour une solution CMS (et plus globalement n’importe quelle solution), la sobriété ne sera pas innée. Il faudra appliquer un ensemble de bonnes pratiques

  • Architecture et technologie efficientes, bien que si l’on prend les technologies actuelles la différence entre les solutions est très faible et l’impact provient plus de la mauvaise utilisation des technologies.
  • Intégrations natives d’optimisations ou facilement activables par l’utilisation.
  • Mécanisme de limitation des fonctionnalités ou en tout cas sensibilisation de l’utilisateur à l’obésiciel.
  • Plus globalement, réfléchir à la problématique bout-en-bout prenant en compte hébergement, CDN (Content Delivery Network); sans aller sur des solutions gérées de bout-en-bout, on voit que la répartition des systèmes n’est pas forcément une bonne chose.
  • Afin d’offrir toujours plus de souplesse à l’utilisateur, et entre autres permettre à des personnes non techniques de réaliser des sites, il est nécessaire d’intégrer nativement des solutions d’optimisations, ce qui n’est pas du tout le cas actuellement.

Vous souhaitez intégrer un CMS dans ce classement ? Contactez-nous et envoyez-nous au minimum 20 liens vers des sites utilisant la technologie, nous les intégrerons dans les mesures et au sein de notre classement ! 

Pour notre prochain article, nous rentrerons dans l’analyse plus fine des données WordPress pour observer quels sont les paramètres et configurations qui influent sur la performance environnementale. 

La sobriété numérique pour plus de résilience

Reading Time: 2 minutes

Une industrie fragile

La crise du Covid-19 à rendu visible une faiblesse du monde du numérique et de l’électronique : une interdépendance des systèmes économiques et techniques. Les confinements de 2020 ont amené à une réduction drastique, voire à un arrêt de la production de circuits électroniques en Chine, impactant les productions dans le monde entier (Exemple de l’iPhone 13 et ses ruptures de stock).

Mais la pandémie du Covid-19 n’est pas l’unique cause qui a eu pour conséquence d’impacter le système d’approvisionnement. Début 2021, une sécheresse a touché Taiwan, autre lieu important de production de circuits électroniques, et cela a contribué à renforcer la pénurie déjà initiée.

Les crises sanitaires et les crises environnementales peuvent être aussi accompagnées de crises géopolitiques et de guerres. La guerre en Ukraine par exemple a levé encore une des faiblesses sur ces approvisionnements complexes : un risque sur la production de néons, nécessaires à la fabrication de puces. Ces néons étant en grande partie produits en Ukraine.

 

La sobriété comme une des solutions de résilience

On pourrait attendre une solution de résilience de la part de l’industrie électronique, par exemple via des relocalisations, cependant certaines solutions sont difficilement envisageables (relocalisation de l’extraction de certains matériaux). De la même manière, une “souveraineté numérique” ne serait pas la solution à ce problème, ou en tout cas elle permettrait de “seulement” mieux traiter la dépendance à du matériel serveur.

Le but de la sobriété numérique est principalement vu comme celui de la réduction de l’empreinte environnementale. C’est tout à fait vrai mais elle a aussi pour avantage (dans le cadre de la réduction de l’impact environnemental) de prolonger la durée de vie des matériels, de réduire la consommation de ressources (CPU par exemple), d’optimiser la capacité des matériels…

Ces avantages vont dans le sens d’une amélioration de la dépendance entre les services numériques et l’électronique. Rendre le numérique plus sobre permettrait donc de limiter l’impact de ces crises.

Ne nous trompons pas

La sobriété, même si beaucoup discutée dans le monde numérique, n’est encore que trop peu déployée. On continue encore à discuter sur son coût d’implémentation, de son impact plus fort côté matériel versus celui de son usage (sic). Des débats sans fin se poursuivent sur l’impact du réseau (focalisé sur l’énergie et pas le CO2, ne prenant pas en compte la problématique globale…), ainsi que des contre arguments sur le fait d’optimiser l’impact CO2 de nos solutions qui ne serait pas nécessaire puisque nous disposons en France, d’une énergie bas carbone.

Écarter la démarche de sobriété numérique sous prétexte de ses inconvénients, c’est ne pas prendre pleinement en compte la place du numérique dans notre monde et c’est surtout continuer à développer des outils qui ne fonctionneront potentiellement pas vu leur manque de résilience.

Permettre le fonctionnement des services numériques sur du matériel “bas de gamme” et sur des réseaux limités est par exemple une démarche qui va dans le sens de la sobriété numérique. Mais ce n’est qu’un début à une vraie démarche de sobriété. Le chemin est long, et malheureusement les crises sont déjà là. 

Ne nous trompons pas, la sobriété est une démarche indispensable dans notre jeune monde numérique. 

Comment Greenspector évalue l’empreinte environnementale de l’utilisation d’un service numérique ?

Reading Time: 6 minutes

Avant-propos : Évaluer l’impact de l’usage

Cette note décrit succinctement la méthodologie que nous employons à la date de sa publication.​

Dans une démarche de progrès continu, nous sommes vigilants à améliorer sans cesse la cohérence de nos mesures ainsi que notre méthodologie de projection des données en impact environnemental. 

Il s’agit ici d‘évaluer les impacts environnementaux causés par l’usage d’un service numérique.

Cette analyse repose sur une méthode Analyse de Cycle de Vie (ACV), mais il ne s’agit pas de réaliser l’ACV du service numérique.​

Une telle analyse serait un exercice sur un périmètre beaucoup plus large, qui inclurait des éléments propres à l’organisation autrice du logiciel.​

Dans l’ACV d’un service numérique il conviendrait par exemple d’inclure pour sa phase de fabrication : les déplacements domicile-travail de l’équipe projet (internes et prestataires), le chauffage de leurs locaux, les PC et serveurs nécessaires au développement, à l’intégration et à la recette, les réunions sur place ou en distanciel, etc…

Méthodologie d’évaluation d’empreinte environnementale

Notre approche

La modélisation choisie s’appuie sur les principes d’Analyse du Cycle de Vie (ACV), et principalement par la définition donnée par l’ISO 14040. ​​

Elle se compose d’une partie Inventaire du cycle de vie (ICV) complète et d’une Analyse du cycle de vie (ACV) simplifiée. L’ICV est prépondérant dans notre modèle. Il va permettre de s’assurer d’avoir des données fiables et représentatives. De plus, l’ICV ainsi obtenu peut le cas échéant être intégré dans des ACV plus poussées.

Nous évaluons l’impact environnemental des services numériques sur un ensemble limité de critères :

Cette méthodologie a été revue par le cabinet EVEA – spécialiste en écoconception et analyses de cycle de vie.
Note sur l’eau : L’eau grise et l’eau bleu sont prises en compte sur toutes les étapes du cycle de vie. L’eau verte est ajoutée sur le cycle de fabrication des terminaux et des serveurs. Retrouvez la définition de l’empreinte Eau.

Gestion de la qualité des résultats

La qualité des résultats d’une ACV peut être modélisée de la façon suivante1 :​​

Qualité des données d’entrée  x  Qualité de la méthodologie  =  Qualité des résultats

Pour améliorer la qualité des données d’entrée, nous mesurons le comportement de votre solution sur des terminaux réels. Cela permet de limiter les modèles qui sont potentiellement sources d’incertitude.​

Pour gérer la qualité des résultats, nous appliquons une approche qui permet d’identifier les sources d’incertitudes et de calculer l’incertitude du modèle. Notre méthode de gestion des incertitudes utilise la logique floue et ses ensembles2.

Au final, contrairement à d’autres outils et méthodologies, nous pouvons fournir des marges d’erreurs par rapport aux résultats que nous vous donnons. Cela permet d’assurer une communication de l’impact environnemental plus sereine vers les parties prenantes (utilisateurs, équipes internes, partenaires…)

1Qualité des resultats : SETAC (Society of Environmental Toxicology and Chemistry 1992)

2Bien que mentionnée souvent dans la littérature traitant d’incertitudes en ACV, cette approche est peu utilisée. En effet les modèles stochastiques comme les simulations de Monte Carlo sont souvent préférés (Huijbregts MAJ, 1998). Dans notre cas, l’utilisation de la logique floue semble plus pertinente, car elle nous permet de gérer les inexactitudes épistémiques, notamment dues à des estimations d’expert. ​ ​

Étapes de calcul

Phases prises en compte pour le matériel utilisé

« Phases prises en compte dans le cycle de vie des matériels ​qui sont mobilisés en phase d’usage du service numérique »

Note sur le modèle d’impact de la partie terminal

Les méthodologies classiques d’analyse d’impact prennent comme hypothèse un impact uniforme du logiciel (consommation moyenne quel que soit le logiciel ou l’état du logiciel). Notre approche innovante permet d’affiner cet impact. De plus, nous améliorons la modélisation de l’impact du logiciel sur la phase de fabrication du matériel en prenant en compte l’usure de la batterie.

La batterie des smartphones et PC portables est un consommable, nous modélisons l’impact du logiciel sur celui-ci.

Données d’entrée de l’Inventaire du Cycle de Vie

Données mesurées
Énergie consommée sur smartphone
Données échangées sur le réseau
Requêtes traitées par le serveur

Données modélisées
Énergie consommée sur tablette et PC
Énergie et ressources consommées sur serveur​
Énergie et ressources consommées sur le réseau

Hypothèses Terminaux
Impact fabrication d’un Smartphone​
Impact fabrication batterie smartphone
Impact fabrication batterie tablette​
Impact fabrication batterie PC​
Impact fabrication tablette
Impact fabrication PC
Nombre de cycles max avant usure smartphone
Nombre de cycles max avant usure Tablette
Nombre de cycles max avant usure Tablette
Capacité moyenne batterie smartphone
Capacité moyenne batterie tablette
Capacité moyenne batterie PC​
Voltage d’une batterie
Durée de vie smartphone
Durée de vie tablette
Durée de vie PC​
Ratio de remplacement batterie vs changement du smartphone​
Ratio de remplacement batterie vs changement de la Tablette​
Ratio de remplacement batterie vs changement du PC​
Vitesse de décharge de référence sur le terminal (mesurée)

Hypothèses Serveurs
Puissance du serveur​
Nb de cœurs​
PUE du datacenter
Puissance par cœur​
Server time (TTFB)
Number of max requests per second​
Puissance par requête​
Nb de cœurs par VM​
Nb de VM par appli simple​
Nb de VM par appli complexe​
Impact Fabrication Serveur​
Durée de vie serveur​
Débit CDN

Hypothèses Énergie
Facteur d’émissions électricité moyenne mondiale​
Facteur d’émissions électricité France

Exemple de travail sur les hypothèses :

La méthodologie de propagation des incertitudes nous oblige à identifier précisément la qualité de ces hypothèses. Voici quelques exemples, en particulier l’impact de fabrication du matériel.

L’analyse bibliographique nous permet d’identifier les impacts de différents smartphones et d’associer l’indice de confiance DQI. Ces chiffres sont principalement issus des constructeurs.

L’impact moyen calculé à partir de ces indices de confiance est de 52 kg eq Co2 avec un écart type de 16 kg.

Exemple de restitution

  • Dans cet exemple : impact médian de 0,14g eqCO2 principalement sur la partie « Réseau ».​

  • Cet impact correspond à la visualisation d’une page web pendant 20s

  • L’incertitude est calculée par le modèle Greenspector en appliquant le principe de propagation des incertitudes à partir du périmètre et de hypothèses décrits précédemment.

Éléments nécéssaires

Afin de déterminer l’impact de votre solution, nous avons besoin des informations suivantes :​​

  • Ratio de visualisation Smartphone/Tablette/PC 
  • Ratio de visualisation France/Monde
  • Localisation des serveurs France/Monde
  • Serveurs simples ou complexes (ou nombre de serveurs de la solution)

Sur devis, nous pouvons réaliser une ACV simplifiée se basant sur ce modèle mais adaptant d’autres éléments à contre cas particulier. Par exemple:​

  • Mesure de la consommation d’énergie de la partie serveur (via un partenaire)​
  • Précision des hypothèses serveur (PUE, type de serveur)​
  • Mesure de la partie PC (via mesure laboratoire)​
  • Précision des facteurs d’émissions électriques d’un pays en particulier…

Comparatifs des modèles d’estimation

Les calculs Greenspector sont intégrés dans un webservice actuellement utilisé par nos clients. Retrouvez très prochainement nos calculs d’empreinte environnementale de vos applications mobiles et sites web dans une interface SaaS.

Incertitudes – méthode de calcul

Les méthodes de calcul dans la sobriété numérique sont souvent peu justes et parfois, en même temps, peu fidèles.  Ceci vous amène potentiellement à utiliser des outils qui évaluent mal l’impact de vos solutions. Le risque est de faire travailler vos équipes sur des axes qui n’ont pas d’impact réel sur l’environnement.​

Certaines approches, plus utilisés dans les ACV (et pas dans les outils du marché), améliorent la fidélité mais posent un risque de donner un résultat peu juste (R. Heijungs 2019). ​

Notre approche repose sur une méthode de calcul innovante, l’arithmétique floue, proposée pour la première fois par Weckenmann et al. (2001).​

Cette approche est très performante pour modéliser des données vagues (épistémiques) non-probabilistes, ce qui est souvent le cas de données traitant de sobriété numérique. Nous ciblons de cette manière des résultats justes et fidèles.

Les solutions concurrentes font des choix qui les rendent généralement peu fidèles et peu fiables:​

Fidélité : Faible maîtrise de l’environnement, pas de méthodologie de gestion des écarts de mesures​

Justesse : Modèle basé sur des métriques non représentatives comme la consommation de données ou la taille du DOM, pas de mesure d’énergie…

Optimiser l’énergie des smartphones pour réduire l’impact du numérique et éviter l’épuisement des ressources naturelles

Reading Time: 6 minutes

Cet article a été rédigé en 2021. Depuis, nos recherches nous ont amené à revoir les impacts environnementaux mentionnés ici. Par exemple, nous considérons désormais que l’empreinte de fabrication d’un smartphone est de 52 kg CO2e. L’approche présentée reste toutefois entièrement valable.

Introduction

La durée de vie d’un smartphone est en moyenne de 33 mois à l’échelle mondiale. Sachant qu’un smartphone contient plus de 60 matériaux, dont des terres rares et que son empreinte carbone est située entre 27 et 38 kg eqCO2, le rythme actuel de remplacement des smartphones est trop rapide.

Différentes raisons peuvent expliquer ce rythme de renouvellement. La perte d’autonomie et les problèmes batterie en sont les raisons principales (smartphone : un changement sur trois à cause de la batterie). Augmenter la capacité des batteries est une solution qui semble intéressante mais qui ne résoudrait pas le problème. En effet, les données échangées continuent à augmenter et cela a un impact sur la puissance des smartphones. Les sites web sont toujours aussi lourds, voir de plus en plus lourds… Alors est-ce un problème irrésolvable ? Quel est le lien entre l’autonomie concrète que nous vivons à titre personnel et ce constat sur l’impact du numérique ?  

Méthodologie

Nous sommes partis d’une analyse via le biais de la consommation web. En effet, les mobinautes passent en moyenne 4,2h par jour à naviguer sur le web.

Lors d’une précédente étude sur l’impact des navigateurs web Android, nous avons mesuré la consommation de 7 sites web différents sur plusieurs applications de navigation web et ce depuis un smartphone milieu de gamme, un Samsung Galaxy S7. Cela nous permet de projeter cette consommation sur une consommation mondiale et d’appliquer des hypothèses d’optimisation pour identifier les marges de manœuvre. 

Même si les incertitudes sont élevées (diversité de mobile, diversité d’usage…), cette action nous permet d’identifier les marges de manœuvre pour améliorer le cycle de vie des smartphones. Le choix du Galaxy S7 permet d’avoir un smartphone proche (à 1 an près) de l’âge moyen des smartphones mondiaux (18 mois).

Quelle est la consommation annuelle de la navigation web sur mobile ? 

Voici nos hypothèses de départ : 

La consommation annuelle des smartphones estimée est de 2 774 milliards d’ampères-heures. Pas très concret ? Si l’on considère qu’une batterie moyenne de 3000 mAh peut effectuer 500 cycles de charges/décharges complets avant de commencer à être inutilisable et que1 850 millions de batterie sont utilisées chaque année pour naviguer sur le web. Ce chiffre vous parait exagéré ? Il y a 5,66 milliards de smartphones dans le monde, cela correspondrait à un problème qui toucherait 36% du parc mondial chaque année. Si l’on considère que 39% des utilisateurs vont changer leur smartphone pour des raisons de batterie et qu’uniquement 26% des utilisateurs vont remplacer les batteries en cas d’usure, on obtient le chiffre de 1 200 millions de batteries, ce qui corrobore nos chiffres. Pas incohérent au final, quand on observe les cycles de renouvellement des téléphones et de batterie. 

Est-ce que réduire la consommation des navigateurs aurait un impact ? 

Les navigateurs web sont des moteurs importants dans la consommation du web. Nos mesures montrent des différences importantes de consommation d’énergie entre les navigateurs. Ces différences s’expliquent par des implémentations et des performances hétérogènes. Dans le graphique suivant, la consommation de la navigation sur 7 sites, incluant le lancement du navigateur, l’usage de fonctionnalité comme l’écriture d’URL et la navigation elle-même est visualisée.

Nous partons sur une hypothèse des éditeurs optimisant les navigateurs. En considérant une consommation hypothétique de tous les navigateurs égale à celle du plus sobre (Firefox Focus), on obtient une réduction de la consommation totale annuelle qui permet, avec les mêmes hypothèses sur la durée de vie, d’économiser 400 millions de batteries par an. Sachant qu’il se vend 1 500 millions de smartphones par an, en prenant les mêmes hypothèses que précédemment sur les taux de remplacement et de réparation, cela ferait une économie de 7% du parc de téléphone vendu chaque année.  

Est-ce que réduire la consommation des sites aurait un impact ? 

Il est également possible que les sites web soient beaucoup plus sobres. Nous avons pris l’hypothèse d’une consommation proche de celle de Wikipédia. De notre point de vue, pour avoir audité et mesuré de nombreux sites, c’est possible mais en engageant des actions importantes : optimisation des fonctionnalités, réduction des publicités et du tracking, optimisation technique…    

Voici pour exemple la représentation de la consommation d’énergie du site l’Equipe. On voit que le chargement va consommer jusqu’à 3 fois la consommation de référence. La marge d’optimisation est énorme dans ce cas précis sachant que de nombreux sites arrivent à un facteur inférieur à x2. 

Dans le cas d’une sobriété des sites web, en prenant les mêmes hypothèses et méthodes de calcul que pour la sobriété des navigateurs, on pourrait économiser 294 millions de batteries par an, soit réduire le renouvellement du parc annuellement de 5%

Est-ce que réduire la consommation de l’OS est possible et aurait un impact ? 

La question sur l’impact du matériel et de l’OS se pose souvent. Pour prendre en compte cet impact nous avons plusieurs données à notre disposition. Une donnée importante est la consommation de référence du smartphone. C’est la consommation du matériel et de l’OS. Pour le Galaxy S7, cette consommation est de 50µAh/s.  

En prenant les mêmes hypothèses que celles prises pour calculer la consommation totale (2 774 Milliard Ah), la consommation annuelle attribuée à la part matérielle et OS serait de 1 268 milliards d’ampère-heure soit 45% de la consommation totale.  

Est-ce donc le plateau de verre de l’optimisation ? Non pas vraiment car il existe beaucoup de pistes d’optimisation envisageables : Android lui-même par exemple. Nous avons réalisé une expérimentation qui montre qu’il est possible de réduire de façon importante la consommation des fonctionnalités Android. Les surcouches des constructeurs sont aussi une piste de réduction de la consommation. 

Selon notre expérience, nous estimons qu’une réduction de 5% de la consommation est totalement possible. Ceci permettrait d’économiser 350 millions de batteries soit 6% du parc

Quels gains environnementaux espérer ? 

L’application de la sobriété numérique à différents niveaux permettrait de réduire de plus de la moitié le nombre mondial de batteries usées par an

Même dans l’hypothèse où les utilisateurs ne renouvellent pas systématiquement leurs smartphones pour des raisons de perte d’autonomie ou remplacent uniquement leur batterie usée, on pourrait réduire de 17% le renouvellement annuel de smartphone

Dans le meilleur des cas, si l’on projette que la plupart des utilisateurs remplaceront leur batterie, les gains potentiels seraient de 2 millions de T eqCO2. Mais les gains pourraient être beaucoup plus importants si l’on considère que les pratiques de remplacement ne changent pas assez vite et que les utilisateurs changent les smartphones plutôt que les batteries : 47 millions de TeqCO2

En étant optimiste sur une augmentation des capacités des batteries, une non-augmentation de l’impact des logiciels, et un impact non augmenté des plus grosses batteries, le nombre de batteries utilisées pourrait être divisé par deux, de la même manière l’impact environnemental par deux. Mais est-ce encore suffisant ? Plutôt aller sur une augmentation de la capacité des batteries et une diminution de la consommation d’énergie et alors obtenir un gain de 4 sur l’impact en multipliant la capacité par deux ! 

L’énergie sur smartphone, des petites gouttes mais un impact au final énorme 

Nous avons l’impression que l’énergie est illimitée, il suffit juste de recharger notre smartphone. Néanmoins, même si l’énergie était illimitée et sans impact, les batteries elles, sont des consommables. Plus nous les utilisons, plus nous les usons et plus nous utilisons des ressources non-renouvelables comme des terres rares, sans compter les autres coûts environnementaux, sociaux et géopolitiques. Nous pouvons attendre des évolutions technologiques pour améliorer les capacités et améliorer la remplaçabilité des batteries, cependant les puits d’économies sont gigantesques. Le remplacement des batteries n’est en effet pas la solution miracle car même si on prolonge la durée de vie du smartphone, la batterie est à jeter ou à recycler, et le recyclage du Lithium n’est pas encore assuré (P.57). Gigantesque car nous utilisons nos smartphones de nombreuses heures. Gigantesques car nous sommes des milliards d’utilisateurs.  

L’exercice que nous avons réalisé est totalement prospectif, il faudrait que tous les éditeurs de navigateurs intègrent la sobriété, que tous les sites soient éco-conçus. Cela montre cependant que l’optimisation de l’énergie des applications et des sites web a un sens dans l’empreinte environnementale du numérique. Certains voyant uniquement l’énergie du rechargement négligent cet aspect. Cependant on le voit dans cette projection, les gains environnementaux sont beaucoup plus importants. 

Ce chiffre est important et en même temps faible : 47 Millions de Teq CO2 pour le monde, c’est 6% de l’empreinte française. Cependant, le CO2 n’est pas l’unique métrique à regarder. Autre problématique par exemple non négligeable : la pénurie de Lithium en 2025 mais aussi l’eau.

A tout cela, il faudrait ajouter des problématiques associées aux nouvelles pratiques et nouveaux matériaux : 

… la filière évolue sans cesse, pour répondre à des enjeux tantôt commerciaux, tantôt économiques, tantôt réglementaires. L’exemple de la batterie illustre bien cette tendance. Alors que l’on s’était familiarisé avec les batteries lithium-ion « classiques » qui contiennent principalement du lithium, du carbone, du fluor, du phosphore, du cobalt, du manganèse et de l’aluminium, de nouveaux modèles sont apparus, d’abord les batteries lithium-ion-polymère puis les batteries lithium-métal-polymère. Le cortège métallique possible, déjà conséquent, a donc été considérablement augmenté ; avec le fer, le vanadium, le manganèse, le nickel mais aussi des terres rares (cérium, lanthane, néodyme et praséodyme).

Association SystExt (Systèmes extractifs et Environnements)  https://www.systext.org/node/968 

En prenant en compte les problématiques environnementales, sociales et géopolitiques qu’impliquent les batteries, la division par 2 du nombre de batteries utilisées n’est vraiment pas suffisante ! Cela veut dire que les puits d’optimisations doivent maintenant être activés. Et si l’on veut atteindre des objectifs ambitieux, tous les acteurs, constructeurs, éditeurs d’OS et de navigateurs, acteurs du numérique… ont leur part de travail. Continuer à incanter des réductions magiques issues des technologies, à dire que l’énergie ne doit pas être optimisée, à reporter la faute à d’autres acteurs ou d’autres secteurs, expliquer que se focaliser sur les usages est une erreur… ne fait que décaler le problème. Il est nécessaire de tous se retrousser les manches et de résoudre le problème dès maintenant ! 

 

1 heure de visualisation Netflix équivaut à 100 gEqCO2. Et alors ?

Reading Time: 8 minutes

Netflix, ainsi que d’autres acteurs comme la BBC, a étudié avec l’appui de l’Université de Bristol : l’impact de son service. Les chiffres précis et la méthodologie seront publiés prochainement mais il en ressort qu’une heure de visualisation de Netflix, est équivalent à 100 gEqCO2.

À la sortie de cette communication, plusieurs acteurs du numérique ont repris ce chiffre, mais, à mon avis, pas pour de bonnes raisons. La communication de l’impact de la vidéo par le Shift Project ressort comme un point systématique de débat. En mars 2020, la publication du Shift avait été largement diffusée dans les médias avec une erreur importante d’évaluation. Cette erreur avait été corrigée en Juin 2020 mais le mal était fait.

L’IEA avait dans ce cadre réalisé une analyse contradictoire sur le sujet. Au final, de nombreuses études sur l’impact de la vidéo sont sorties (IEA, le ministère Allemand de l’environnement, nous même avec notre étude sur l’impact de la lecture d’une vidéo Canal+). Il est toujours difficile mais pas impossible de comparer les chiffres (par exemple, la prise en compte ou non de l’étape de fabrication, la représentativité des terminaux, les différentes infrastructures et optimisations entre acteurs…), cependant, si on prend des choses comparables, toutes les études ont des ordres de grandeur proches. En prenant la correction de l’erreur du Shift Project (Ratio 8 issus d’une erreur entre Byte et Bit), les chiffres sont aussi proches.

Que disent-les études ?

Mais au-delà des discussions sur les chiffres, si on examine en détail les études, les conclusions vont dans le même sens :

  • Indépendamment du coût unitaire, il y a une croissance importante des usages et de l’impact global.


Set against all this is the fact that consumption of streaming media is growing rapidly. Netflix subscriptions grew 20% last year to 167m, while electricity consumption rose 84%.

« Les abonnements Netflix ont augmenté de 20% l’an dernier pour atteindre 167 millions, tandis que la consommation d’électricité a augmenté de 84%. » (IEA)

  • L’impact des services numériques est relativement faible par rapport à l’impact d’autres activités. Il est cependant nécessaire de continuer à étudier et surveiller cet impact.

« What is indisputable is the need to keep a close eye on the explosive growth of Netflix and other digital technologies and services to ensure society is receiving maximum benefits, while minimising the negative consequences – including on electricity use and carbon emissions. »

« Ce qui est incontestable, c’est la nécessité de surveiller de près la croissance explosive de Netflix et d’autres technologies et services numériques pour s’assurer que la société en profite au maximum, tout en minimisant les conséquences négatives – y compris sur la consommation d’électricité et les émissions de carbone. » (IEA)

  • Les entreprises concernées ont pour but de mieux mesurer leur impact et d’identifier les vrais axes d’optimisation.

“Netflix isn’t the only company using DIMPACT right now, either. The BBC, ITV and Sky are also involved. A spokesperson from ITV says that, like Netflix, the tool will help it to find and target hot spots and reduce emissions. Making such decisions based on accurate data is crucial if digital media companies are to get a grip on their carbon footprints.”

« Netflix n’est pas non plus la seule entreprise à utiliser DIMPACT à l’heure actuelle. La BBC, ITV et Sky sont également impliquées. Un porte-parole d’ITV a déclaré que, comme Netflix, l’outil l’aidera à trouver et à cibler les points chauds et à réduire les émissions. Prendre de telles décisions sur la base de données précises est crucial si les entreprises de médias numériques veulent maîtriser leur empreinte carbone. » (Projet DIMPACT)

“Ces travaux nous permettent tout d’abord d’identifier les projets techniques à prioriser pour minimiser le plus fortement le bilan carbone de la consommation vidéo de myCANAL. En parallèle, les enseignements nous orientent sur les messages de sensibilisation à relayer auprès de nos utilisateur·rices, au long de nos prochaines évolutions. Cet engagement de coopération entre nos développements techniques et nos utilisateur·rices est la clé pour une consommation moins impactante pour l’environnement. “ (Témoignage du CDO de Canal+, étude Greenspector de l’impact de la lecture d’une vidéo)

  • L’impact de la vidéo peut être faible mais il est nécessaire de bien le mesurer (point précédent).

« The most recent findings now show us that it is possible to stream data without negatively impacting the climate if you do it right and choose the right method for data transmission ».

« Les découvertes les plus récentes nous montrent maintenant qu’il est possible de diffuser des données sans impact négatif sur le climat si vous le faites correctement en choisissant la bonne méthode de transmission des données. »

Est-ce que les discussions vont dans le bon sens ?

Les erreurs de certaines études n’ont pas aidé à l’apaisement des discussions. La médiatisation de ces chiffres non plus. Cependant, il ne faut pas être dupe, dire que le numérique a un impact n’est pas forcément bien accepté par tous les acteurs. Cela peut être une gêne pour un domaine qui depuis 30 ans est habitué à un paradigme de développement sans très peu de contrainte et surtout très peu d’intérêt pour les problématiques environnementales internes. Rappelons que la loi de Moore qui dirige beaucoup ce monde numérique est une prophétie-autoréalisatrice et pas une loi scientifique : l’industrie met en place des moyens financiers et techniques pour que la puissance des processeurs augmente régulièrement. Il ne faut pas être dupe car se focaliser sur certaines erreurs permet de ne pas prendre en compte les problématiques. J’ai observé uniquement des citations de l’erreur Shift Project dans l’annonce DIMPACT de Netflix mais aucunement des citations sur le souhait de Netflix de mesurer et réduire son impact. Nous devons accepter les erreurs du passé si nous souhaitons avancer sur ce sujet. L’étude du Shift a le mérite d’avoir mis au-devant de la scène une problématique qui avait du mal à être visible. Et aussi accepter ces propres erreurs, combien de promesses du numérique n’ont pas été (encore) prouvées ? Est-ce que les externalités positives du numérique ont été chiffrées scientifiquement par un nombre suffisant d’étude ? Cette dernière analyse montre que les quelques études existantes (Principalement 2 études Carbon Trust et la GSMA) méritent beaucoup plus de travail pour affirmer le bénéfice énorme annoncé du numérique.

« L’étude des affirmations d’impacts positifs du numérique sur le climat permet de conclure que celles-ci ne peuvent pas être utilisées pour informer les décisions politiques ou la recherche. Elles reposent sur des données extrêmement parcellaires et des hypothèses trop optimistes pour extrapoler des estimations globales. De plus, les deux rapports étudiés ne voient pas les évitements dans les mêmes secteurs, voire se contredisent« 

Il est même dommage de se focaliser sur un aspect de l’impact en écartant la problématique globale. C’est le cas sur la discussion de l’impact du réseau sur la partie énergétique. La méthode de calcul basée sur la métrique kWh/Gb même si partagée par la quasi-totalité des études et des équipes internes des opérateurs, est critiquée par certains. Cette méthode est en effet perfectible mais il faut remettre l’église au milieu du village : l’impact du réseau est dans tous les cas plus faible que la partie Terminal, la partie fabrication du matériel n’est jamais discutée dans ces débats alors que c’est la problématique principale de l’impact du numérique. D’autant plus que l’amélioration énergétique du réseau et des datacenters se base sur un principe contraire à l’impact du matériel : le renouvellement régulier du matériel pour mettre en place de nouvelles technologies plus efficaces.

Google a été critiqué pour la politique de déchet de ses serveurs. Les pratiques ont été améliorées mais on peut se poser des questions sur cette gestion : même si les serveurs sont revendus et le coût environnemental est amorti pour l’acheteur, cela ne change rien dans le cycle trop important de renouvellement

« We’re also working to design out waste, embedding circular economy principles into our server management by reusing materials multiple times.In 2018, 19% of components used for machine upgrades were refurbished inventory. When we can’t find a new use for our equipment, we completely erase any components that stored data and then resell them. In 2018, we resold nearly 3.5 million units into the secondary market for reuse byother organizations. »

« En 2018, nous avons revendu près de 3,5 millions d’unités sur le marché secondaire pour réutilisation par d’autres organisations. » (Google Environmental Report 2019).

Une des premières explications de ces discussions tranchées vient souvent du manque de sensibilisation aux problématiques environnementales du numérique. Mais derrière cela il existe une explication aussi plus sociologique : On reproche des croyances “écologiques » à certaines organisations. Cependant on peut aussi parler de croyance chez certains acteurs du numérique quand on idolâtre sans critique les bénéfices du numérique. Dans ce cas, pas sûr que ces discussions aillent dans le bon sens. “Technophobe” contre “Techno-béa”, les raisonnés ont du mal à prendre leur place au milieu. Plusieurs pistes sont cependant utiles pour avancer sereinement sur l’impact du numérique!

Limitons les comparaisons entre domaine

Les comparaisons de l’impact environnemental du numérique avec d’autres domaines est un piège. Il est nécessaire pour comprendre un impact CO2 abstrait. Nous l’utilisons nous-même pour effectuer cette sensibilisation. Cependant cela amène à des conclusions parfois biaisées.

Voici le chapeau utilisé par les Echos ! « Netflix affirme qu’une heure de streaming sur sa plate-forme génère moins de 100gCO2e. Soit l’équivalent de l’utilisation d’un ventilateur de 75 W pendant 6 heures en Europe, ou d’un climatiseur de 1.000 W fonctionnant pendant 40 minutes.”

Donc une heure de streaming c’est faible ? Oui et non. Car il faut le voir d’un niveau “macro” : les heures de visionnage mondiales explosent. Et Netflix n’est pas le seul service numérique qu’on utilise. Est-ce possible de le comparer à du temps de ventilateur ? Un foyer va pouvoir visualiser 4 flux en même temps pendant plusieurs heures, on n’est pas sur les mêmes importances d’usage avec un ventilateur (Peut-être que si avec le réchauffement climatique…).

Ce qui est important c’est que cette métrique va permettre aux concepteurs de service de suivre leur amélioration. Avec le détail de cet impact, ils vont pouvoir identifier les hotspots. Elle va permettre de se comparer à un concurrent et de se positionner.

Utiliser ces chiffres pour dire que l’impact du numérique est énorme ou est nul ne sert pas à grand-chose dans le débat. Tous les domaines doivent réduire leurs impacts, les challenges à venir sont énormes et ce type de comparaison n’aide pas forcément dans la dynamique d’amélioration. Par contre, plus ce type d’étude sortira, plus on aura une cartographie précise de l’impact du numérique.

Collaborons

Les modèles ACV sont critiqués pour leur manque de fiabilité. Ok, est-ce une raison pour abandonner l’analyse de l’impact du numérique ? Cela en arrangerait bien certains !

Il est surtout nécessaire de les améliorer. Et cela viendra par plus de transparence : des ACV publiques des constructeurs de matériel, des métriques de consommation de l’énergie remontées par les hébergeurs et même plus d’informations sur le renouvellement des parcs… Certains acteurs jouent le jeu, c’est ce que nous avons pu faire par exemple avec Canal+ et cela a permis d’avoir des données fiables sur les parties datacenters, CDN et terminaux. Le manque de transparence est cependant important dans ce secteur quand il s’agit du domaine de l’impact environnemental.

Il est de plus nécessaire d’éviter de toujours rejeter la faute sur les autres secteurs. Dans ces discussions sur l’impact de la vidéo, et plus globalement du numérique, je vois continuellement des arguments “c’est pas moi c’est lui”. Par exemple, c’est sur le matériel qu’il faut agir, sous-entendu le logiciel n’est pas responsable de l’impact. Encore une fois, le contexte environnemental est critique, il n’y a pas de solution miracle et tout le monde doit agir. S’affranchir des actions en pointant du doigt d’autres acteurs n’est pas sérieux. L’idée de la mesure de l’impact du numérique n’est pas de faire du “numérique bashing » mais bien de l’améliorer. Donc il n’y a aucune raison de ne pas prendre en compte ces problématiques, à moins d’aller dans une démarche de lobbying et vouloir aller vers une libéralisation totale du numérique.

Pour avoir vu ce domaine évoluer depuis 10 ans, je peux dire qu’il y a une réelle prise de conscience de certains acteurs. Il est possible de nier encore l’impact du numérique, mais c’est un risque dangereux. Dangereux car il est clair que les objectifs environnementaux vont être de plus en plus contraignants, que cela plaise ou non. Ne pas prendre en main cette problématique, c’est la laisser à d’autres personnes. C’est ce que l’on voit aujourd’hui : certains se plaignent des législations sur le numérique. Mais qu’ont-ils fait ces 10 dernières années alors que cette problématique était connue ? Par crainte que cela ne freine le développement du numérique français par rapport à d’autres pays? Et pourquoi ne pas plutôt voir la sobriété numérique comme un facteur concurrentiel de notre industrie ? On voit d’ailleurs que la sobriété est prise en compte par de nombreux pays (Le projet DIMPACT en est un exemple). La France a une avance avec de nombreux acteurs qui traitent de la sobriété. Il est temps d’agir, de collaborer sur ces sujets, de critiquer les méthodes pour les améliorer, de se mesurer, que chacun agisse sur son domaine d’expertise.

C’est cela qui guide notre stratégie R&D, fournir un outil de mesure précis de la consommation d’énergie et de l’impact des terminaux. Nous travaillons à améliorer la fiabilité des mesures dans ce domaine, pour tenter d’apporter des éléments de réflexions et des métriques. En espérant que les débats soient non manichéens et plus constructifs et que le domaine du numérique prenne pleinement en compte la problématique environnementale