Auteur/autrice : Olivier PHILIPPOT

Expert Sobriété Numérique Auteur des livres «Green Patterns», «Green IT - Gérer la consommation d’énergie de vos systèmes informatiques», ... Conférencier (VOXXED Luxembourg, EGG Berlin, ICT4S Stockholm, ...) Fondateur du Green Code Lab, association nationale de l’écoconception des logiciels

Quel format d’image choisir pour réduire sa consommation d’énergie et son impact environnemental ?

Reading Time: 4 minutes

Choisir le bon type d’image pour réduire l’impact environnemental d’un site n’est pas chose aisée. On peut se focaliser sur la taille de l’image ou sur la performance d’affichage (est-ce que les deux sont liés ?). C’est peut être la bonne approche. Cependant une mesure d’énergie sera un élément plus précis si on souhaite vraiment mesurer la consommation effective et aller vers une réduction de l’impact environnemental.

Nous avions réalisé en 2017 un benchmark du nouveau format WebP par rapport au JPEG et PNG. La prise en compte du Webp dans les navigateurs commençait. De plus l’AVIF, format d’image prometteur est arrivé.

Voici une étude mise à jour.

Méthodologie

Comme image de test, nous avons utilisé celle proposée par Addy Osmani dans un article sur Smashing Magazine.

Les images ont été générées pour avoir la même qualité perçue. Les qualités de compression sont donc différentes entre les formats.

Image 1 : https://res.cloudinary.com/ddxwdqwkr/image/upload/v1632192015/smashing-articles/206-webp-ayousef-espanioly-DA_tplYgTow-unsplash.webp

  • Test 1 Qualité par Défaut donné par Sqoosh (https://github.com/GoogleChromeLabs/squoosh/) : JPEG original (560KB), JPEG@q75 (289KB), WebP@q75 (206KB),  AVIF@q30 (101KB)
  • Test 2 Qualité cible JPEG@q70 : JPEG (323KB), WebP@q75 (214KB), AVIF@60 (117KB)
  • Test3 Faible qualité : JPEG@q10 (35KB), WebP@q1 (35KB), AVIF@q17 (36KB)2

Image 2 : https://res.cloudinary.com/ddxwdqwkr/image/upload/v1632080886/smashing-articles/q50jpg.jpg

  • Test1 : Taille cible de 45k : Original (442kB), JPEG@q50 , WebP@q54, AVIF@q36

Image 3 : https://res.cloudinary.com/ddxwdqwkr/image/upload/v1632082138/smashing-articles/q10-25.jpg

  • Test 1: Taille cible de 25kB : Original (716KB),  JPEG@q10 , WebP@q5, AVIF@q19

Protocole de mesure :

  • Nous affichons une par une les images dans un navigateur Chrome sur un device réél (Samsung Galaxy S10).
  • Nous utilisons les outils Greenspector pour mesurer la consommation d’énergie et les autres métriques (CPU, performance…).
  • Nous effectuons une mesure tout au long de l’affichage de l’image et cela 3 fois pour avoir des mesures stables.
  • Les mesures sont faites dans différentes conditions de réseau Wifi, 3G et 2G.

Résultats

Sur l’image 1 pour le test 1, on obtient les mesures de consommation d’énergie suivantes :

Consommation d'énergie pour l'image 1

Si l’on observe de plus près le comportement en Wifi, on peut mieux apprécier les différences de consommation avec l’intervalle de confiance.

Consommation d'énergie pour la wifi avec intervalle de tolérance

En Wifi, la consommation est relativement similaire entre les types d’image. Le JPEG est un peu plus consommateur suivi du format WebP et ensuite par AVIF.

En 3G et 2G, la différence de consommation est notable et AVIF consomme moins d’énergie que Webp.

Ces comportements s’expliquent par la taille des fichiers plus faible en AVIF et en Webp.

Sur l’image 2, le comportement est le même :

Comparaison de consommation d'énergie pour l'image 2 entre la wifi, la 3G et la 2G

Sur l’image 3, il n’y a presque aucune différence entre les formats. L’image est petite et on se retrouve dans un fonctionnement proche du wifi (transfert rapide) :

Comparaison de consommation d'énergie entre la wifi, la 3G et la 2G

Le comportement est le même avec l’image 2 qui est à 45ko :

Consommation d'énergie pour l'image 2 en wifi, 3G et 2G

C’est le même comportement pour l’image 3 :

Consommation d'énergie pour l'image 3 en wifi, 3G et 2G

Il est nécessaire de surveiller les nouveaux formats (JPEG XL, Webp2…) ainsi que l’optimisation des algorithmes car même si les gains en taille sont importants, les traitements de décodage pourraient potentiellement gagner encore en efficacité. En effet, voici par exemple le traitement CPU pour l’image 1 sur le test 1, où AVIF consomme plus de CPU que les autres formats.

Traitement CPU pour l’image 1

Préconisations :

  • Dans tous les cas, il est nécessaire de compresser les images avec une qualité plus faible, peu importe le format de l’image. Une qualité >85% est inutile. La consommation d’énergie est diminuée d’un facteur 2 pour des qualités qui restent élevée, et diminuée d’un facteur 6 pour des qualités faibles.
  • Même si la consommation d’énergie est relativement proche entre les formats, le gain apporté par l’AVIF et le Webp est beaucoup plus important pour des connexions moins performantes. Le choix de AVIF et Webp sera préférable car les utilisateurs ne sont pas connectés avec du haut débit ! De plus le gain en terme de données échangées sera intéressant pour limiter la taille globale du site.
  • Le choix entre Webp et AVIF n’est pas simple et va dépendre de la typologie des images et des visiteurs. De plus, Google travaille sur la version 2 de WebP, et des formats comme JPEG XL arrive pour concurrencer AVIF. Cependant, compte-tenu des avantages du Webp autres que l’impact environnemental, nous conseillons plus l’usage de WebP.

Pour information, voici la prise en compte du format AVIF dans les browsers :

Pour information, voici la prise en compte du format AVIF dans les browsers :

Ainsi que le format Webp :

Pour information, voici la prise en compte du format webp dans les browsers :

Dans tous les cas, optimisez vos images, compressez, réduisez la taille et lazy-loadez !

CMS, No Code ou sans CMS, quelle solution choisir pour un site web sobre ?

Reading Time: 6 minutes

Aujourd’hui, nous allons étudier l’impact de solutions permettant la mise en place de sites web sans connaissance de codage. Parmi ces solutions, nous pouvons inclure les CMS (Content Management System) mais aussi des solutions No Code.

Cet article est le premier d’une série où nous analysons les mesures de 1500 sites via nos outils.
Nous traiterons dans ces articles de l’impact des technologies, des paramètres… 

Avertissement sur la méthodologie :

Nous avons mesuré plus de 1500 sites sur des appareils réels via nos suites de benchmark permettant la réalisation de tests automatisés (lancement du site, mise en attente, scroll, mise en tâche de fond). Nous récupérons ensuite les informations de technologies de ces sites via la solution WepAnalyzer

Nous avons choisi de porter notre analyse sur la consommation d’énergie. Cet indicateur va fortement impacter l’usure des batteries sur les appareils utilisateurs et donc, au final, avoir un impact environnemental. 

Comment lire les graphiques ?

Nous visualisons les données par des graphiques à « boîtes à moustache » (ou Box plot): 

  • La barre centrale indique la médiane. Les classements sont réalisés par rapport à cette donnée. 
  • Le haut et le bas de la boîte sont délimités par les 25e et 75e quantile.  
  • La taille de la boîte est appelée l’intervalle interquartile (IQR) 
  • Les barres en haut et en bas sont les moustaches et délimitent les valeurs attendues
  • Les moustaches s’étendent à 1,5 IQR
  • Les valeurs hors des moustaches sont visualisées via des points. Ils représentent soit des erreurs soit des valeurs aberrantes. 

Nous avons volontairement écarté les sites qui n’avaient pas assez d’échantillons (par exemple moins de 10 sites avec une certaine technologie).

Comment se positionnent les CMS et les solutions No Code ?

Nous retrouvons les technologies les plus répandues (selon Web Core Vitals), mise à part Shopify (ces sites doivent être classés dans la catégorie « Pas de CMS »). 

Nous observons un écart de 20% entre la solution la plus efficiente (Ametys) et la moins performante (Webflow). 

3 CMS se positionnent devant les sites sans CMS. Les CMS répandus comme Drupal et WordPress se positionnent derrière. Les quatre dernières solutions sont des solutions No Code

Pour certaines catégories (WordPress, sites sans CMS), il y a beaucoup de points considérés comme aberrants. Cela s’explique par un jeu de données important (plusieurs centaines de sites). Une analyse exploratoire de ces sites montre généralement qu’il s’agit de sites avec des traitements en continu assez lourds (comme de la vidéo). Voici, un exemple d’un site positionné en « outlier« , l’étape de chargement et d’idle (site inactif) consomment de façon importante compte-tenu d’une animation qui tourne en continu. 

Quelques pistes d’explications à l’analyse des CMS :

Ametys : un CMS spécifique à un domaine

Ametys est un CMS spécifique qui est utilisé pour des sites institutionnels. Sa présence dans ce classement s’explique par le fait que nous avions réalisé un classement des sites d’école, dans lequel de nombreuses écoles utilisent cette technologie. Son bon positionnement serait à analyser d’un point de vue technique, cependant on peut en déduire d’une solution qui a pour cible un type de besoin sera plus optimisable qu’une solution générique. L’intégration de multiples fonctionnalités dans un CMS amènera en effet une surconsommation. On observe de plus que ces sites institutionnels intègrent moins de modules que les autres sites. Il s’agit au final d’une sobriété fonctionnelle. 

Squarespace : une solution tout en un

Squarespace est un CMS hébergé par l’éditeur. Sur les sites analysés, nous pouvons identifier qu’il y a peu de requêtes (<30) donc qu’il y a potentiellement des solutions d’optimisation intégrées. Autres pistes, toutes les ressources sont hébergées sur Squarespace et les atouts (ou assets) sont sur des serveurs dédiés. L’hébergement du CMS par l’éditeur est en effet une bonne chose car elle va permettre des optimisations systématiques et mutualisées. Cependant, ce n’est pas forcément natif, il faut que l’éditeur l’applique. 

Typo 3 : des options d’optimisation natives

Typo 3 qui est une solution open source est en 3ème position. Ce positionnement est confirmé par un classement HTTP Archive. Cette performance s’explique par une gestion fine des caches et d’options d’optimisation natives. 

Les sites sans CMS

Les sites sans CMS intègrent une hétérogénéité de solutions techniques. Il est difficile d’en tirer des conclusions poussées, cependant la médiane des sites se positionne très bien par rapport à d’autres solutions (No Code, WordPress, Drupal…). La moustache basse est la plus basse par rapport à toutes les autres solutions. Cela montre qu’une efficience importante est possible plus facilement.  

Drupal : un CMS professionnel

Drupal se positionne juste après les sites sans CMS. Son bon positionnement peut s’expliquer par le fait que ce CMS est moins accessible que WordPress en termes de mise en place et de prise en main.  

Contentful : un CMS headless

Contentful est un CMS “sans interface”. Il permet de publier du contenu depuis d’autres outils. Le gain d’efficience est sûrement présent pour la publication (car on n’utilise pas ses outils habituels), par contre on observe que ce CMS a la même efficience qu’un CMS classique. 

WordPress : un CMS simple et très répandu

WordPress est très répandu et offre de nombreux plugins et thèmes. Cette généricité et modularité ont un coût. Ce CMS est accessible à beaucoup de monde, dont des utilisateurs non-techniques. La contrepartie est une explosion potentielle de plugins utilisés et une non-configuration du CMS en termes de performance et d’efficience. On voit par rapport à la moustache basse que le CMS peut être efficient, cela nécessite cependant un travail conséquent.  

Wix, Webflow, SiteCore, Adobe : des solutions No Code ou équivalentes

Ces solutions offrent à l’utilisateur la possibilité de réaliser un site web sans connaissance de codage. La médiane est élevée mais aussi les moustaches basses qui sont plus élevées que d’autres solutions montrent que ce sont des solutions plus lourdes. 

Conclusion 

D’un point de vue statistique, les solutions CMS n’ont pas toute la même efficience. La conception initiale, prenant en compte les optimisations, va être primordiale pour atteindre des bonnes performances (cas de Typo 3). On observe que la maîtrise de bout en bout, associée à la mise en place de bonnes pratiques (Squarespace), permet aussi d’atteindre un bon niveau. De la même manière, spécialiser un CMS (Ametys) et donc les options qui vont avec va permettre d’obtenir des bons résultats. 

Cependant, à l’opposé, rendre un CMS très générique et modulaire (WordPress), même si potentiellement performant initialement, va apporter de l’obésiciel. De la même manière, le No Code va apporter une lourdeur. Reste à identifier les causes de cette lourdeur. En effet, elle peut provenir des niveaux d’abstraction mais aussi des possibilités de rendu (interactivité, animations…) qui sont possibles facilement et qui amène l’utilisateur à en ajouter plus qu’il n’en faut. De plus, l’usage d’un CMS “généraliste” est aussi potentiellement représentatif d’un manque de précision du besoin. 

Pour une solution CMS (et plus globalement n’importe quelle solution), la sobriété ne sera pas innée. Il faudra appliquer un ensemble de bonnes pratiques

  • Architecture et technologie efficientes, bien que si l’on prend les technologies actuelles la différence entre les solutions est très faible et l’impact provient plus de la mauvaise utilisation des technologies.
  • Intégrations natives d’optimisations ou facilement activables par l’utilisation.
  • Mécanisme de limitation des fonctionnalités ou en tout cas sensibilisation de l’utilisateur à l’obésiciel.
  • Plus globalement, réfléchir à la problématique bout-en-bout prenant en compte hébergement, CDN (Content Delivery Network); sans aller sur des solutions gérées de bout-en-bout, on voit que la répartition des systèmes n’est pas forcément une bonne chose.
  • Afin d’offrir toujours plus de souplesse à l’utilisateur, et entre autres permettre à des personnes non techniques de réaliser des sites, il est nécessaire d’intégrer nativement des solutions d’optimisations, ce qui n’est pas du tout le cas actuellement.

Vous souhaitez intégrer un CMS dans ce classement ? Contactez-nous et envoyez-nous au minimum 20 liens vers des sites utilisant la technologie, nous les intégrerons dans les mesures et au sein de notre classement ! 

Pour notre prochain article, nous rentrerons dans l’analyse plus fine des données WordPress pour observer quels sont les paramètres et configurations qui influent sur la performance environnementale. 

La sobriété numérique pour plus de résilience

Reading Time: 2 minutes

Une industrie fragile

La crise du Covid-19 à rendu visible une faiblesse du monde du numérique et de l’électronique : une interdépendance des systèmes économiques et techniques. Les confinements de 2020 ont amené à une réduction drastique, voire à un arrêt de la production de circuits électroniques en Chine, impactant les productions dans le monde entier (Exemple de l’iPhone 13 et ses ruptures de stock).

Mais la pandémie du Covid-19 n’est pas l’unique cause qui a eu pour conséquence d’impacter le système d’approvisionnement. Début 2021, une sécheresse a touché Taiwan, autre lieu important de production de circuits électroniques, et cela a contribué à renforcer la pénurie déjà initiée.

Les crises sanitaires et les crises environnementales peuvent être aussi accompagnées de crises géopolitiques et de guerres. La guerre en Ukraine par exemple a levé encore une des faiblesses sur ces approvisionnements complexes : un risque sur la production de néons, nécessaires à la fabrication de puces. Ces néons étant en grande partie produits en Ukraine.

 

La sobriété comme une des solutions de résilience

On pourrait attendre une solution de résilience de la part de l’industrie électronique, par exemple via des relocalisations, cependant certaines solutions sont difficilement envisageables (relocalisation de l’extraction de certains matériaux). De la même manière, une “souveraineté numérique” ne serait pas la solution à ce problème, ou en tout cas elle permettrait de “seulement” mieux traiter la dépendance à du matériel serveur.

Le but de la sobriété numérique est principalement vu comme celui de la réduction de l’empreinte environnementale. C’est tout à fait vrai mais elle a aussi pour avantage (dans le cadre de la réduction de l’impact environnemental) de prolonger la durée de vie des matériels, de réduire la consommation de ressources (CPU par exemple), d’optimiser la capacité des matériels…

Ces avantages vont dans le sens d’une amélioration de la dépendance entre les services numériques et l’électronique. Rendre le numérique plus sobre permettrait donc de limiter l’impact de ces crises.

Ne nous trompons pas

La sobriété, même si beaucoup discutée dans le monde numérique, n’est encore que trop peu déployée. On continue encore à discuter sur son coût d’implémentation, de son impact plus fort côté matériel versus celui de son usage (sic). Des débats sans fin se poursuivent sur l’impact du réseau (focalisé sur l’énergie et pas le CO2, ne prenant pas en compte la problématique globale…), ainsi que des contre arguments sur le fait d’optimiser l’impact CO2 de nos solutions qui ne serait pas nécessaire puisque nous disposons en France, d’une énergie bas carbone.

Écarter la démarche de sobriété numérique sous prétexte de ses inconvénients, c’est ne pas prendre pleinement en compte la place du numérique dans notre monde et c’est surtout continuer à développer des outils qui ne fonctionneront potentiellement pas vu leur manque de résilience.

Permettre le fonctionnement des services numériques sur du matériel “bas de gamme” et sur des réseaux limités est par exemple une démarche qui va dans le sens de la sobriété numérique. Mais ce n’est qu’un début à une vraie démarche de sobriété. Le chemin est long, et malheureusement les crises sont déjà là. 

Ne nous trompons pas, la sobriété est une démarche indispensable dans notre jeune monde numérique. 

Comment Greenspector évalue l’empreinte environnementale de l’utilisation d’un service numérique ?

Reading Time: 6 minutes

Avant-propos : Évaluer l’impact de l’usage

Cette note décrit succinctement la méthodologie que nous employons à la date de sa publication.​

Dans une démarche de progrès continu, nous sommes vigilants à améliorer sans cesse la cohérence de nos mesures ainsi que notre méthodologie de projection des données en impact environnemental. 

Il s’agit ici d‘évaluer les impacts environnementaux causés par l’usage d’un service numérique.

Cette analyse repose sur une méthode Analyse de Cycle de Vie (ACV), mais il ne s’agit pas de réaliser l’ACV du service numérique.​

Une telle analyse serait un exercice sur un périmètre beaucoup plus large, qui inclurait des éléments propres à l’organisation autrice du logiciel.​

Dans l’ACV d’un service numérique il conviendrait par exemple d’inclure pour sa phase de fabrication : les déplacements domicile-travail de l’équipe projet (internes et prestataires), le chauffage de leurs locaux, les PC et serveurs nécessaires au développement, à l’intégration et à la recette, les réunions sur place ou en distanciel, etc…

Méthodologie d’évaluation d’empreinte environnementale

Notre approche

La modélisation choisie s’appuie sur les principes d’Analyse du Cycle de Vie (ACV), et principalement par la définition donnée par l’ISO 14040. ​​

Elle se compose d’une partie Inventaire du cycle de vie (ICV) complète et d’une Analyse du cycle de vie (ACV) simplifiée. L’ICV est prépondérant dans notre modèle. Il va permettre de s’assurer d’avoir des données fiables et représentatives. De plus, l’ICV ainsi obtenu peut le cas échéant être intégré dans des ACV plus poussées.

Nous évaluons l’impact environnemental des services numériques sur un ensemble limité de critères :

Cette méthodologie a été revue par le cabinet EVEA – spécialiste en écoconception et analyses de cycle de vie.
Note sur l’eau : L’eau grise et l’eau bleu sont prises en compte sur toutes les étapes du cycle de vie. L’eau verte est ajoutée sur le cycle de fabrication des terminaux et des serveurs. Retrouvez la définition de l’empreinte Eau.

Gestion de la qualité des résultats

La qualité des résultats d’une ACV peut être modélisée de la façon suivante1 :​​

Qualité des données d’entrée  x  Qualité de la méthodologie  =  Qualité des résultats

Pour améliorer la qualité des données d’entrée, nous mesurons le comportement de votre solution sur des terminaux réels. Cela permet de limiter les modèles qui sont potentiellement sources d’incertitude.​

Pour gérer la qualité des résultats, nous appliquons une approche qui permet d’identifier les sources d’incertitudes et de calculer l’incertitude du modèle. Notre méthode de gestion des incertitudes utilise la logique floue et ses ensembles2.

Au final, contrairement à d’autres outils et méthodologies, nous pouvons fournir des marges d’erreurs par rapport aux résultats que nous vous donnons. Cela permet d’assurer une communication de l’impact environnemental plus sereine vers les parties prenantes (utilisateurs, équipes internes, partenaires…)

1Qualité des resultats : SETAC (Society of Environmental Toxicology and Chemistry 1992)

2Bien que mentionnée souvent dans la littérature traitant d’incertitudes en ACV, cette approche est peu utilisée. En effet les modèles stochastiques comme les simulations de Monte Carlo sont souvent préférés (Huijbregts MAJ, 1998). Dans notre cas, l’utilisation de la logique floue semble plus pertinente, car elle nous permet de gérer les inexactitudes épistémiques, notamment dues à des estimations d’expert. ​ ​

Étapes de calcul

Phases prises en compte pour le matériel utilisé

« Phases prises en compte dans le cycle de vie des matériels ​qui sont mobilisés en phase d’usage du service numérique »

Note sur le modèle d’impact de la partie terminal

Les méthodologies classiques d’analyse d’impact prennent comme hypothèse un impact uniforme du logiciel (consommation moyenne quel que soit le logiciel ou l’état du logiciel). Notre approche innovante permet d’affiner cet impact. De plus, nous améliorons la modélisation de l’impact du logiciel sur la phase de fabrication du matériel en prenant en compte l’usure de la batterie.

La batterie des smartphones et PC portables est un consommable, nous modélisons l’impact du logiciel sur celui-ci.

Données d’entrée de l’Inventaire du Cycle de Vie

Données mesurées
Énergie consommée sur smartphone
Données échangées sur le réseau
Requêtes traitées par le serveur

Données modélisées
Énergie consommée sur tablette et PC
Énergie et ressources consommées sur serveur​
Énergie et ressources consommées sur le réseau

Hypothèses Terminaux
Impact fabrication d’un Smartphone​
Impact fabrication batterie smartphone
Impact fabrication batterie tablette​
Impact fabrication batterie PC​
Nombre de cycles max avant usure smartphone
Nombre de cycles max avant usure Tablette
Nombre de cycles max avant usure Tablette
Capacité moyenne batterie smartphone
Capacité moyenne batterie tablette
Capacité moyenne batterie PC​
Voltage d’une batterie
Durée de vie smartphone
Durée de vie tablette
Durée de vie PC​
Ratio de remplacement batterie vs changement du smartphone​
Ratio de remplacement batterie vs changement de la Tablette​
Ratio de remplacement batterie vs changement du PC​
Vitesse de décharge de référence sur le terminal (mesurée)

Hypothèses Serveurs
Puissance du serveur​
Nb de cœurs​
PUE du datacenter
Puissance par cœur​
Server time (TTFB)
Number of max requests per second​
Puissance par requête​
Nb de cœurs par VM​
Nb de VM par appli simple​
Nb de VM par appli complexe​
Impact Fabrication Serveur​
Durée de vie serveur​
Débit CDN

Hypothèses Énergie
Facteur d’émissions électricité moyenne mondiale​
Facteur d’émissions électricité France

Exemple de travail sur les hypothèses :

La méthodologie de propagation des incertitudes nous oblige à identifier précisément la qualité de ces hypothèses. Voici quelques exemples, en particulier l’impact de fabrication du matériel.

L’analyse bibliographique nous permet d’identifier les impacts de différents smartphones et d’associer l’indice de confiance DQI. Ces chiffres sont principalement issus des constructeurs.

L’impact moyen calculé à partir de ces indices de confiance est de 52 kg eq Co2 avec un écart type de 16 kg.

Exemple de restitution

  • Dans cet exemple : impact médian de 0,14g eqCO2 principalement sur la partie « Réseau ».​

  • Cet impact correspond à la visualisation d’une page web pendant 20s

  • L’incertitude est calculée par le modèle Greenspector en appliquant le principe de propagation des incertitudes à partir du périmètre et de hypothèses décrits précédemment.

Éléments nécéssaires

Afin de déterminer l’impact de votre solution, nous avons besoin des informations suivantes :​​

  • Ratio de visualisation Smartphone/Tablette/PC 
  • Ratio de visualisation France/Monde
  • Localisation des serveurs France/Monde
  • Serveurs simples ou complexes (ou nombre de serveurs de la solution)

Sur devis, nous pouvons réaliser une ACV simplifiée se basant sur ce modèle mais adaptant d’autres éléments à contre cas particulier. Par exemple:​

  • Mesure de la consommation d’énergie de la partie serveur (via un partenaire)​
  • Précision des hypothèses serveur (PUE, type de serveur)​
  • Mesure de la partie PC (via mesure laboratoire)​
  • Précision des facteurs d’émissions électriques d’un pays en particulier…

Comparatifs des modèles d’estimation

Les calculs Greenspector sont intégrés dans un webservice actuellement utilisé par nos clients. Retrouvez très prochainement nos calculs d’empreinte environnementale de vos applications mobiles et sites web dans une interface SaaS.

Incertitudes – méthode de calcul

Les méthodes de calcul dans la sobriété numérique sont souvent peu justes et parfois, en même temps, peu fidèles.  Ceci vous amène potentiellement à utiliser des outils qui évaluent mal l’impact de vos solutions. Le risque est de faire travailler vos équipes sur des axes qui n’ont pas d’impact réel sur l’environnement.​

Certaines approches, plus utilisés dans les ACV (et pas dans les outils du marché), améliorent la fidélité mais posent un risque de donner un résultat peu juste (R. Heijungs 2019). ​

Notre approche repose sur une méthode de calcul innovante, l’arithmétique floue, proposée pour la première fois par Weckenmann et al. (2001).​

Cette approche est très performante pour modéliser des données vagues (épistémiques) non-probabilistes, ce qui est souvent le cas de données traitant de sobriété numérique. Nous ciblons de cette manière des résultats justes et fidèles.

Les solutions concurrentes font des choix qui les rendent généralement peu fidèles et peu fiables:​

Fidélité : Faible maîtrise de l’environnement, pas de méthodologie de gestion des écarts de mesures​

Justesse : Modèle basé sur des métriques non représentatives comme la consommation de données ou la taille du DOM, pas de mesure d’énergie…

Optimiser l’énergie des smartphones pour réduire l’impact du numérique et éviter l’épuisement des ressources naturelles

Reading Time: 6 minutes

Introduction

La durée de vie d’un smartphone est en moyenne de 33 mois à l’échelle mondiale. Sachant qu’un smartphone contient plus de 60 matériaux, dont des terres rares et que son empreinte carbone est située entre 27 et 38 kg eqCO2, le rythme actuel de remplacement des smartphones est trop rapide.

Différentes raisons peuvent expliquer ce rythme de renouvellement. La perte d’autonomie et les problèmes batterie en sont les raisons principales (smartphone : un changement sur trois à cause de la batterie). Augmenter la capacité des batteries est une solution qui semble intéressante mais qui ne résoudrait pas le problème. En effet, les données échangées continuent à augmenter et cela a un impact sur la puissance des smartphones. Les sites web sont toujours aussi lourds, voir de plus en plus lourds… Alors est-ce un problème irrésolvable ? Quel est le lien entre l’autonomie concrète que nous vivons à titre personnel et ce constat sur l’impact du numérique ?  

Méthodologie

Nous sommes partis d’une analyse via le biais de la consommation web. En effet, les mobinautes passent en moyenne 4,2h par jour à naviguer sur le web.

Lors d’une précédente étude sur l’impact des navigateurs web Android, nous avons mesuré la consommation de 7 sites web différents sur plusieurs applications de navigation web et ce depuis un smartphone milieu de gamme, un Samsung Galaxy S7. Cela nous permet de projeter cette consommation sur une consommation mondiale et d’appliquer des hypothèses d’optimisation pour identifier les marges de manœuvre. 

Même si les incertitudes sont élevées (diversité de mobile, diversité d’usage…), cette action nous permet d’identifier les marges de manœuvre pour améliorer le cycle de vie des smartphones. Le choix du Galaxy S7 permet d’avoir un smartphone proche (à 1 an près) de l’âge moyen des smartphones mondiaux (18 mois).

Quelle est la consommation annuelle de la navigation web sur mobile ? 

Voici nos hypothèses de départ : 

La consommation annuelle des smartphones estimée est de 2 774 milliards d’ampères-heures. Pas très concret ? Si l’on considère qu’une batterie moyenne de 3000 mAh peut effectuer 500 cycles de charges/décharges complets avant de commencer à être inutilisable et que1 850 millions de batterie sont utilisées chaque année pour naviguer sur le web. Ce chiffre vous parait exagéré ? Il y a 5,66 milliards de smartphones dans le monde, cela correspondrait à un problème qui toucherait 36% du parc mondial chaque année. Si l’on considère que 39% des utilisateurs vont changer leur smartphone pour des raisons de batterie et qu’uniquement 26% des utilisateurs vont remplacer les batteries en cas d’usure, on obtient le chiffre de 1 200 millions de batteries, ce qui corrobore nos chiffres. Pas incohérent au final, quand on observe les cycles de renouvellement des téléphones et de batterie. 

Est-ce que réduire la consommation des navigateurs aurait un impact ? 

Les navigateurs web sont des moteurs importants dans la consommation du web. Nos mesures montrent des différences importantes de consommation d’énergie entre les navigateurs. Ces différences s’expliquent par des implémentations et des performances hétérogènes. Dans le graphique suivant, la consommation de la navigation sur 7 sites, incluant le lancement du navigateur, l’usage de fonctionnalité comme l’écriture d’URL et la navigation elle-même est visualisée.

Nous partons sur une hypothèse des éditeurs optimisant les navigateurs. En considérant une consommation hypothétique de tous les navigateurs égale à celle du plus sobre (Firefox Focus), on obtient une réduction de la consommation totale annuelle qui permet, avec les mêmes hypothèses sur la durée de vie, d’économiser 400 millions de batteries par an. Sachant qu’il se vend 1 500 millions de smartphones par an, en prenant les mêmes hypothèses que précédemment sur les taux de remplacement et de réparation, cela ferait une économie de 7% du parc de téléphone vendu chaque année.  

Est-ce que réduire la consommation des sites aurait un impact ? 

Il est également possible que les sites web soient beaucoup plus sobres. Nous avons pris l’hypothèse d’une consommation proche de celle de Wikipédia. De notre point de vue, pour avoir audité et mesuré de nombreux sites, c’est possible mais en engageant des actions importantes : optimisation des fonctionnalités, réduction des publicités et du tracking, optimisation technique…    

Voici pour exemple la représentation de la consommation d’énergie du site l’Equipe. On voit que le chargement va consommer jusqu’à 3 fois la consommation de référence. La marge d’optimisation est énorme dans ce cas précis sachant que de nombreux sites arrivent à un facteur inférieur à x2. 

Dans le cas d’une sobriété des sites web, en prenant les mêmes hypothèses et méthodes de calcul que pour la sobriété des navigateurs, on pourrait économiser 294 millions de batteries par an, soit réduire le renouvellement du parc annuellement de 5%

Est-ce que réduire la consommation de l’OS est possible et aurait un impact ? 

La question sur l’impact du matériel et de l’OS se pose souvent. Pour prendre en compte cet impact nous avons plusieurs données à notre disposition. Une donnée importante est la consommation de référence du smartphone. C’est la consommation du matériel et de l’OS. Pour le Galaxy S7, cette consommation est de 50µAh/s.  

En prenant les mêmes hypothèses que celles prises pour calculer la consommation totale (2 774 Milliard Ah), la consommation annuelle attribuée à la part matérielle et OS serait de 1 268 milliards d’ampère-heure soit 45% de la consommation totale.  

Est-ce donc le plateau de verre de l’optimisation ? Non pas vraiment car il existe beaucoup de pistes d’optimisation envisageables : Android lui-même par exemple. Nous avons réalisé une expérimentation qui montre qu’il est possible de réduire de façon importante la consommation des fonctionnalités Android. Les surcouches des constructeurs sont aussi une piste de réduction de la consommation. 

Selon notre expérience, nous estimons qu’une réduction de 5% de la consommation est totalement possible. Ceci permettrait d’économiser 350 millions de batteries soit 6% du parc

Quels gains environnementaux espérer ? 

L’application de la sobriété numérique à différents niveaux permettrait de réduire de plus de la moitié le nombre mondial de batteries usées par an

Même dans l’hypothèse où les utilisateurs ne renouvellent pas systématiquement leurs smartphones pour des raisons de perte d’autonomie ou remplacent uniquement leur batterie usée, on pourrait réduire de 17% le renouvellement annuel de smartphone

Dans le meilleur des cas, si l’on projette que la plupart des utilisateurs remplaceront leur batterie, les gains potentiels seraient de 2 millions de T eqCO2. Mais les gains pourraient être beaucoup plus importants si l’on considère que les pratiques de remplacement ne changent pas assez vite et que les utilisateurs changent les smartphones plutôt que les batteries : 47 millions de TeqCO2

En étant optimiste sur une augmentation des capacités des batteries, une non-augmentation de l’impact des logiciels, et un impact non augmenté des plus grosses batteries, le nombre de batteries utilisées pourrait être divisé par deux, de la même manière l’impact environnemental par deux. Mais est-ce encore suffisant ? Plutôt aller sur une augmentation de la capacité des batteries et une diminution de la consommation d’énergie et alors obtenir un gain de 4 sur l’impact en multipliant la capacité par deux ! 

L’énergie sur smartphone, des petites gouttes mais un impact au final énorme 

Nous avons l’impression que l’énergie est illimitée, il suffit juste de recharger notre smartphone. Néanmoins, même si l’énergie était illimitée et sans impact, les batteries elles, sont des consommables. Plus nous les utilisons, plus nous les usons et plus nous utilisons des ressources non-renouvelables comme des terres rares, sans compter les autres coûts environnementaux, sociaux et géopolitiques. Nous pouvons attendre des évolutions technologiques pour améliorer les capacités et améliorer la remplaçabilité des batteries, cependant les puits d’économies sont gigantesques. Le remplacement des batteries n’est en effet pas la solution miracle car même si on prolonge la durée de vie du smartphone, la batterie est à jeter ou à recycler, et le recyclage du Lithium n’est pas encore assuré (P.57). Gigantesque car nous utilisons nos smartphones de nombreuses heures. Gigantesques car nous sommes des milliards d’utilisateurs.  

L’exercice que nous avons réalisé est totalement prospectif, il faudrait que tous les éditeurs de navigateurs intègrent la sobriété, que tous les sites soient éco-conçus. Cela montre cependant que l’optimisation de l’énergie des applications et des sites web a un sens dans l’empreinte environnementale du numérique. Certains voyant uniquement l’énergie du rechargement négligent cet aspect. Cependant on le voit dans cette projection, les gains environnementaux sont beaucoup plus importants. 

Ce chiffre est important et en même temps faible : 47 Millions de Teq CO2 pour le monde, c’est 6% de l’empreinte française. Cependant, le CO2 n’est pas l’unique métrique à regarder. Autre problématique par exemple non négligeable : la pénurie de Lithium en 2025 mais aussi l’eau.

A tout cela, il faudrait ajouter des problématiques associées aux nouvelles pratiques et nouveaux matériaux : 

… la filière évolue sans cesse, pour répondre à des enjeux tantôt commerciaux, tantôt économiques, tantôt réglementaires. L’exemple de la batterie illustre bien cette tendance. Alors que l’on s’était familiarisé avec les batteries lithium-ion « classiques » qui contiennent principalement du lithium, du carbone, du fluor, du phosphore, du cobalt, du manganèse et de l’aluminium, de nouveaux modèles sont apparus, d’abord les batteries lithium-ion-polymère puis les batteries lithium-métal-polymère. Le cortège métallique possible, déjà conséquent, a donc été considérablement augmenté ; avec le fer, le vanadium, le manganèse, le nickel mais aussi des terres rares (cérium, lanthane, néodyme et praséodyme).

Association SystExt (Systèmes extractifs et Environnements)  https://www.systext.org/node/968 

En prenant en compte les problématiques environnementales, sociales et géopolitiques qu’impliquent les batteries, la division par 2 du nombre de batteries utilisées n’est vraiment pas suffisante ! Cela veut dire que les puits d’optimisations doivent maintenant être activés. Et si l’on veut atteindre des objectifs ambitieux, tous les acteurs, constructeurs, éditeurs d’OS et de navigateurs, acteurs du numérique… ont leur part de travail. Continuer à incanter des réductions magiques issues des technologies, à dire que l’énergie ne doit pas être optimisée, à reporter la faute à d’autres acteurs ou d’autres secteurs, expliquer que se focaliser sur les usages est une erreur… ne fait que décaler le problème. Il est nécessaire de tous se retrousser les manches et de résoudre le problème dès maintenant ! 

 

1 heure de visualisation Netflix équivaut à 100 gEqCO2. Et alors ?

Reading Time: 8 minutes

Netflix, ainsi que d’autres acteurs comme la BBC, a étudié avec l’appui de l’Université de Bristol : l’impact de son service. Les chiffres précis et la méthodologie seront publiés prochainement mais il en ressort qu’une heure de visualisation de Netflix, est équivalent à 100 gEqCO2.

À la sortie de cette communication, plusieurs acteurs du numérique ont repris ce chiffre, mais, à mon avis, pas pour de bonnes raisons. La communication de l’impact de la vidéo par le Shift Project ressort comme un point systématique de débat. En mars 2020, la publication du Shift avait été largement diffusée dans les médias avec une erreur importante d’évaluation. Cette erreur avait été corrigée en Juin 2020 mais le mal était fait.

L’IEA avait dans ce cadre réalisé une analyse contradictoire sur le sujet. Au final, de nombreuses études sur l’impact de la vidéo sont sorties (IEA, le ministère Allemand de l’environnement, nous même avec notre étude sur l’impact de la lecture d’une vidéo Canal+). Il est toujours difficile mais pas impossible de comparer les chiffres (par exemple, la prise en compte ou non de l’étape de fabrication, la représentativité des terminaux, les différentes infrastructures et optimisations entre acteurs…), cependant, si on prend des choses comparables, toutes les études ont des ordres de grandeur proches. En prenant la correction de l’erreur du Shift Project (Ratio 8 issus d’une erreur entre Byte et Bit), les chiffres sont aussi proches.

Que disent-les études ?

Mais au-delà des discussions sur les chiffres, si on examine en détail les études, les conclusions vont dans le même sens :

  • Indépendamment du coût unitaire, il y a une croissance importante des usages et de l’impact global.


Set against all this is the fact that consumption of streaming media is growing rapidly. Netflix subscriptions grew 20% last year to 167m, while electricity consumption rose 84%.

« Les abonnements Netflix ont augmenté de 20% l’an dernier pour atteindre 167 millions, tandis que la consommation d’électricité a augmenté de 84%. » (IEA)

  • L’impact des services numériques est relativement faible par rapport à l’impact d’autres activités. Il est cependant nécessaire de continuer à étudier et surveiller cet impact.

« What is indisputable is the need to keep a close eye on the explosive growth of Netflix and other digital technologies and services to ensure society is receiving maximum benefits, while minimising the negative consequences – including on electricity use and carbon emissions. »

« Ce qui est incontestable, c’est la nécessité de surveiller de près la croissance explosive de Netflix et d’autres technologies et services numériques pour s’assurer que la société en profite au maximum, tout en minimisant les conséquences négatives – y compris sur la consommation d’électricité et les émissions de carbone. » (IEA)

  • Les entreprises concernées ont pour but de mieux mesurer leur impact et d’identifier les vrais axes d’optimisation.

“Netflix isn’t the only company using DIMPACT right now, either. The BBC, ITV and Sky are also involved. A spokesperson from ITV says that, like Netflix, the tool will help it to find and target hot spots and reduce emissions. Making such decisions based on accurate data is crucial if digital media companies are to get a grip on their carbon footprints.”

« Netflix n’est pas non plus la seule entreprise à utiliser DIMPACT à l’heure actuelle. La BBC, ITV et Sky sont également impliquées. Un porte-parole d’ITV a déclaré que, comme Netflix, l’outil l’aidera à trouver et à cibler les points chauds et à réduire les émissions. Prendre de telles décisions sur la base de données précises est crucial si les entreprises de médias numériques veulent maîtriser leur empreinte carbone. » (Projet DIMPACT)

“Ces travaux nous permettent tout d’abord d’identifier les projets techniques à prioriser pour minimiser le plus fortement le bilan carbone de la consommation vidéo de myCANAL. En parallèle, les enseignements nous orientent sur les messages de sensibilisation à relayer auprès de nos utilisateur·rices, au long de nos prochaines évolutions. Cet engagement de coopération entre nos développements techniques et nos utilisateur·rices est la clé pour une consommation moins impactante pour l’environnement. “ (Témoignage du CDO de Canal+, étude Greenspector de l’impact de la lecture d’une vidéo)

  • L’impact de la vidéo peut être faible mais il est nécessaire de bien le mesurer (point précédent).

« The most recent findings now show us that it is possible to stream data without negatively impacting the climate if you do it right and choose the right method for data transmission ».

« Les découvertes les plus récentes nous montrent maintenant qu’il est possible de diffuser des données sans impact négatif sur le climat si vous le faites correctement en choisissant la bonne méthode de transmission des données. »

Est-ce que les discussions vont dans le bon sens ?

Les erreurs de certaines études n’ont pas aidé à l’apaisement des discussions. La médiatisation de ces chiffres non plus. Cependant, il ne faut pas être dupe, dire que le numérique a un impact n’est pas forcément bien accepté par tous les acteurs. Cela peut être une gêne pour un domaine qui depuis 30 ans est habitué à un paradigme de développement sans très peu de contrainte et surtout très peu d’intérêt pour les problématiques environnementales internes. Rappelons que la loi de Moore qui dirige beaucoup ce monde numérique est une prophétie-autoréalisatrice et pas une loi scientifique : l’industrie met en place des moyens financiers et techniques pour que la puissance des processeurs augmente régulièrement. Il ne faut pas être dupe car se focaliser sur certaines erreurs permet de ne pas prendre en compte les problématiques. J’ai observé uniquement des citations de l’erreur Shift Project dans l’annonce DIMPACT de Netflix mais aucunement des citations sur le souhait de Netflix de mesurer et réduire son impact. Nous devons accepter les erreurs du passé si nous souhaitons avancer sur ce sujet. L’étude du Shift a le mérite d’avoir mis au-devant de la scène une problématique qui avait du mal à être visible. Et aussi accepter ces propres erreurs, combien de promesses du numérique n’ont pas été (encore) prouvées ? Est-ce que les externalités positives du numérique ont été chiffrées scientifiquement par un nombre suffisant d’étude ? Cette dernière analyse montre que les quelques études existantes (Principalement 2 études Carbon Trust et la GSMA) méritent beaucoup plus de travail pour affirmer le bénéfice énorme annoncé du numérique.

« L’étude des affirmations d’impacts positifs du numérique sur le climat permet de conclure que celles-ci ne peuvent pas être utilisées pour informer les décisions politiques ou la recherche. Elles reposent sur des données extrêmement parcellaires et des hypothèses trop optimistes pour extrapoler des estimations globales. De plus, les deux rapports étudiés ne voient pas les évitements dans les mêmes secteurs, voire se contredisent« 

Il est même dommage de se focaliser sur un aspect de l’impact en écartant la problématique globale. C’est le cas sur la discussion de l’impact du réseau sur la partie énergétique. La méthode de calcul basée sur la métrique kWh/Gb même si partagée par la quasi-totalité des études et des équipes internes des opérateurs, est critiquée par certains. Cette méthode est en effet perfectible mais il faut remettre l’église au milieu du village : l’impact du réseau est dans tous les cas plus faible que la partie Terminal, la partie fabrication du matériel n’est jamais discutée dans ces débats alors que c’est la problématique principale de l’impact du numérique. D’autant plus que l’amélioration énergétique du réseau et des datacenters se base sur un principe contraire à l’impact du matériel : le renouvellement régulier du matériel pour mettre en place de nouvelles technologies plus efficaces.

Google a été critiqué pour la politique de déchet de ses serveurs. Les pratiques ont été améliorées mais on peut se poser des questions sur cette gestion : même si les serveurs sont revendus et le coût environnemental est amorti pour l’acheteur, cela ne change rien dans le cycle trop important de renouvellement

« We’re also working to design out waste, embedding circular economy principles into our server management by reusing materials multiple times.In 2018, 19% of components used for machine upgrades were refurbished inventory. When we can’t find a new use for our equipment, we completely erase any components that stored data and then resell them. In 2018, we resold nearly 3.5 million units into the secondary market for reuse byother organizations. »

« En 2018, nous avons revendu près de 3,5 millions d’unités sur le marché secondaire pour réutilisation par d’autres organisations. » (Google Environmental Report 2019).

Une des premières explications de ces discussions tranchées vient souvent du manque de sensibilisation aux problématiques environnementales du numérique. Mais derrière cela il existe une explication aussi plus sociologique : On reproche des croyances “écologiques » à certaines organisations. Cependant on peut aussi parler de croyance chez certains acteurs du numérique quand on idolâtre sans critique les bénéfices du numérique. Dans ce cas, pas sûr que ces discussions aillent dans le bon sens. “Technophobe” contre “Techno-béa”, les raisonnés ont du mal à prendre leur place au milieu. Plusieurs pistes sont cependant utiles pour avancer sereinement sur l’impact du numérique!

Limitons les comparaisons entre domaine

Les comparaisons de l’impact environnemental du numérique avec d’autres domaines est un piège. Il est nécessaire pour comprendre un impact CO2 abstrait. Nous l’utilisons nous-même pour effectuer cette sensibilisation. Cependant cela amène à des conclusions parfois biaisées.

Voici le chapeau utilisé par les Echos ! « Netflix affirme qu’une heure de streaming sur sa plate-forme génère moins de 100gCO2e. Soit l’équivalent de l’utilisation d’un ventilateur de 75 W pendant 6 heures en Europe, ou d’un climatiseur de 1.000 W fonctionnant pendant 40 minutes.”

Donc une heure de streaming c’est faible ? Oui et non. Car il faut le voir d’un niveau “macro” : les heures de visionnage mondiales explosent. Et Netflix n’est pas le seul service numérique qu’on utilise. Est-ce possible de le comparer à du temps de ventilateur ? Un foyer va pouvoir visualiser 4 flux en même temps pendant plusieurs heures, on n’est pas sur les mêmes importances d’usage avec un ventilateur (Peut-être que si avec le réchauffement climatique…).

Ce qui est important c’est que cette métrique va permettre aux concepteurs de service de suivre leur amélioration. Avec le détail de cet impact, ils vont pouvoir identifier les hotspots. Elle va permettre de se comparer à un concurrent et de se positionner.

Utiliser ces chiffres pour dire que l’impact du numérique est énorme ou est nul ne sert pas à grand-chose dans le débat. Tous les domaines doivent réduire leurs impacts, les challenges à venir sont énormes et ce type de comparaison n’aide pas forcément dans la dynamique d’amélioration. Par contre, plus ce type d’étude sortira, plus on aura une cartographie précise de l’impact du numérique.

Collaborons

Les modèles ACV sont critiqués pour leur manque de fiabilité. Ok, est-ce une raison pour abandonner l’analyse de l’impact du numérique ? Cela en arrangerait bien certains !

Il est surtout nécessaire de les améliorer. Et cela viendra par plus de transparence : des ACV publiques des constructeurs de matériel, des métriques de consommation de l’énergie remontées par les hébergeurs et même plus d’informations sur le renouvellement des parcs… Certains acteurs jouent le jeu, c’est ce que nous avons pu faire par exemple avec Canal+ et cela a permis d’avoir des données fiables sur les parties datacenters, CDN et terminaux. Le manque de transparence est cependant important dans ce secteur quand il s’agit du domaine de l’impact environnemental.

Il est de plus nécessaire d’éviter de toujours rejeter la faute sur les autres secteurs. Dans ces discussions sur l’impact de la vidéo, et plus globalement du numérique, je vois continuellement des arguments “c’est pas moi c’est lui”. Par exemple, c’est sur le matériel qu’il faut agir, sous-entendu le logiciel n’est pas responsable de l’impact. Encore une fois, le contexte environnemental est critique, il n’y a pas de solution miracle et tout le monde doit agir. S’affranchir des actions en pointant du doigt d’autres acteurs n’est pas sérieux. L’idée de la mesure de l’impact du numérique n’est pas de faire du “numérique bashing » mais bien de l’améliorer. Donc il n’y a aucune raison de ne pas prendre en compte ces problématiques, à moins d’aller dans une démarche de lobbying et vouloir aller vers une libéralisation totale du numérique.

Pour avoir vu ce domaine évoluer depuis 10 ans, je peux dire qu’il y a une réelle prise de conscience de certains acteurs. Il est possible de nier encore l’impact du numérique, mais c’est un risque dangereux. Dangereux car il est clair que les objectifs environnementaux vont être de plus en plus contraignants, que cela plaise ou non. Ne pas prendre en main cette problématique, c’est la laisser à d’autres personnes. C’est ce que l’on voit aujourd’hui : certains se plaignent des législations sur le numérique. Mais qu’ont-ils fait ces 10 dernières années alors que cette problématique était connue ? Par crainte que cela ne freine le développement du numérique français par rapport à d’autres pays? Et pourquoi ne pas plutôt voir la sobriété numérique comme un facteur concurrentiel de notre industrie ? On voit d’ailleurs que la sobriété est prise en compte par de nombreux pays (Le projet DIMPACT en est un exemple). La France a une avance avec de nombreux acteurs qui traitent de la sobriété. Il est temps d’agir, de collaborer sur ces sujets, de critiquer les méthodes pour les améliorer, de se mesurer, que chacun agisse sur son domaine d’expertise.

C’est cela qui guide notre stratégie R&D, fournir un outil de mesure précis de la consommation d’énergie et de l’impact des terminaux. Nous travaillons à améliorer la fiabilité des mesures dans ce domaine, pour tenter d’apporter des éléments de réflexions et des métriques. En espérant que les débats soient non manichéens et plus constructifs et que le domaine du numérique prenne pleinement en compte la problématique environnementale

Quelles ressources réduire dans le cadre de bonnes pratiques d’éco-conception logicielle : Traitements côté serveurs ou côté utilisateurs ?

Reading Time: 3 minutes

Une des premières réponses à la question “quelles ressources” est : toutes ! Mais il est nécessaire d’avoir une réponse plus précise car certaines pratiques vont privilégier une économie côté serveurs, d’autres côté mémoire plutôt que CPU. Il y a des optimisations gagnantes pour tous les domaines mais malheureusement, le comportement des systèmes informatiques est plus capricieux !  

La piste directrice est la prolongation de la durée de vie du matériel, que ce soit pour le terminal ou pour les serveurs. On verra que pour des gains environnementaux, la diminution de l’énergie sera elle aussi une piste. 

Dans un précédent article, nous traitions de la nécessité d’optimiser l’énergie dans le cas des appareils mobiles. Aujourd’hui nous tentons de répondre à la question : quelle architecture mettre en place, et en particulier mettre les traitements côté utilisateurs ou côté serveurs ? 

La réponse est : traitement côté serveur à privilégier…

La réponse est plutôt simple : chargeons les serveurs ! En effet, lorsqu’on prend les ACV et les analyses d’impact, on observe un impact beaucoup plus fort côté utilisateurs (Exemple avec notre étude sur l’impact de la lecture d’une vidéo). Les serveurs sont mutualisés et sont optimisés pour absorber une charge. Le gestionnaire pourra de plus gérer des fluctuations de charge avec du Power Capping (absorption de pic de charge en maintenant une consommation d’énergie maîtrisée). La durée de vie des serveurs pourra elle aussi être gérée (du matériel pouvant aller jusqu’à 10 ans de durée de vie). Le respect d’une politique Green IT pourra aussi être mieux suivi et partagé.

Les terminaux quant à eux, malgré des processeurs puissants, n’ont pas ces avantages. Très peu de maîtrise de la durée de vie, pas de gestion de la santé du système, une fragmentation des puissances et donc des comportements…

…mais attention aux ressources et à la scalabilité

S’il est préférable de placer les calculs côté serveurs, cela n’est pas une excuse pour ne pas optimiser l’impact côté serveurs. La scalabilité et la montée en charge est possible mais à surveiller. Car rajouter une instance virtuelle aura un impact sur le futur besoin d’ajout de machine physique et donc viendra alourdir l’impact environnemental.

De plus, limiter la consommation d’énergie sera nécessaire car une forte demande en énergie se transférera en une augmentation de la puissance consommée sur la baie de serveurs et des besoins de refroidissement plus forts.

Et le coût des allers retours des allers-retours réseau dans ce cas ?

La question se pose sur les échanges réseaux si l’on déplace des calculs côté serveurs. Il s’agit actuellement d’un faux problème car les échanges sont trop nombreux. La ressource réseau et serveurs étant vue comme « gratuite” et les architectures allant de plus en plus vers du service / micro service, les traitements côté utilisateurs appellent trop les datacenters. Il faudra plutôt maîtriser le nombre d’échanges réseau, quel que soit le choix d’architecture.

Est-ce le cas actuellement dans les pratiques d’architecture ?

Cela n’a pas été la tendance de ces dernières années. En effet, l’arrivée de plateformes utilisateurs puissantes, i.e. avec des processeurs multicœurs et des connexions réseaux performantes, ont poussé à déplacer beaucoup de traitements côté utilisateur. Les Frameworks de développement, en particulier les Frameworks JavaScript, ont permis cela.

Cependant, la tendance commence à s’inverser. On peut notamment citer le Server-Side Rendering (SSR) avec par exemple next.js ou la génération de blogs statiques avec Hugo. On peut aussi voir les techniques maximisant l’usage des éléments déjà présents sur le terminal de l’utilisateur comme le moteur du navigateur web en utilisant plutôt du CSS que du JS.

Nous tenterons de répondre dans les prochains articles : quelles ressources (CPU, mémoire…) doit-on optimiser en priorité ?

Smartphones utilisateurs : tout savoir sur l’impact environnemental et l’usure des batteries

Reading Time: 4 minutes

Terminaux utilisateurs : l’impact environnemental élevé de la phase de fabrication

Les terminaux utilisateurs sont désormais les plus gros contributeurs à l’impact environnemental du numérique et ce phénomène est amené à se renforcer. Cette tendance s’explique principalement par un équipement de plus en plus important des foyers en smartphones, par une durée de vie réduite de ces équipements et par le fait que ces derniers ont un impact environnemental important. Impact qui est principalement dû à la phase de fabrication du smartphone. La marque Ericson annonce par exemple un impact en usage (i.e. lié à la recharge en énergie de la batterie du smartphone) de 7 kg eqCO2 sur un impact total de 57 kg eqCO2, soit seulement 12% de l’impact total. L’impact total prend en compte les différentes phases du cycle de vie du smartphone : fabrication, distribution, usage, traitement du smartphone en fin de vie.

D’où l’intéret que les constructeurs travaillent sur cette énergie grise en éco-concevant mais aussi en améliorant la possibilité d’augmenter la durée de vie du matériel via la réparabilité mais aussi la durabilité.

Au regard de tous ces constats, il pourrait paraître non-productif du point de vue environnemental de réduire la consommation d’énergie des smartphones. En tout cas, l’approche simpliste serait de mettre cet impact de côté. Mais la réalité est tout autre et les flux électriques qui sont mis en jeu dans la phase d’usage des appareils mobiles sont beaucoup plus complexes que l’on ne pourrait le croire.

Explication du fonctionnement des batteries

Les smartphones actuels sont alimentés par des batteries avec la technologie Lithium-ion. En moyenne les capacités des batteries du marché sont de 3000 mAh. La tendance est à l’augmentation de cette capacité. La batterie peut être considérée comme un consommable, tout comme une cartouche d’imprimante. Elle s’use avec le temps et la capacité initiale que vous possédiez lors de l’achat du smartphone n’est plus totalement disponible. C’est-à-dire que le 100 % indiqué par le téléphone ne correspond plus aux 3000 mAh mais à une capacité moindre. Et cette capacité initiale ne peut alors pas être récupérée.

L’usure de la batterie est principalement créée par les cycles de recharges et décharges complets. Un cycle de recharge/décharge correspond à une batterie vide que l’on rechargerait à 100 %. Je pars de chez moi le matin avec un téléphone chargé à 100 %, la batterie se vide, je recharge mon téléphone le soir à 100 %. Un cycle complet en une journée donc !

Si vous rechargez plus souvent votre téléphone, vous pourrez faire plus de cycles (plusieurs cycles incomplets sont au final équivalents à un cycle complet).

Plus le nombre de cycles croît, plus la capacité restante diminue. Cette usure amène à la fin de vie de la batterie. Les technologies actuelles permettent d’aller environ jusqu’à 500 cycles.

Arrivée en fin de cycle, la capacité de la batterie n’est plus que de 70 % de la capacité initiale. Au-delà de cette perte gênante d’autonomie, la batterie subit certaines anomalies, comme par exemple le passage rapide d’un niveau de batterie de 10 % à 0 %.

À noter que cet effet va être renforcé par l’intensité de la décharge de la batterie : si le téléphone consomme énormément (par exemple lors d’une lecture de vidéo), alors l’usure de la batterie va être plus importante.

Impact sur l’obsolescence

La perte d’autonomie est une cause de renouvellement par les utilisateurs : 39% en 2018. Phénomène renforcé par le fait que les batteries sont de plus en plus non amovibles, ce qui engendre un remplacement complet du smartphone par l’utilisateur. De plus, même si la baisse de l’autonomie n’est pas l’unique critère de remplacement, il s’additionnera aux autres causes pour créer un ensemble de signes indiquant à l’utilisateur qu’il doit changer son smartphone (effet marketing, puissance, nouvelles fonctionnalités…).

On peut donc facilement faire le lien entre les mAh consommées par les applications et le CO2 dû à la fabrication. En réduisant ces mAh, on réduirait largement l’usure de la batterie, la durée de vie des smartphone serait élargie en moyenne et donc le coût CO2 initial serait davantage rentabilisé. Le mAh du smartphone présente un coût beaucoup plus important sur l’énergie grise du smartphone (fabrication) que sur l’impact de l’énergie pour le recharger.

Par exemple pour un smartphone classique, l’impact en tenant compte  de la fabrication est de 14 mgCO2/mAh, contre seulement 0,22 mgCo2/mAh si on ne considère que l’énergie nécessaire à la recharge ! C’est ce facteur d’émissions (14 mgCO2/mAh) que nous utilisons dans nos évaluations d’impact. Nous vous encourageons à l’utiliser également.

Solution technologique

Résoudre cette problématique peut toujours se voir au travers de l’axe technologique : augmentation des capacités, chargement rapide… Si l’on prend le cas du chargement rapide, cela ne va pas changer le problème, bien au contraire, cela va l’aggraver en augmentant potentiellement les cycles. Ce n’est pas en augmentant le réservoir des voitures que l’on va réduire l’impact de l’automobile. Améliorer les technologies batterie est bénéfique, cependant une diminution de la consommation des smartphones serait encore plus bénéfique pour l’environnement et l’utilisateur.

À noter que l’impact CO2 n’est pas le seul indicateur à prendre en compte, en effet la fabrication des batterie est globalement très couteuse en termes environnemental et social. Sans compter les ressources stratégiques avec des impacts géopolitiques comme le cobalt ou le lithium. Prolonger la durée de vie des batterie est critique.

Sobriété numérique partout, sobriété numérique nulle part ? 7 erreurs à éviter !

Reading Time: 4 minutes

Tout le monde parle de sobriété numérique. Des agences web aux politiques, en passant par les ESN, tous communiquent sur le sujet, sur l’explication de l’impact, sur des bonnes pratiques, sur la volonté d’y aller. Mais qu’en est-il réellement ? 

Nous travaillons sur le sujet au sein de Greenspector depuis 10 ans et nous pouvons en toute modestie donner notre avis sur la réelle situation des acteurs et surtout sur les barrières qu’il va falloir passer pour réellement faire de l’éco-conception et de la sobriété. 

Nous avons sensibilisé des développeurs, des étudiants et des dirigeants. Nous avons accompagné des équipes, appliqué des bonnes pratiques. Nous avons mesuré des applications et sites web. Il en fallait de la motivation pour garder le cap. Car le contexte est différent, et nous sommes heureux de voir autant de communication et d’acteurs concernés. Nous pensons cependant que tout n’est pas gagné ! Voici quelques conseils et analyses d’anciens du domaine, regroupés en 7 erreurs à éviter !  

Associer la sobriété numérique uniquement à un métier

Dans de nombreuses actions que nous avons menées, une composante importante était nécessaire : la prise en compte du problème à toutes les étapes. Développeur, designer, Product Owner, décideur. Et Client.. Sans cela, le projet n’ira pas loin. Un projet non financé, des besoins de recherche d’optimisation non voulus par les devs, des améliorations techniques non acceptées par les Product Owners… Au mieux, les améliorations seront faites mais avec peu de gain. 

La solution, engager une démarche partagée. Cela prend un peu plus de temps (et encore !) mais permet au projet d’être compris par tous et accepté. 

Se focaliser uniquement sur les pratiques de codage 

La solution miracle quand on pense sobriété numérique est de se dire que si les développeurs respectent les bonnes pratiques, tout ira bien. On peut en parler, on a débuté un projet de R&D (Code Vert), il y a plus de 8 ans sur cet axe. C’était nécessaire mais pas suffisant. En effet, il faut également travailler sur les fonctionnalités, le design, les contenus, l’infra…  

La mise en place d’un référentiel sera un axe important mais plus dans un premier temps pour initier une démarche de sensibilisation. Il ne faut surtout pas se dire qu’il faudra appliquer 115 bonnes pratiques sur la quasi-totalité d’un site car l’effort sera énorme et les résultats ne seront pas forcément au rendez-vous.

Ne pas utiliser d’outils professionnels

De nombreux outils ont vu le jour pour évaluer les sites web. En effet, il est assez simple dans le web de surveiller certaines métriques techniques comme la taille des données échangées sur le réseau ou la taille du DOM et de modéliser un impact environnemental. C’est très bien pour sensibiliser et pour identifier des sites beaucoup trop lourds. Par contre le système sur lequel fonctionne le logiciel n’est pas si simple et l’impact peut venir de beaucoup plus d’éléments : Un script JS qui consomme, une animation…  

Passer à l’action avec ce type d’outil permet de lancer la démarche mais dire que le logiciel est sobre par ce qu’on a réduit la taille de données et la taille du DOM est à la limite du greenwashing. 

Nous ne disons pas cela parce que nous sommes éditeurs mais parce que nous sommes convaincus qu’il est nécessaire de professionnaliser les actions.

Se battre sur les définitions et les principes

Nous l’avons vécu ! Nous avons été critiqués pour notre approche sur l’énergie. La naissance d’un domaine amène à la mise en place de nouveaux principes, de nouveaux domaines, de nouvelles définitions… C’est normal et cela nécessite souvent de longues discussions. Mais avons-nous réellement le temps de débattre ? Sont-elles nécessaires quand on s’est mis d’accord sur le fait que nous devons tous réduire l’impact de nos activités ? La complexité du numérique et de l’obésiciel est bien là et se ressent à tous les niveaux. Il est temps d’améliorer globalement nos pratiques, toutes les volontés sont bonnes, tous les axes sont à explorer. 

Chercher les gros consommateurs 

Les constats sur l’impact du numérique sont de plus en plus partagés. Cependant les équipes peuvent être amenées à chercher des excuses ou des responsables et ne pas faire des corrections qui leur semblent plus mineures. Pourquoi optimiser sa solution alors que le bitcoin est un gouffre de consommation ? Pourquoi réduire l’impact du front alors que les éditeurs de librairies ou dépendances ne font rien ?  La priorisation est importante mais elle est souvent une mauvaise excuse pour ne pas rechercher les gains sur son domaine.  

TOUTES les solutions sont beaucoup trop lourdes. Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes, … c’est bien. 3 secondes ? Avec les multicœurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…), c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent. Et cela convient à tout le monde (du moins, en apparence : Le monde du logiciel est en train de se détruire, manifeste pour un développement plus durable.)

Débutons maintenant les optimisations en ne cherchant pas des coupables ! 

Penser uniquement évolution technologique 

Nous sommes des techniciens, nous cherchons des solutions techniques pour résoudre nos problèmes. Et donc dans le domaine du numérique, nous recherchons des nouvelles pratiques, des nouveaux frameworks. Et les nouveaux frameworks sont plein de promesses en termes de performance, nous les croyons ! Par contre c’est une course à l’armement qui nous coûte des ressources. Cette évolution est surement nécessaire dans certains cas mais il ne faut pas uniquement se focaliser sur cela. Il faut aussi investir les domaines transversaux : accessibilité, test, sobriété, qualité…  Et sur l’humain, car ce sont les équipes qui trouveront les solutions pour des services numériques sobres.   

Ne pas investir  

Les bonnes volontés et les prises de conscience sont nécessaires, par contre il faut financer le changement. Car la sobriété numérique est un changement. Nos organisations, nos outils ne sont nativement pas faits pour la sobriété. Sinon nous n’aurions actuellement pas ce constat sur l’impact du numérique. Il est donc nécessaire d’investir un minimum pour former les gens, pour s’outiller, pour prévoir du temps pour les équipes sur le domaine. Faire un webinar et une formation ne suffisent pas ! 

Ayons des engagements liés au niveau de l’enjeu et des impacts du numérique sur l’environnement ! 

Quels sont les meilleurs navigateurs web Android à utiliser en 2021 ?

Reading Time: 8 minutes

Le navigateur internet est l’outil primordial sur un appareil mobile. Il est le moteur pour naviguer sur internet. Plus uniquement pour les sites web mais aussi maintenant pour les nouveaux types d’applications basées sur les technologies web (progressive web app, jeux…).

Pour cette nouvelle édition de notre classement, réalisé en 2018 et en 2020, nous avons choisi de comparer 16 applications mobiles : Brave, DuckDuckGo, Chrome, Ecosia, Edge, Firefox, Firefox Focus, Firefox Nightly (anciennement Preview), Kiwi, Mint, Opera, Opera Mini, Qwant, Samsung, Vivaldi et Yandex.

L’objectif de ces mesures est de voir comment les solutions se situent en termes d’impact environnemental (émission Carbone) les unes par rapport aux autres sur des scénarios utilisateurs courants mais aussi de donner des repères sur nos usages des navigateurs.

Pour chacune de ces applications mesurées sur un smartphone Galaxy S7 (Android 8), les scénarios intégrant le lancement du navigateur, la navigation sur 7 sites web différents, les périodes d’inactivité etc. ont été réalisés au travers de notre Greenspector Test Runner, permettant la réalisation de tests automatisés.

En savoir plus sur la méthodologie

Consommation d’énergie tous parcours confondus (en mAh)

La moyenne de consommation d’énergie est de 49 mAh (pour rappel, la moyenne du classement 2020 était de 47mAh, soit +4,2% en 2021).

Voici l’évolution par rapport à l’année dernière.

Classement 2021Classement 2020Évolution
Firefox Focus1109
Vivaldi242
DuckDuckGo352
Firefox Nighly4106
Yandex53-2
Kiwi682
Opéra72-5
Brave87-1
Ecosia91-8
Chrome106-4
Samsung119-2
Firefox12131
Edge1311-2
Qwant1413-1
Opera Mini1514-1
Mint1612-4

Firefox Focus et la meilleure solution en termes de consommation énergétique de notre comparatif. La version évaluée en 2020 était une des premières versions et il semble que les équipes Firefox ont travaillé sur l’optimisation de la consommation d’énergie de leur navigateur depuis. Ecosia perd sa place de leader sur cet indicateur et se retrouve en milieu de classement. Du côté des navigateurs les plus énergivores on retrouve Mint et Opera Mini. À noter que les navigateurs les plus répandus : Edge, Firefox, Chrome et Samsung, sont assez mal classés.

Cette consommation totale d’énergie peut être évaluée et analysée en 2 domaines : la consommation d’énergie de la navigation pure et la consommation d’énergie liée aux fonctionnalités du navigateur. 

Consommation d’énergie de la navigation (en mAh)

La navigation est la consommation uniquement associée à la visualisation de la page (pas de prise en compte du lancement du navigateur, des fonctionnalités…).

La plupart des navigateurs ont une consommation d’énergie sur la navigation “pure” qui est assez proche. Ceci s’explique principalement sur l’usage des moteurs de visualisation. La plupart des navigateurs utilisent le moteur de visualisation Chromium.

Par rapport au classement 2020, il semble que le moteur Firefox se soit amélioré. Qwant, utilisant ce moteur aussi.

Consommation d’énergie des fonctionnalités (en mAh)

Les fonctionnalités intègrent les états du navigateur comme les périodes d’inactivités (idle), le lancement du navigateur, l’écriture des URLs dans la barre de navigation.

En gardant le même classement que pour l’énergie totale, on voit que les fonctionnalités hors navigation (écriture d’URL, inactivité du navigateur…) ont un impact non négligeable sur la consommation totale.

Autonomie (heures)

L’autonomie est le nombre d’heures pendant lesquelles l’utilisateur peut surfer avant que la batterie ne soit complètement déchargée. Le classement ne change pas par rapport à celui de l’énergie, l’autonomie étant directement liée à l’énergie.

On observe que l’autonomie peut doubler de 5h à 10h entre le navigateur le plus consommateur (Mint) et le moins consommateur (Firefox Focus).

Données (Volume de données échangées) (Mo)

Certaines applications ne gèrent pas du tout le cache pour des raisons de protection et de confidentialité des données, utilisent des proxy qui optimisent les données, ont une différence d’implémentation de la gestion du cache. De plus, si un navigateur est performant, la contrepartie est que beaucoup plus de données sont potentiellement chargées en arrière-plan. Dans notre méthodologie, on le constate pour le site New York Times plus volumineux en termes de données.

Voici un exemple des itérations de mesure sur le site Amazon (Amazon.com) qui montre la différence de traitement des données entre différents navigateurs.

Mémoire consommée (RAM) par le processus navigateur (Mo)

La consommation de mémoire est importante à prendre en compte dans un service numérique car même la variation de la consommation de mémoire n’influe pas sur l’impact énergétique, elle reste très importante à intégrer car des effets de surconsommations sur des smartphones déjà bien encombrés en mémoire, ou plus anciens, moins puissants, cela peut créer des instabilités ou des applications qui ne peuvent pas fonctionner simultanément car en concurrence. En terme écologique, cela peut bien sûr procurer un changement de smartphone prématuré côté utilisateur pour un modèle plus puissant pour satisfaire à un bon confort d’usage.

La variation va de 400 Mo à 1,8Go (soit environ la moitié de la RAM du Samsung Galaxy S7).

Observons plus précisément le comportement de la mémoire suite à la séquence :

1. Lancement navigateur
2. Inactivité Navigateur
3. Navigation (Moyenne de la consommation mémoire)
4. Inactivité suite à la navigation
5. Système après fermeture navigateur

Au lancement des navigateurs, on a une médiane d’utilisation de la mémoire de 413Mo. Edge consomme beaucoup plus avec 834Mo.

Si on laisse le navigateur inactif, la consommation mémoire de la plupart des navigateurs reste assez stable. Ce qui est plutôt bon et normal. Par contre, on voit que Edge et Ecosia ont une forte augmentation de la mémoire.

Ensuite, avec la navigation, la mémoire consommée augmente de façon importante. Cela s’explique par la consommation des moteurs de navigation pour analyser et stocker les éléments. La gestion des onglets va aussi jouer. Si le navigateur déleste la mémoire pour les onglets non actifs, alors la consommation sera plus faible.

On peut noter que Firefox Focus, Mint, Duck Duck go, Opéra Mini et Qwant consomment globalement peu de mémoire.

À la fermeture du navigateur, presque tous les onglets ne sont plus en mémoire. Firefox reste cependant avec 1Go ainsi que Chrome et Mint avec 100Mo environ. Probablement un bug mais qui est gênant car des éléments occupent encore la mémoire et des traitements peuvent aussi exister : les traitements sont confirmés sur Firefox et Mint avec le taux de CPU consommé par le processus du navigateur qui reste élevé.

On peut aussi regarder l’impact mémoire de la consultation de Wikipédia (La consommation de base du navigateur est ici soustraite).

On comprend bien la différence de gestion mémoire entre navigateurs et la potentielle entropie sur des sites plus lourds.

Performance

Nous avons mesuré le temps d’écriture de l’URL dans la barre d’adresse.

Cette différence de performance s’explique par plusieurs facteurs : échanges réseau lors de la saisie (auto-complétions), traitement lors de la saisie, recherche en base des adresses connues… Au final, pour l’utilisateur le temps pour avoir accès au site va être plus ou moins long. Exemple sur l’entrée de l’url Wikipédia sur Duck Duck Go: beaucoup d’échanges réseau et de traitements CPU (pic à 22% de CPU).

Contrairement à Edge plus rapide qui a des traitements plus faible en terme de CPU.

Au passage, on pourrait avoir une optimisation de tous les navigateurs en limitant ses traitements (par exemple en regroupant et espaçant les traitements).

Impact environnemental

L’impact environnemental est calculé en fonction des facteurs d’émission Greenspector prenant en compte l’énergie consommée et l’usure de la batterie (impact sur la fabrication). L’impact du réseau et du data center est pris en compte avec l’intensité internet.

Cet impact est ramené à la consultation d’une page.

Firefox Focus par sa faible consommation est premier. Samsung qui a une consommation d’énergie dans la moyenne est à la deuxième place grâce à bonne gestion des données.

Les navigateurs les plus impactants (Esosia, Edge, Mint et Opera Mini) ont une consommation d’énergie élevée et une mauvaise gestion des données.

Navigateurs évalués

Versions mesurées : Brave (1.18.75), Chrome (87.0.4280.101), DuckDuckGo (5.72.1), Ecosia (4.1.3), Edge (45.12.4.5121), Firefox (84.1.2), Firefox Focus (8.11.2), Firefox Nightly 201228), Kiwi (Git201216Gen426127039), Opera (61.2.3076.56749), Opera Mini (52.2.2254.54723), Qwant (3.5.0), Vivaldi (3.5.2115.80), Yandex (20.11.3.88), Mint (3.7.2), Samsung (13.0.2.9).

Scénario

Pour chacune de ses applications, mesurées sur un smartphone S7 (Android 8), les scénarios utilisateurs ont été réalisés au travers de notre Greenspector Test Runner, permettant la réalisation de tests automatisés.

Une fois l’application téléchargée et installée, nous exécutons nos mesures sur les paramètres de base et d’origine de l’application. Aucune modification n’est réalisée (même si certaines options permettent de réduire la consommation d’énergie ou ressources : mode économie de données, thème sombre etc.

Cependant nous vous encourageons à vérifier les paramètres de votre application favorite afin d’en optimiser l’impact. Voici le scénario évalué :

· Évaluation des fonctionnalités
o Lancement du navigateur
o Ajout d’un onglet
o Écriture d’une URL dans la barre de recherche
o Suppression des onglets et nettoyage du cache

· Navigation
o Lancement de 7 sites et attente pendant 30 secondes pour être représentatif d’un parcours utilisateur

· Benchmark navigateur
o Le benchmark Mozilla Kraken permet de tester la performance JavaScript

· Évaluation des périodes d’inactivité du navigateur
o Au lancement (cela permet d’évaluer la page d’accueil du navigateur)
o Après navigation
o Après fermeture du navigateur (pour identifier des problèmes de fermeture)

Pour chaque itération, on réalise les tests suivants :
· Suppression du cache et des onglets (sans mesure)
· Première mesure
· Deuxième mesure pour mesurer le comportement avec cache
· Suppression du cache et des onglets (avec mesure)
· Fermeture système du navigateur (et pas uniquement une fermeture par l’utilisateur pour s’assurer une réelle fermeture du navigateur)

La moyenne de mesure prend donc en compte une navigation avec et sans cache.

Les métriques principales analysées sont les suivantes : performance d’affichage, consommation d’énergie, échange de données. D’autres métriques telles la consommation CPU, la consommation mémoire, des données systèmes… sont mesurées mais ne seront pas affichées dans ce rapport. Contactez Greenspector pour en savoir plus.

Afin d’améliorer la stabilité des mesures, le protocole est totalement automatisé. Nous utilisons un langage abstrait de description de test Greenspector qui nous permet une automatisation poussée de ce protocole. Les configurations des navigateurs sont celles par défaut. Nous n’avons changé aucun paramètre du navigateur ou de son moteur de recherche.

Chaque mesure est la moyenne de 5 mesures homogènes (avec un écart-type faible).=

Évaluation de l’impact

Pour évaluer les impacts des infrastructures (datacenter, réseau) dans les calculs de projection carbone, nous nous sommes appuyés sur notre base de facteur d’émission (issus de notre R&D, comme par exemple l‘Étude d’impact de la lecture d’une vidéo Canal+ – Greenspector) avec en entrée les données réelles mesurées du volume de données échangées. Comme c’est une approche très macroscopique, elle est soumise à une incertitude et pourrait être affinée pour s’adapter à un contexte, à un outil donné. Pour la projection Carbone, nous avons pris l’hypothèse d’une projection 50% via un réseau Wi-Fi et 50% via un réseau mobile.

Pour évaluer les impacts du mobile dans les calculs de projections carbone, nous mesurons sur appareil réel, la consommation d’énergie du scénario utilisateur et afin d’intégrer la quote-part d’impact matériel, nous nous appuyons sur le taux d’usure théorique généré par le scénario utilisateur sur la batterie, première pièce d’usure d’un smartphone. 500 cycles de charges et de décharges complètes occasionnent donc dans notre modèle un changement de smartphone. Cette méthodologie et mode de calcul ont été validés par le cabinet de conseil spécialiste de l’éco-conception Evea.

Dans une démarche de progrès continu, nous sommes vigilants à améliorer sans cesse la cohérence de nos mesures ainsi que notre méthodologie de projections des données en impact CO2. De ce fait, il est difficilement possible de comparer une étude publiée un an plus tôt avec une étude récente.