Ce document synthétise la méthodologie utilisée par Greenspector pour évaluer l’impact environnemental des applications mobiles et des sites web. Il présente le framework de mesure de Greenspector et les rapports qu’il génère. L’objectif de ce framework est d’évaluer et de réduire l’impact environnemental des applications web et mobiles, en allongeant la durée de vie des batteries des appareils mobiles, en s’attaquant à l’obsolescence technologique et aux bloatwares, mais aussi en limitant leur poids sur les infrastructures réseau et back-end. La méthodologie de Greenspector s’appuie sur l’état de l’art industriel et scientifique, et ses détails techniques sont publiquement accessibles dans le livre blanc et les publications scientifiques de Greenspector.
Cadre de mesure
Greenspector évalue les performances des unités fonctionnelles des applications et sites Web, plutôt que les applications et les sites Web dans leur ensemble. Cette granularité permet d’évaluer indépendamment chaque fonctionnalité et chaque usage, et est conforme aux normes existantes (ISO 14040). Ces unités fonctionnelles représentent des parcours utilisateurs, c’est-à-dire un ensemble d’actions effectuées par un utilisateur. Ils sont automatisés avec GDSL, un langage propriétaire permettant des mesures cohérentes et reproductibles.
Les parcours utilisateurs sont exécutés sur les appareils physiques du banc de test de Greenspector. Ces appareils sont surveillés et stabilisés pour assurer que les résultats de performance sont valides. Leur consommation d’énergie et de données est surveillée tout au long de l’exécution des parcours utilisateur, et les données qui en résultent sont agrégées et fournies dans un rapport.
Plus précisément, chaque parcours reçoit une note évaluant son efficacité énergétique, sa consommation de données et sa durée, ainsi qu’une estimation de ses impacts environnementaux, à l’aide d’une méthode décrite ci-dessous. De plus, les données sont centralisées sur un tableau de bord permettant de suivre les performances de l’application analysée tout au long de son développement. D’autres métriques et indicateurs sont également surveillés, afin de permettre une analyse plus approfondie des résultats.
Le framework de mesure est résumé dans la figure suivante. L’application à évaluer et les parcours utilisateurs associés sont partagés à notre banc de test soit manuellement depuis un outil en ligne de commande, soit automatiquement à partir d’un pipeline CI/CD. Notre banc de test exécute les parcours utilisateurs sur des appareils physiques tout en surveillant leurs activité. Les données et les rapports qui en résultent sont fournis sur le portail Web Greenspector Studio. Si le test a été déclenché à partir d’un CI/CD, les notes des parcours peuvent être utilisées comme critère de réussite du pipeline.
Rapports fournis
Les 3 principaux indicateurs surveillés sont synthétisés en une seule note : l’Ecoscore. Cette note quantifie la qualité d’un parcours utilisateur donné, sur une échelle de 0 à 100, en fonction de trois critères : la durée de chaque étape du parcours, son utilisation du réseau et sa consommation d’énergie sur le terminal.
L’Ecoscore est fourni dans un rapport contenant des détails supplémentaires sur les performances de chaque étape du parcours étudié. Ce rapport permet de localiser les problèmes techniques et de conception, et de prioriser les corrections et les améliorations. Greenspector récompense les Ecoscores les plus élevés avec des labels d’éco-conception.
Ce rapport fournit également une estimation de l’impact environnemental des parcours utilisateurs dans sept catégories d’impact, conformément aux recommandations relatives à l’empreinte environnementale des produits (PEF), telles que le changement climatique, l’épuisement des ressources métalliques ou l’écotoxicité de l’eau douce. L’impact environnemental d’un parcours utilisateur est estimé en tenant compte de son impact sur les terminaux des utilisateurs finaux, le réseau et les infrastructures back-end. Cet impact tient également compte à la fois de la consommation d’énergie et de l‘impact sur le cycle de vie du matériel impliqué dans ces trois couches. Plus précisément, l’impact des appareils de l’utilisateur final est estimé à partir de la consommation d’énergie du parcours utilisateur, tandis que l’impact des infrastructures réseau et back-infrastructure est estimé à partir de l’utilisation des données du parcours. Cet impact permet d’explorer différents scénarios d’utilisation, tels que différents types de connectivité ou un mix électrique différent pour chacune des trois couches. L’impact individuel pour l’exécution d’un parcours utilisateur peut alors être mis à l’échelle du nombre d’exécutions du parcours sur une période donnée.
Le sujet des impacts environnementaux du numérique ne cesse de prendre de l’ampleur depuis quelques années. En particulier en France, où il bénéficie de la mise en place rapide d’un contexte légal structurant. Celui-ci avait été abordé dans un autre article du blog de Greenspector : https://greenspector.com/fr/le-cadre-legislatif-de-lecoconception-de-services-numeriques/
En tant qu’entreprise cherchant à réduire les impacts environnementaux et sociétaux du numérique, Greenspector a forcément à cœur d’explorer en détail ce sujet. Nous vous proposons donc ici de reprendre brièvement la loi REEN (Réduction de l’empreinte environnementale du numérique) pour ensuite nous intéresser au RGESN (Référentiel général d’écoconception de services numériques).
Cadre de la loi REEN
La loi REEN impose aux villes et intercommunalités de plus de 50 000 habitants de définir leur stratégie liée au Numérique Responsable d’ici 2025. Celle-ci inclut nécessairement des éléments liés à l’écoconception de services numériques. Toutefois, les collectivités se retrouvent souvent confrontées à un premier obstacle : le sujet de l’écoconception de services numériques est encore relativement récent. Ainsi, il peut être difficile de s’y retrouver, qu’il s’agisse de choisir un outil de mesure ou un guide ou référentiel permettant d’avancer efficacement sur le sujet.
C’est pourquoi un autre volet de la loi REEN est attendu de pied ferme par beaucoup : la définition des obligations légales d’écoconception de services numériques. Celle-ci devrait se faire sous la forme de 2 items :
Le RGESN que nous allons voir plus en détail dans cet article
Un décret d’application qui définit qui est soumis à ces obligations et avec quelles contraintes (quels types de services numériques, quels délais pour la mise en œuvre, quels livrables attendus, etc.).
Le référentiel pour tous les lier : le RGESN
Ses origines
En 2020, l’INR (Institution du Numérique Responsable) réunit une centaine (!) d’experts pour travailler sur un référentiel pour l’écoconception des services numériques. L’objectif : offrir des recommandations qui couvrent tous types de services numériques, sur toutes les étapes du cycle de vie et pour toutes les personnes impliquées. Bref, une approche holistique. Le chantier est colossal mais approche de l’arrivée à l’été 2021. Il donnera naissance au GR491, qui compte aujourd’hui 61 recommandations et 516 critères. Il devrait prochainement être une fois de plus mis à jour. Il constitue à ce jour une référence unique au monde sur laquelle s’appuyer.
Juste avant la mise en ligne de ce référentiel, la DINUM (Direction interministérielle du numérique) intervient. Son objectif est simple et tout à fait pertinent : s’appuyer sur les travaux réalisés pour pouvoir construire son propre référentiel. C’est ainsi que, à l’automne 2021, deux référentiels voient le jour : le GR491 et le RGESN.
Le RGESN a déjà été décliné en deux versions : la première proposée par la DINUM puis une nouvelle version proposée en consultation publique par l’ARCEP (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse) fin 2023.
La version finale a été mise à disposition le 17 mai 2024.
Son rôle
Les versions existantes du RGESN référentiel soulignent déjà ses spécificités. Dans le cas de l’accessibilité, le RGAA (Référentiel général d’amélioration de l’accessibilité) permet de contrôler l’accessibilité d’un service numérique en s’appuyant sur des critères issus des WCAG (Web Content Accessibility Guidelines) émises par le W3C (World Wide Web Consortium). Le cadre légal français impose de plus d’afficher la conformité notamment via une déclaration d’accessibilité mais aussi de publier un schéma pluriannuel de mise en accessibilité numérique de l’entité. Tous ces éléments sont consultables ici : https://accessibilite.numerique.gouv.fr/
Dans le cas du RGESN, la notion de déclaration d’écoconception est incluse directement dans le référentiel et son contenu détaillé au fil des critères. En revanche, ce référentiel ne s’appuie pas sur un référentiel international. En effet, les WSG (Web Sustainability Guidelines : Web Sustainability Guidelines (WSG) 1.0 [EN]) ont été publiées par le W3C après le RGESN. En conséquence, les WSG s’appuient en partie sur le RGESN et non l’inverse.
Dans le cas du RGESN, l’ambition n’est pas tant de “vérifier” qu’un service numérique est écoconçu que de vérifier qu’une démarche d’écoconception a bien été mise en place. Il devient ainsi possible d’embarquer toutes les parties prenantes sur le sujet (y compris l’hébergeur, les fournisseurs de services tiers mais aussi questionner la stratégie voire le modèle économique) et de s’inscrire dans une démarche d’amélioration continue. Cette approche est ambitieuse mais aussi liée au fait qu’il est compliqué voire impossible d’établir factuellement (via des critères purement techniques) si un service numérique est écoconçu ou non. Il s’agit plutôt de s’assurer qu’il s’inscrit bien dans une démarche d’écoconception.
Son contenu
La V1 (celle de la DINUM)
Dans sa première version, le RGESN propose 79 recommandations réparties en 8 familles :
Chaque recommandation se présente sous la forme suivante :
Objectif
Mise en œuvre
Moyen de test ou de contrôle
Ainsi, par exemple, la première recommandation du référentiel a pour nom “1.1 Le service numérique a-t-il été évalué favorablement en termes d’utilité en tenant compte de ses impacts environnementaux ?”
Son “Objectif” est de s’assurer que le service numérique que l’on cherche à écoconcevoir contribue bien aux Objectifs de Développement Durable (ODD).
Pour cela, la section “Mise en œuvre” propose quelques pistes pour vérifier cela ainsi que les éléments à préciser dans la déclaration d’écoconception.
Le “Moyen de test ou de contrôle” résume ce sur quoi s’interroger pour s’assurer que ce critère est satisfait.
On arrive ici sur l’une des limites de cette version du référentiel : l’objectif est louable mais il manque de moyens concrets de vérification et de mise en œuvre.
D’autres points sont soulevés par des experts du sujet mais l’outil reste important et nombreux sont ceux qui s’en emparent pour le tester sur le terrain.
Le référentiel définit certains éléments pour structurer la démarche d’écoconception notamment via :
La désignation d’un référent
La rédaction d’une déclaration d’écoconception (avec tous les détails relatifs à son contenu)
La mise en place d’une stratégie de mesure. En particulier, la définition d’un budget environnemental en visant entre autres une compatibilité plus large du service en termes de navigateurs, systèmes d’exploitation, types de terminaux et connectivité.
Les outils qui accompagnent le référentiel (une extension de navigateur, des templates de tableur Excel comme grille d’audit) sont les bienvenus mais parfois insuffisants sur le terrain. Notamment pour pouvoir mener plusieurs audits sur des services numériques différents ou pour pouvoir construire un plan d’action complet.
Cette version a été soumise en consultation publique deux ans après la première version.
Elle apporte quelques modifications significatives :
On passe de 79 à 91 critères, notamment via l’ajout d’une section “Apprentissage” (relative au machine learning) qui introduit 5 nouveaux critères.
En plus d’”Objectif”, “Mise en œuvre” et “Moyen de test ou de contrôle”, 3 nouveaux attributs apparaissent :
Niveau de difficulté
Niveau de priorité
Critères de non-applicabilité
Du fait de l’ajout du niveau de priorité, les recommandations sont au préalable regroupées par priorité. 20 d’entre elles sont identifiées comme prioritaires, en particulier toutes celles liées à la nouvelle section Apprentissage.
Au-delà de ces apports, la nouvelle version se démarque de la précédente en étant davantage opérationnelle : elle vise à fournir des éléments concrets pour faciliter la mise en place des recommandations.
On retrouve par exemple le même critère 1.1 mais présenté de façon plus complète :
Action identifiée comme prioritaire et facile à mettre en place, pas de cas de non-applicabilité
Objectif plus ou moins identique
Davantage d’informations de contexte pour aller plus loin dans la démarche de vérification des apports du service numérique en termes d’impacts environnementaux (et sociétaux)
Des outils concrets de contrôle : le questionnaire des Designers Éthiques et l’arbre de conséquences tel que formalisé par l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Energie). On retrouve d’ailleurs cet arbre de conséquences par la suite, dans le critère 2.1, dans le cadre des revues de conception.
Le critère relatif à la déclaration d’écoconception disparaît. Cette dernière n’en reste pas moins essentielle et son contenu défini au fil de différentes recommandations.
Un autre élément qui se dessine au fil de cette nouvelle version du référentiel est la mise en place d’une stratégie de mesure via la définition d’indicateurs environnementaux (a minima énergie primaire, émissions de gaz à effet de serre, consommation d’eau bleue et épuisement des ressources abiotiques) ainsi que d’une stratégie pour leur réduction et d’un budget environnemental via des seuils. Cette stratégie de mesure devrait également inclure des éléments relatifs à la vérification du bon fonctionnement du service numérique sur des terminaux et systèmes d’exploitation anciens (voire navigateurs anciens) ainsi qu’en connexion dégradée. Via les modifications apportées à la recommandation 4.4, cette stratégie de mesure doit s’étendre à des parcours utilisateurs.
C’est notamment sur ce sujet de la stratégie de mesure que Greenspector peut intervenir, aussi bien pour la construction de la stratégie que pour sa mise en place. Via la mesure proprement dite mais aussi la définition des indicateurs environnementaux, leur calcul de même que pour la définition des parcours et des terminaux et conditions de connexion. Ainsi, la démarche peut aujourd’hui s’appliquer aussi bien sur les sites web que les applications mobiles et les objets connectés.
Certains nouveaux critères font le lien avec le RGPD (Réglement général sur la protection des données), le RGS (Référentiel général de sécurité), l’IoT (Internet of Things donc les objets connectés) et l’open source. Aussi, la recommandation 2.6 impose de prendre en compte les impacts environnementaux de briques logicielles telles que l’IA et la blockchain. Ceci dit, cette recommandation aurait tout à fait pu trouver sa place directement dans la section Stratégie.
La section Contenus apporte de nombreux éléments sur les formats et modalités de compression des contenus, ce qui permet d’aller encore plus loin sur les aspects techniques d’une démarche de sobriété éditoriale.
De nouveaux critères apportent également des éléments sur la blockchain mais aussi sur le lancement asynchrone de traitements complexes.
Tout ceci va clairement dans le bon sens. Nul doute que la consultation publique aura permis de récupérer énormément d’éléments pour tendre vers un excellent référentiel mais aussi les outils qui doivent l’accompagner (en améliorant l’extension de navigateur mais surtout le template Excel pour mener les audits de conformité et les suivre dans le temps via un plan d’action).
Il ressort d’ores et déjà de ces ajouts et précisions que la réalisation d’un audit RGESN prendra davantage de temps qu’avec la V1, ce qui est important pour prendre en compte les critères dans leur ensemble et ainsi lever le plus possible les éventuelles ambiguïtés. Si les intentions du RGESN V1 étaient déjà bonnes, le référentiel se dote dès sa V2 des éléments nécessaires pour faciliter son adoption et sa mise en œuvre. Cette version témoigne également d’une grande maturité sur le sujet et en fait une ressource donc la lecture permet déjà de faciliter la montée en compétences.
La version finale (celle publiée le 17 mai 2024 par l’ARCEP)
Comme annoncé, les réponses à la consultation publique sont également téléchargeables.
A première vue, cette version finale est plutôt proche de cette qui avait été proposée en consultation publique par l’ARCEP. C’est déjà une très bonne nouvelle pour ceux qui avaient déjà commencé à s’emparer du sujet.
La déclaration d’écoconception doit désormais mentionner des éléments sur presque l’ensemble des critères du référentiel. La nouvelle grille d’audit permet le calcul du score d’avancement. Elle est très dense mais aussi très complète. Il est regrettable de ne pouvoir générer la déclaration d’écoconception qu’au format PDF (le format HTML ou un autre format facilement éditable auraient été préférables). L’idéal pourrait être à terme de proposer un outil similaire à celui proposé pour les audits d’accessibilité : https://ara.numerique.gouv.fr/
On retrouve les 9 familles de critères de la version précédente (la famille « Apprentissage » devient « Algorithmie »). On compte au total 78 critères.
En cause ici, la fusion de certains critères. Le risque est alors de complexifier leur validation. C’est notamment le cas du critère 8.1 qui demande que l’hébergeur partage ses indicateurs environnementaux, ses engagements environnementaux et ratifie le Code de Conduite Européen [lien en anglais]. C’est aussi le cas du 6.5 qui incite à charger progressivement les contenus mais aussi le code, ce qui correspond souvent à deux chantiers techniques différents. Le problème est d’avoir en conséquence des critères plus difficiles à valider mais surtout avec un niveau de granularité inapproprié où l’état d’un critère (typiquement « non-validé ») ne permet pas d’estimer (voire de récompenser) finement les efforts réalisés. Pour ceux qui souhaiteraient creuser davantage ce sujet, je vous invite à explorer la façon dont Opquast définit ses règles.
De nouveaux critères font leur apparition :
5.5 – Le service numérique propose-t-il un mode « écoute seule » pour ses vidéos ?
4.14 – Le service numérique évite-t-il le recours à des procédés manipulatoires dans son interface utilisateur ?
9.5 – Le service numérique optimise-t-il l’occurrence de mise à jour et de réentraînement des modèles en fonction de ses besoins et des cibles utilisatrices ?
9.7 – Le service numérique utilise-t-il une stratégie d’inférence optimisée en termes de consommation de ressources et des cibles utilisatrices ?
L’ancien critère 5.5 (format des fichiers audio) disparaît.
En conséquence, certains critères changent de numéro (le 1.8 sur le référent écoconception devient 1.3) en plus de (nombreux) nouveaux détails ajoutés dans le contenu de certains critères. Ainsi, la validation des critères est davantage guidée. A terme, la publication des déclarations d’écoconception ainsi que les éventuelles listes de diffusion dédiées au sujet (au même titre que ce qui est proposé pour le RGAA) devraient permettre de lever les ambigüités restantes.
De même, certains critères sont déplacés. En particulier, les critères liés aux matériels ciblés (dont système d’exploitation et version de navigateur ainsi que design adaptatif) et au type de connexion utilisable sont regroupés dans la famille Spécifications.
Chaque critère se voit doter des mêmes attributs que sur la précédente version (priorité, difficulté, non-applicabilité, Objectifs, Mise en oeuvre et Moyen de test ou de contrôle), auxquels viennent s’ajouter les métiers concernés. On note au passage une nouvelle répartition des priorités avec 30 critères sur 78 identifiés comme prioritaires.
On note également que le calcul du score d’avancement a été légèrement modifié. En particulier, les critères non-applicables ne contribuent plus directement au score. Sur la version précédente, les critères non-applicables étaient ajoutés au même titre que les critères validés. Ils sont désormais directement retirés du total cible.
Plus généralement, l’appui sur la mesure est de plus en marqué, notamment pour de l’A/B testing (comparer par la mesure les impacts de composants, fonctionnalités ou choix d’implémentation).
Au final, si le nombre total de critères diminue, la complexité de validation de certains d’entre eux augmente et certains regroupement de critères apparaissent discutables.
Il n’en reste pas moins que cette nouvelle version apporte son lot de précisions qui sont les bienvenues.
Qu’attendre de la suite ?
Le RGESN est appelé à évoluer au fil du temps et peut-être même à trouver une déclinaison au niveau de l’Europe. Il s’agira sans nul doute d’un outil essentiel pour structurer les démarches d’écoconception de services numériques. Ainsi, les pratiques de chacun pourront évoluer sur ce sujet.
Les outils qui l’accompagnent ont bien progressé dans la version finale mais pourraient aller encore plus loin.
Le référentiel impose entre autres la publication d’une déclaration d’écoconception complète, ce qui permet de sensibiliser plus largement mais aussi de confronter les pratiques. Donc de faire évoluer ce domaine d’expertise.
La grande inconnue reste le décret d’application à venir, qui doit poser le cadre d’application de la loi REEN en s’appuyant sur le RGESN. Il reste à ce propos plusieurs inconnues. Si l’on se base sur ce qui est fait pour l’accessibilité (et en particulier à la suite du décret d’octobre 2023), des questions restent en effet en suspens :
L’utilisation du RGESN sera-t-elle limitée au web ou étendue à d’autres types de services numériques (applications mobiles, mobilier urbain, etc) ? A minima, il serait important d’embarquer les applications mobiles en complément des sites et applications web.
Quelles seront les sanctions ?
Quels seront les délais pour la mise en place ?
Quelles structures seront concernées ? Les structures publiques seront a priori les premières concernées mais, comme pour l’accessibilité, il serait intéressant de viser aussi les entreprises. Certaines, d’ailleurs, ont déjà commencé à s’emparer du sujet car elles ont reconnu l’intérêt de ce référentiel pour guider leurs démarches d’écoconception de services numériques.
Quels seront les moyens mis en place officiellement pour faciliter la prise en main du RGESN (formation, guides, outils, etc.) ?
D’autres questions plus générales se posent. Notamment, comment certaines entreprises et certains professionnels feront évoluer leurs pratiques et leurs offres, peut-être pour une partie d’entre eux en évoluant vers des rôles d’auditeurs (voire en formant les futurs auditeurs). Il reste également à espérer que la définition plus complète de l’écoconception de services numériques permettra l’émergence de formations certifiantes (donc de référentiels de compétences validés par France Compétences).
Un point d’inquiétude subsiste sur la nature déclarative des recommandations. L’avantage du RGAA est de proposer une approche technique voire factuelle (même si certains critères restent parfois sujets à interprétation). Dans le cas du RGESN, les critères sont moins factuels et moins faciles à vérifier, ce qui peut parfois les faire reposer sur l’objectivité de l’auditeur. Reste aussi ouverte la question de la définition de méthodes pour valider certains critères par des mesures. Il reste à voir, à terme, comment le suivi dans le temps du référentiel sera assuré (liste de diffusion par exemple). D’ailleurs, la création d’un « Forum des parties prenantes de l’écoconception numérique » piloté par l’ADEME et l’ARCEP a été annoncée. Il reste à espérer que ce moyen de partage du savoir sera disponible en ligne et plus seulement limité au présentiel sur Paris.
Il sera également intéressant de voir comment tous ces éléments trouveront un écho au-delà de la France et comment le RGESN pourra s’articuler avec l’éventuelle mise en place de nouvelles normes et autres référentiels.
Et Greenspector dans tout ça ?
Le RGESN s’impose comme un socle inédit mais surtout indispensable pour améliorer nos propres pratiques et accompagner au mieux nos clients. D’autant plus dans la mesure où ils seront bientôt confrontés à l’obligation d’utiliser ce référentiel.
Pour cela, plusieurs actions ont été menées à bien :
Intégrer la V1 du RGESN dans notre propre référentiel interne de bonnes pratiques. La version finale du référentiel est prise en compte dès maintenant dans nos accompagnements et sera très bientôt intégrée à notre référentiel de bonnes pratiques.
Incorporer le RGESN dans les formations que nous proposons : présenter le référentiel et son contexte et proposer des activités autour de celui-ci, notamment via la mise en œuvre rapide et encadrée d’un audit RGESN. Les autres référentiels sont également présentés afin de les comparer ainsi que leurs cas d’usage.
Nous effectuons régulièrement des audits RGESN pour des clients et centralisons les informations qui nous permettent de tracer les taux de conformité mais aussi leur évolution dans le temps. De plus, ces audits nous permettent de faire évoluer notre utilisation du RGESN.
Nous nous appuyons systématiquement sur le RGESN lors des audits et revues de design. En complément, notre offre Ecobuild évolue. L’objectif de cette offre est à l’origine d’accompagner une équipe projet dès le début via de la formation, des revues de design, des audits, du monitoring et plus largement de l’expertise. Nous proposons désormais d’appuyer cette offre sur le RGESN, ce qui permet d’aller plus loin encore pour mettre en place ou consolider la démarche d’écoconception de nos clients.
Au-delà de l’approche permettant d’utiliser le RGESN pour auditer/améliorer un site, nous l’utilisons également dans le cadre d’un accompagnement sur une solution de création de sites afin d’avoir des leviers plus globaux mais aussi d’amorcer une réflexion autour des critères RGESN qui peuvent être pris en compte directement à ce niveau. Ce type de raisonnement pourrait par la suite s’étendre à d’autres outils comme WordPress, Drupal et autres CMS. L’intérêt ici est multiple :
Sensibiliser les clients et utilisateurs sur le sujet du RGESN
Rassurer les clients en prenant en charge une partie des critères, ce qui pourrait à terme avoir un caractère différenciant (on peut imaginer à terme des clients qui opteraient vers des solutions “conformes au RGESN” afin de répondre plus facilement aux obligations légales sur le sujet)
Mettre en place les moyens pour que des sites moins impactants soient créés par les utilisateurs/clients
Conclusion
Le RGESN s’impose déjà comme un incontournable pour l’écoconception de services numériques mais aussi pour structurer les démarches d’écoconception. En tant que tel, il devrait aider chacun à monter en compétences sur le sujet. Il reste à voir en quoi le cadre légal facilitera cette évolution et induira à terme des changements que l’on espère en profondeur dans les structures concernées.
D’après une étude de Statista, le secteur du jeu vidéo a généré plus de 155 milliards de dollars américains de revenus dans le monde en 2021. Ce chiffre s’explique par l’augmentation du nombre de plateformes de jeux et de la diversification des types de jeux disponibles pour les consommateurs mais aussi en se démocratisant grâce à l’émergence de jeux gratuits. En 2022, les jeux vidéo ont attiré près de 1,8 milliard de joueurs à travers le globe, transformant ainsi l’expérience de divertissement en une dimension sociale et favorisant l’émergence de nouveaux secteurs comme le streaming et l’esport.
Or, tous ces jeux, biens que virtuels, sont exécutés sur du matériel physique, et induit donc une consommation énergétique. Cet article présente et compare les consommations énergétiques de différents jeux vidéo et de leurs paramètres. Pour connaitre la consommation réelle de ces usages, nous avons choisi d’évaluer les jeux vidéo suivants : Assassin’s Creed Valhalla, Total War Warhammer III, Borderlands 3, Anno 1800 et War Thunder.
Nous avons précédemment réalisé une étude sur les jeux mobiles.
Choix et méthodologie
Ces jeux vidéo ont été sélectionnés de par le fait qu’ils proposent un benchmark. Utiliser ces benchmarks comme sujet de mesure assure la réplicabilité de notre protocole expérimental, tout en s’affranchissant du facteur humain dans les résultats.
Un benchmark est une fonctionnalité proposée par le jeu permettant de mesurer les performances d’un système (PC entier), ou d’un de ses composants (CPU, GPU, mémoire …) selon un scénario donné en fonction du paramétrage sélectionné.
Nous avons également veillé à représenter plusieurs types de mode de jeu tels que RPG (jeu de rôle), stratégie ou simulation.
Nous avons mesuré ces jeux vidéo sur un PC disposant de la configuration suivante :
Processeur: i7 6700
Mémoire: 32 Go RAM DDR4
Carte graphique: RTX 3060 12Go
Ce matériel nous a été fourni par l’entreprise OPP! qui propose de la réparation et maintenance sur PC et Mac ainsi que de la vente individuelle de composants.
L’écran utilisé est un écran LG E2441 disposant des caractéristiques suivantes:
Technologie d’écran : LED
Taille de l’écran : 24”
Résolution : 1920×1080
Nous avons collecté les métriques d’énergie grâce à un module de mesure connecté à notre logiciel Greenspector Studio, branché directement sur l’alimentation du PC et de l’écran et relié à la prise secteur.
Les benchmarks ont été réalisés dans 2 configurations graphiques différentes :
Une configuration avec un paramétrage maximal des graphismes proposés par le jeu
Une configuration avec un paramétrage minimal des graphismes proposés par le jeu
6 itérations ont été effectuées sur chacun des scénarios pour assurer une fiabilité de résultats.
Les benchmarks durent entre 80 et 240 secondes. Ces variations n’affectent pas les résultats présentés.
L’évolution graphique impacte la puissance
Les jeux modernes intègrent des graphismes de plus haute qualité avec des textures ultra-détaillées, des effets visuels avancés tels que l’éclairage dynamique, les ombres en temps réel et les effets de particules sophistiqués. Cette complexité graphique nécessite des capacités de rendu et de traitement graphique considérables.
Les joueurs optent également de plus en plus pour des résolutions d’affichage élevées pour une expérience visuelle optimale. Cela place une pression supplémentaire sur le GPU (Graphics Processing Unit, la carte graphique) pour rendre des images détaillées à des résolutions ultra-hautes.
Ces GPU on des consommations énergétiques croissantes à chaque nouvelle génération comme celles de NVDIA classées ci-dessous :
Evolution de la puissance minimale du système et la puissance max du GPU selon la date de sortie des GPU
Les développeurs exploitent des techniques de rendu avancées telles que le ray tracing pour simuler de manière réaliste le comportement de la lumière dans les environnements virtuels. Bien que ces techniques offrent un niveau de réalisme sans précédent, elles nécessitent des calculs intensifs qui exigent des GPU haut de gamme.
Différences de consommation selon le paramétrage
Les mesures de puissance moyenne du PC sur la configuration graphique la plus faible et la plus élevée de chaque jeu montrent une grande disparité entre celles-ci.
Puissance totale du PC en selon le paramétrage minimal ou maximal
Le fait de passer d’une configuration de paramètres maximale aux paramètres les plus faibles proposés par chacun des jeux résulte d’une diminution de puissance mesurée de 45% en moyenne. Pour le jeu Borderlands 3, on constate même un gain de puissance de 72%.
Sur le jeu Anno 1800, le benchmark est une vue aérienne panoramique de la carte du jeu. Cette séquence met en valeur les détails du monde du jeu, tels que les paysages, les bâtiments emblématiques et les animations de la vie quotidienne.
Ci-dessous les graphes d’une itération mesurée avec un paramétrage maximal et d’une autre itération avec paramétrage minimal. Le benchmark balaie la ville de son point de vue aérien zoomé au début puis la même trajectoire se répète 8 fois avec des points de vue de plus en plus hauts ce qui explique les 8 pics sur le graphe.
Ici, nous constatons facilement la différence notoire entre les 2 niveaux de paramétrage. Sur les deux paramétrages différents on voit d’abord que plus la caméra s’éloigne de la ville, plus la puissance se réduit étant donné le temps de plus en plus court du scénario.
De plus, lorsque le jeu est paramétré de manière maximale, la consommation est à son pic pendant presque toute la durée du scénario tandis que les mesures faites avec le plus faible paramétrage affichent des pics de puissance moins élevés et plus courts.
Consommation d’énergie du benchmark Anno 1800 avec paramétrage maximal
Consommation d’énergie du benchmark Anno 1800 avec paramétrage minimal
Une enquête Statista réalisée en décembre 2023 a révélé que 22 % des adultes américains âgés de 18 à 29 ans passaient de six à dix heures par semaine à jouer à des jeux vidéo. Dans l’ensemble, les personnes interrogées de ce groupe d’âge étaient également plus susceptibles que les autres d’être des joueurs assidus car un total de 8% jouait à des jeux vidéo plus de 20 heures en moyenne par semaine.
Ces chiffres nous permettent d’évaluer la consommation d’énergie globale selon les temps d’usage de différents types de joueurs dans le cas où le benchmark est représentatif de la consommation du jeu. La consommation d’énergie a été projetée avec les mesures faites sur les paramétrages minimum et maximums de chaque jeu.
La moyenne de consommation pour une heure de jeu en paramétrage minimal est de 0,168 kWh et 0,254 kWh en paramétrage maximal. Ces résultats sont plus élevés que ceux de l’étude européenne de l’évaluation de l’impact environnemental des services numériques. Celle-ci affiche une consommation de 0,137 kWh pour une heure de jeu sur PC avec une résolution moyenne.
Consommation d’énergie sur 6h de jeu (Wh)
Consommation d’énergie sur 10h de jeu (Wh)
Consommation d’énergie sur 20h de jeu (Wh)
Paramétrage
Min
Max
Min
Max
Min
Max
War Thunder
1469,70
1460,78
2449,50
2434,64
4899,00
4869,28
Anno 1800
843,26
1352,27
1405,43
2253,78
2810,86
4507,56
Borderlands
522,33
1537,53
870,55
2562,55
1741,09
5125,09
Assassin’s Creed Valhalla
1110,49
1618,73
1850,82
2697,88
3701,65
5395,76
Total War Warhammer III
1108,08
1651,01
1846,80
2751,68
3693,60
5503,37
La majorité des joueurs ont donc une consommation hebdomadaire comprise entre 1,5 kWh et 2,5 kWh en jouant entre 6 et 10h par semaine. Pour les joueurs davantage impliqués jouant 20h par semaine environ (2h40 par jour), leur PC et écran ont une consommation hebdomadaire de 5 kWh. A même titre de grandeur, un réfrigérateur classique consomme en moyenne 3,29 kWh par semaine.
Evolution selon les dates de sortie
Sur les configurations maximales, on note une évolution de la puissance mesurée proportionnelle à la date de sortie de ces jeux.
Jeux
Sortie du jeu
Puissance avec paramétrage maximal (W)
War Thunder
Novembre 2012
181,86
Anno 1800
Avril 2019
214,94
Borderlands 3
Septembre 2019
236,62
Assassin’s Creed Valhalla
Novembre 2020
249,46
Total War Warhammer III
Février 2022
257,70
Dans ce contexte, les configurations maximales des jeux vidéo reflètent cette évolution technologique. Les développeurs de jeux conçoivent leurs jeux pour tirer parti des dernières avancées matérielles, ce qui se traduit par des exigences de plus en plus élevées sur les composants. Par conséquent, pour profiter pleinement des performances graphiques et de la fluidité de jeu, les joueurs doivent souvent investir dans du matériel informatique de pointe.
Ces graphismes complexes et détaillés nécessitent un rendu en temps réel qui repose souvent sur le CPU pour effectuer des calculs liés à la physique, à l’intelligence artificielle des personnages non-joueurs, à la gestion des collisions et à d’autres aspects du gameplay.
C’est ce qu’explique un directeur technique du jeu Total War dans une interview d’Intel :
« Nous modélisons des milliers de soldats avec un niveau de détail élevé appliqué à chacun en matière d’animations, d’interactions, de décisions de pathfinding, etc. »
Dans les jeux vidéo, le pathfinding consiste à trouver comment déplacer un personnage d’un point A à un point B en tenant compte de l’environnement : obstacles, autres personnages, longueur des chemins, etc.
En outre, le processeur jongle souvent entre de nombreuses tâches simultanément en fonction de ce qui s’affiche à l’écran. « Prenons une scène où deux immenses fronts comptant des milliers de soldats se fracassent l’un contre l’autre, et où vous avez effectué un zoom assez rapproché » explique le directeur technique du jeu. « Dans cette situation, le processeur se partage principalement entre les combats basés sur des agents d’entité, les mécanismes de collision et la construction des piles de matrices afin de dessiner toutes les entités. »
En d’autres termes, le processeur doit gérer simultanément la présence et les interactions de milliers de PNJ (personnages non joueurs).
De plus, plus les graphismes sont avancés, plus le GPU est sollicité pour traiter les données et les instructions de manière efficace, ce qui peut entraîner des goulots d’étranglement et des ralentissements si le processeur n’est pas assez puissant.
Sur le jeu Assassin’s Creed Valhalla, lorsque le paramétrage est au plus faible, la carte graphique est sollicitée à 46% en moyenne. A l’inverse, sur un paramétrage maximal avec par exemple les reflets sur l’eau activés ou la qualité des nuages maximale, la carte graphique est utilisée à 99% pendant le benchmark.
Optimisation vs qualité graphique
Nous venons de voir que le paramétrage d’un jeu réglé à son maximum implique de grosses consommations d’énergie. Cependant, les effets visuels en sont-ils améliorés ? Tous les paramètres sont-ils pertinents pour l’expérience de jeu selon la configuration du PC ?
Un indicateur intéressant pour répondre à ces questions est le nombre d’images par secondes (FPS) car il est souvent utilisé comme indicateur de la fluidité d’un jeu : plus les FPS sont élevés, plus le jeu paraît fluide et réactif.
Le FPS (Frame Per Second), c’est le nombre d’image par seconde indique le nombre d’images individuelles (ou « frames ») affichées à l’écran chaque seconde.
En effet, plus une image est lourde à générer et afficher en fonction de sa complexité, moins le processeur et la carte graphique peuvent être rapides à les afficher. Ainsi, lorsque le paramétrage dépasse les capacités de la configuration du PC, l’effet visuel pour le joueur n’en est pas forcément amélioré.
D’autant plus, le gameplay peut en être impacté par le phénomène de bottleneck.
Le bottleneck ou goulot d’étranglement en français, c’est un phénomène produit par un composant matériel ou logiciel de performance limitée par rapport à d’autres composants plus performants. Cela signifie qu’une partie du système fonctionne à une capacité maximale, tandis que d’autres parties ne peuvent pas suivre, ce qui entraîne une baisse des performances globales.
En équilibrant correctement la configuration matérielle et en ajustant les paramètres graphiques en conséquence, les joueurs peuvent minimiser les risques de ralentissements et de saccades, offrant ainsi une expérience de jeu plus agréable et immersive.
Voici quelques différences de benchmarks réglés au maximum de leurs paramètres de jeu puis au minimum :
Implications pour le matériel et impact environnemental
L’évolution constante des jeux vidéo vers des expériences toujours plus immersives et réalistes a des implications significatives pour le matériel utilisé. Les développeurs de jeux cherchent à exploiter pleinement les capacités graphiques et de traitement des nouvelles technologies, ce qui se traduit par des exigences matérielles plus élevées.
En France, l’année 2020 est marquée par la vente de 2,3 millions de consoles, 27,5 millions de jeux complets (Console + PC / physique + dématérialisé) et près de 7 millions d’accessoires (Console + PC). Avec une croissance de 10%, l’écosystème Console représente 51% de parts de marché total du jeu vidéo et le PC Gaming croît de 9%. (Source : Sell)
Les joueurs cherchent à rester à la pointe de la technologie pour profiter pleinement des dernières sorties. Au-delà de l’enjeu financier que cela peut représenter, cette quête de performances matérielles est également très critique d’un point de vue environnemental.
Nous l’avons vu, il faut que tous les composants d’une configuration soient environ au même niveau de performance pour bénéficier d’une expérience de jeu optimisée. Si le joueur possède une carte graphique très performante mais un écran de plus faible résolution, un processeur ou une carte mère moins puissants, l’expérience de jeu n’en sera pas forcément améliorée voire altérée. L’intérêt d’un point de vue optimisation n’est donc pas d’acheter des composants de dernière génération pour améliorer ses performances mais d’optimiser au mieux les paramètres du jeu selon la configuration de son matériel. Cela permet d’une part de rallonger leur espérance de vie avec une sollicitation moindre mais aussi en améliorant l’expérience de jeu pour les utilisateurs.
La sur-sollicitation fait chauffer les composants comme la carte graphique ou le processeur à de hautes températures à cause de la quantité de calculs gérés par ces derniers et endommage leurs transistors et puces impliquant donc la réduction de leur durée de vie.
La durée de vie d’un PC de bureau moyen dure entre 2 et 3 ans selon HP, et celle d’un PC gamer entre 3 et 5 ans.
Nous n’avons pas d’informations au sujet de l’impact environnemental de la fabrication d’un PC gamer mais la fréquence de sortie tous les ans des produits dernière génération poussant les joueurs à renouveler tous les ans leur configuration de PC augmente considérablement l’impact de cette industrie.
Il est à noter que les consoles de jeu ne sont pas en reste dans l’empreinte carbone.
Ben Abraham, chercheur sur le climat et la durabilité, analyse l’unité centrale de traitement de la PlayStation 4 en utilisant la spectrométrie de masse, révélant la présence de composants atomiques comme le titane, dont l’extraction, le raffinage et la fabrication contribuent aux émissions de gaz à effet de serre.
Cette observation souligne le défi de rendre durable la production de ces appareils, avec des décennies nécessaires pour atteindre cet objectif.
L’importance de la mesure
Les éditeurs de jeux vidéo jouent un rôle crucial dans la réduction de l’empreinte environnementale de l’industrie. Pour ce faire, il est impératif de prendre en compte les consommations d’énergie tout au long du processus de développement des jeux.
Tout d’abord, mesurer les consommations d’énergie permet aux éditeurs de jeux de comprendre l’impact environnemental de leurs produits. Cela inclut non seulement la consommation d’énergie directe des appareils sur lesquels les jeux sont exécutés, mais aussi pourquoi pas l’empreinte carbone liée aux serveurs de jeu, aux mises à jour et téléchargements.
Ensuite, cette prise de conscience permet aux développeurs de jeux de concevoir des mécaniques de jeu et des graphismes qui optimisent l’efficacité énergétique. Par exemple, en minimisant les effets visuels complexes qui nécessitent une puissance de calcul élevée, les jeux peuvent réduire leur consommation d’énergie tout en offrant une expérience de jeu immersive.
Le sujet de l’empreinte environnementale des jeux vidéo est de plus en plus pris en compte par les éditeurs, ce qui est encourageant. Des initiatives telles que le Green Games Guide de l’Ukie ou celui de l’Ecran d’après offrent des conseils pratiques et des bonnes pratiques pour réduire l’impact environnemental de la conception et du développement de jeux. De même, des outils comme le Xbox Sustainability Toolkit de Microsoft ou Jyros, l’outil de mesure d’impact environnemental dédié à l’industrie du jeu vidéo en France, fournissent aux développeurs des moyens concrets d’évaluer et d’améliorer la durabilité de leurs jeux.
Cependant, il est important de généraliser ces pratiques et de les intégrer de manière plus systématique dans l’ensemble de l’industrie. Trop souvent, l’aspect environnemental est relégué au second plan, tandis que l’accent est mis sur la performance et l’esthétique des jeux. Il est donc essentiel que les éditeurs prennent davantage en compte les implications environnementales de leurs décisions de conception et de développement.
Limites de l’étude
Dans le cadre de cette étude, il est important de reconnaître certaines limites qui pourraient affecter la portée et la représentativité des résultats obtenus :
Partenariat entre constructeur et concepteur : Il est possible que certains jeux vidéo aient établi des partenariats avec des fabricants de matériel informatique pour optimiser leurs performances sur des configurations spécifiques. Ces accords pourraient fausser les résultats du benchmark en favorisant certaines marques ou modèles de composants. Ces résultats peuvent altérer les comparaisons entre jeux, mais pas les comparaisons entre configurations d’un même jeu.
Scénario de benchmark pas forcément représentatif des modes de jeu : Les scénarios de benchmark utilisés pour évaluer les performances des jeux vidéo peuvent ne pas refléter les conditions de jeu réelles. Par exemple, un benchmark peut se concentrer sur des séquences spécifiques du jeu qui ne représentent pas nécessairement le gameplay général. Par conséquent, les résultats obtenus peuvent ne pas être entièrement représentatifs de l’expérience de jeu globale.
Pas de mesure du mode multijoueur ou du jeu en ligne : Cette étude se concentre principalement sur les performances des jeux en mode solo et ne prend pas en compte les aspects liés au multijoueur ou au jeu en ligne. Par conséquent, les échanges de données entre les serveurs de jeu et les clients, ainsi que les performances réseau, ne sont pas pris en compte dans l’analyse. Cela pourrait limiter la compréhension complète des besoins matériels pour une expérience de jeu en ligne optimale.
Conclusion
En conclusion, cette étude met en lumière l’impact croissant des jeux vidéo sur les performances matérielles des ordinateurs. Avec l’évolution constante des graphismes et des fonctionnalités, les jeux modernes exigent des configurations matérielles de plus en plus puissantes pour offrir une expérience de jeu optimale. Cela soulève des questions importantes sur la durabilité et l’efficacité énergétique des équipements informatiques, ainsi que sur les choix des consommateurs en matière de matériel. En fin de compte il est crucial, tant pour les éditeurs que pour les joueurs, de trouver un équilibre entre les performances des jeux vidéo et la durabilité de l’industrie technologique pour assurer un avenir plus durable.
L’avènement des messageries instantanées a transformé les methodes de communications dans le monde professionnel. Dans un monde où la rapidité est cruciale, ces applications offrent une plateforme d’échange, de coordination et de prise de décision en temps réel. Des applications tels que Microsoft Teams, Slack, WhatsApp, Discord ou bien d’autres ont ainsi changé la manière dont les équipes intéragissent, en enlevant les limitations géographiques et en facilitant la communication. Les messageries instantanées ont également joué un rôle crucial dans l’évolution du travail à distance, en fournissant une connectivité continue entre les collaborateurs. Cependant, derrière cette facilité d’utilisation et cette rapidité se cache un aspect souvent négligé : l’impact environnemental de ces applications.
Discord
Slack
Whatsapp
Teams
Ces applications sont d’autant plus impactantes qu’elles sont largement diffusées dans les entreprises mais aussi sur des moments de consommations longs et fréquents. Voilà pourquoi, il est intéressant de connaître l‘impact unitaire de ces usages et de pouvoir projeter des impacts plus globaux.
Méthodologie
Définition du parcours utilisateur
Pour la mesure, nous avons déterminé un scénario compatible sur toutes les applications :
Etape 0 : pause de 30s de référence (avec aucune application d’ouverte)
Etape 1 : ouverture de l’application
Etape 2 : pause de 30s avec l’application ouverte
Etape 3 : envoi d’un message
Etape 4 : pause de 30s pour la lecture du message
Etape 5 : réception d’une réponse
Etape 6 : envoi d’une réponse
Etape 7 : pause de 30s sur la conversation alors que l’autre écrit le message
Etape 8 : envoi d’une image (60,54 ko)
Etape 9 : pause de 30s pour le visionnage de l’image
Etape 10 : réception d’une image (6,50 ko)
Etape 11 : envoi d’un fichier .gif (3,36 Mo)
Etape 12 : pause de 30s pour le visionnage du fichier .gif
Etape 13 : réception d’un fichier .gif (3,36 Mo)
Etape 14 : pause de 30s avec l’application en arrière-plan
Etape 15 : pause de 30s avec l’application en arrière-plan avec la réception de message
Etape 16 : pause de 30s après fermeture de l’application par l’utilisateur
Etape 17 : pause de 30s après fermeture forcée de l’application
Afin de pouvoir aussi comparer les performances entre les différentes applications, deux smartphones ont été utilisés, afin d’envoyer les réponses automatiquement après réception.
Lors de cette évaluation, nous avons pris le parti d’utiliser des comptes vierges pour chaque application afin que le poids des conversations précédentes n’interfère pas avec nos résultats.
Contexte de mesure
Samsung Galaxy S10, Android 12
Réseau : Wi-Fi
Luminosité : 50%
Tests réalisés sur minimum 3 itérations pour fiabiliser les résultats
Contexte de mesure
Samsung Galaxy S10, Android 12
Réseau : Wi-Fi
Luminosité : 50%
Tests réalisés sur minimum 3 itérations pour fiabiliser les résultats
Pourcentage de détenteur de téléphone Android pouvant télécharger l’application (14 février 2024)
Version minimum d’iOS requise
Pourcentage de détenteur de téléphone sous iOS pouvant télécharger l’application (4 janvier 2024)
WhatsApp
Android 5.0
99,5
iOS12
98,8
Discord
Android 7.0
97,1
iOS12
98,8
Slack
Android 10
84,3
iOS15
94,2
Teams
Android 11
75,4
iOS15
94,2
Le meilleur élève est ici WhatsApp, qui supporte Android 5.0 (version qui date de 2014), iOS 12.0 (qui date de 2018) et toutes les versions ultérieures.
Le moins bon élève est Teams, qui ne supporte qu’à partir d’Android 11 (2020) et d’iOS 15.0 (2021). Ainsi, 24 utilisateurs sur 100 ayant un smartphone Android ne peuvent pas utiliser cette application.
La taille des applications
Une application légère est une application qui va se concentrer sur les fonctionnalités les plus utiles, et d’aller au contraire des obésiciels, qui vont proposer des fonctionnalités inutilisables et/ou inutilisées. Cela remplit aussi la mémoire du smartphone, ce qui peut pousser certains utilisateurs à changer leur terminal.
WhatsApp
Discord
Slack
Teams
Taille de l’application installée (Mo)
108
165
189
226
C’est encore une fois WhatsApp qui est le meilleur élève, et Teams, le moins bon, prend plus du double en termes de place.
Impact environnemental
À la suite d’une analyse détaillée, nous avons pu mettre en évidence les applications ayant l’empreinte environnementale la plus grande pour ce parcours.
Hypothèses retenues pour l’évaluation environnementale
Localisation des utilisateurs : 100% en France ou 100% monde
Localisation des serveurs : 100% monde
Appareils utilisés : smartphones uniquement
Application
Impact du parcours (gCO2e) pour des utilisateurs en France
Impact du parcours (gCO2e) pour des utilisateurs hors France
WhatsApp
3,6
3,7
Discord
4,5
4,6
Teams
4,6
4,8
Slack
5,2
5,4
Application
Eau consommée (l)*
Occupation des sols (cm2)*
WhatsApp
0,5
6,2
Discord
0,6
5
Teams
0,6
6,2
Slack
0,7
7,8
*Par manque de données, pour les indicateurs eau et surface occupée, la partie réseau n’est pas considérée.
L’application la plus sobre
C’est WhatsApp qui propose l’impact environnemental le plus faible sur ce parcours. Cela s’explique principalement par une très faible consommation de données.
L’application la moins sobre
C’est Slack qui propose l’impact environnemental le plus élevé sur ce parcours. Cela s’explique par une forte consommation énergétique.
Analyse des mesures
Axe consommation d’énergie
Afin de préserver la durée de vie de la batterie, il est impératif que l’application soit optimisée pour une consommation d’énergie minimale, le nombre de cycles de charge/décharge du téléphone jouant un rôle crucial dans le processus de dégradation de la batterie.
WhatsApp
Teams
Discord
Slack
Impact énergétique du parcours (mAh)
11,1
10,6
11
16
L’application la plus sobre
Teamspropose la consommation d’énergie la plus faible sur ce parcours.
L’application la moins sobre
Slack propose la plus forte consommation énergétique sur ce parcours.
On observe sur ce graphique que pour WhatsApp, l’action d’envoyer un gif semble plus impactant que pour les autres applications.
Quid du mode sombre
Aujourd’hui les applications proposent un mode sombre. Celui-ci présente plusieurs avantages, parmi lesquels figure l’économie d’énergie de l’écran sur les appareils à écran OLED, a l’instar de celui de Samsung Galaxy sur lequel les tests ont été effectué. Discord propose deux options, avec un mode sombre et un mode Midnight.
WhatsApp Dark
Teams Dark
Discord Dark
Discord Midnight
Slack Dark
Impact énergétique du parcours (mAh)
7,8
7,6
7,3
7,2
12,7
Réduction par rapport au light mode
-30%
-28%
-34%
-35%
-21%
Ainsi toutes les applications voient leurs consommations d’énergie diminuer, entre 21 et 35%.
Axe consommation de données mobiles
WhatsApp
Teams
Discord
Slack
Consommation de données mobiles du parcours (Mo)
0,8
7,8
7,3
7,5
L’application la plus sobre
WhatsApp propose la consommation de données la plus faible sur ce parcours. Cela s’explique par une compression par défaut des éléments envoyés.
L’application la moins sobre
Teams propose la plus forte consommation de données sur ce parcours. On remarque une surconsommation de données par rapport aux autres lors de l’étape d’ouverture de l’application.
Axe performance d’usage
La performance permet de répondre à un besoin en mobilisant moins longtemps un terminal et donc d’avoir moins de quote-part de fabrication, ce qui génère au final un impact plus faible.
WhatsApp
Teams
Discord
Slack
Durée du parcours (en s, hors pause)
55,6
37,4
42,5
49,9
L’application la plus sobre
Teams propose la durée la plus faible sur ce parcours.
L’application la moins sobre
WhatsApp propose la durée la plus forte sur ce parcours. Quand on observe la durée des différentes étapes, on remarque que les étapes les plus longues pour WhatsApp sont l’envoi et la réception de GIF.
Conclusion
Parmi le panel des solutions mesurées, c’est l’utilisation de WhatsApp qui permettra de limiter le plus les émissions de CO2eq sur ce scénario, notamment grâce à la compression des images et des fichiers GIF. Cette analyse démontre aussi le coût de cette compression, tant au point de vue énergétique et au point de vue des performances, mais que le ratio coût bénéfice est quand même en faveur de cette compression. L’application la plus impactante, Slack émettra 44% de plus que WhatsApp. Finalement, l’utilisation du mode sombre permet de diminuer l’impact énergétique sur les téléphones équipés d’un écran OLED, entre 20 et 35%.
Comme établi par la loi REEN (Réduction de l’Empreinte Environnementale du Numérique), les services publics devraient dès cette année être soumis à des obligations d’écoconception, décrites par le RGESN (Référentiel Général d’Écoconception de Services Numériques). La version finale de ce référentiel devrait sortir ces prochaines semaines. Il restera alors à attendre le décret d’application afin de connaître précisément ce qui sera attendu. C’est donc l’occasion idéale de proposer une nouvelle étude afin de remesurer l’ensemble des sites de l’étude de 2020 et de voir quelles tendances se dessinent.
Même si nous n’avons pas encore la version finale du RGESN, celui-ci se dessine dans ses versions existantes comme un outil permettant de structurer une démarche d’écoconception, au-delà de l’estimation de l’écoconception d’un service numérique. Mesurer la page d’accueil d’un site ne permet en aucun cas de définir directement l’écoconception d’un site et encore moins sa conformité au RGESN. Toutefois, il s’agit toujours là d’une bonne première approche afin de se faire une première idée de la sensibilité de la structure au sujet de l’écoconception.
Le RGESN est déjà utilisé chez Greenspector et nous partagerons ultérieurement nos recommandations concernant la place des mesures dans une démarche de mise en conformité au référentiel, notamment via la mise en place d’une démarche d’amélioration continue.
Méthodologie
Les mesures initiales de 2020 ont été menées sur un smartphone Samsung Galaxy S7 sous Android 8.
Les remesures de 2022 (villes et métropoles) quant à elles ont été effectuées sur un smartphone Samsung Galaxy S9 sous Android 10. Les mesures ont été réalisées au travers de notre outil Greenspector Benchmark.
Le scénario de mesure est le suivant :
Chargement de l’application
Lecture du site web en premier plan
Lecture de la page avec scroll
Inactivité du site web en arrière-plan
Chaque mesure est la moyenne de 3 mesures homogènes (avec un écart-type faible). Pour chacune des itérations, le cache est préalablement vidé.
Cette année, il s’est avéré impossible de remesurer deux des sites de l’échantillon :
Ministère de la Santé
Ministère du Travail
Il faut noter que ces ministères ont été fusionnés à la suite du remaniement de début 2024 pour devenir le ministère du Travail, de la Santé et des Solidarités. Les deux URL existantes pointent donc vers le même site, lequel présente d’ailleurs a priori quelques soucis d’optimisation côté Javascript (voir un article Linkedin que j’avais publié à ce sujet).
Projection environnementale (gaz à effet de serre) par catégorie de site (2020)
L’idée était d’établir un premier état des lieux. Les résultats étaient assez disparates (ce qui est habituel sur ce type d’étude), avec encore une belle marge de progression. Ainsi, nous avions donc un point de comparaison pour des études ultérieures.
À la suite de l’arrivée de la loi REEN fin 2021, les communes et intercommunalités de plus de 50 000 habitants sont contraintes d’établir une stratégie autour du Numérique Responsable avant 2025. C’est donc tout naturellement que nous avons lancé en 2022 une nouvelle étude dédiée cette fois aux villes et métropoles.
Ecoscore
Energie
CPU
Données (Mo)
Mémoire
Requêtes HTTP
Impact carbon (gEqCO2)
Empreinte Eau (Litres)
Empreinte sol (m2)
Moyenne générale mesure
42
5,72
2,97
7,91
672
114
0,56
0,074
0,693
Moyenne générale remesure
58
5,65
1,31
7,14
738
92
0,51
0,070
0,673
Evolution des moyennes pour un échantillon de villes et métropoles (2022)
Et aujourd’hui ?
Ecoscore
CPU (%)
Mémoire (Mo)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Impact eau (L)
Occupation des sols (cm²)
Moyennes 2024
52,84
1,02
851,14
5,46
5,18
73,39
1,00
0,17
1,84
Moyennes 2020
46,58
2,81
634,07
5,18
5,47
99,34
1,30
0,22
2,42
Moyennes sur l’ensemble des sites au fil des mesures
Pour 2024, nous avons donc choisi de remesurer l’ensemble des sites de 2020 : ministères, agences d’état, régions, départements, métropoles et villes. Ces remesures ont été lancées dans les mêmes conditions qu’en 2022 (mesures sur Samsung S9 plutôt que Samsung S7).
L’EcoScore moyen pour l’ensemble des sites mesurés ici est passé de 46,58 à 52,84.
Même si les métriques restent élevées, on note une amélioration entre 2020 et 2024.
Alors que les structures publiques devront bientôt répondre à des obligations d’écoconception de leurs services numériques, il semblerait que des efforts restent nécessaires.
Mais voyons tout ceci plus en détail.
Résultats obtenus
Le tableau compilant l’ensemble des résultats au cours des remesures effectuées cette année est présenté plus loin dans l’article. Commençons par examiner l’évolution par catégorie de sites.
Ministères
Pour les sites qu’il a été possible de remesurer en 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
On constate une certaine disparité au niveau des scores mais aussi de leur évolution. Toutefois, dans le cas de l’Outre-Mer et de l’Enseignement Supérieur, la hausse est très importante (ce qui laisse imaginer une refonte complète de ces deux sites, ou en tout cas un remaniement conséquent). Nous les analyserons donc plus en détail par la suite.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
On constate une tendance globale à la diminution des gaz à effet de serre, ce qui est une très bonne nouvelle.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
52,75
2,23
5,11
4,07
94,67
1,28
Moyennes 2024
59,00
0,81
5,01
2,41
49,08
0,87
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes confirme une tendance globale à l’amélioration sur l’ensemble des métriques et indicateurs, ce qui est très encourageant.
Analyse rapide
Le site du ministère de l’Enseignement Supérieur et de la Recherche (https://www.enseignementsup-recherche.gouv.fr/fr) ainsi que celui du ministère de l’Intérieur et des Outre-Mer (https://www.outre-mer.gouv.fr/) montrent une amélioration significative de leur EcoScore (corrélée à une forte diminution de leurs impacts environnementaux).
Page d’accueil du site du ministère de l’Enseignement Supérieur et de la Recherche
Il apparaît que ces deux sites ont bénéficié d’une refonte par la société ISOBAR / Dentsu Creative, en s’appuyant sur Drupal.
De façon malheureusement assez classique, les deux sites souffrent d’images insuffisamment optimisées (format et taille) ainsi que d’un manque d’optimisation des polices. Une fois ces optimisations mises en place et automatisées, il sera plus facile d’investiguer plus en détail pour trouver d’autres pistes d’amélioration.
Agences de l’État
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
Il y a là aussi une certaine disparité entre les EcoScores (et émissions de GES) mais aussi leur évolution.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
51,94
2,75
4,40
3,44
73,78
1,09
Moyennes 2024
53,67
1,17
5,59
5,00
57,11
0,97
Evolution des moyennes entre 2020 et 2024
Si l’on constate une légère amélioration sur certains indicateurs, l’énergie et les données tendent à augmenter, ce qui devrait être évité. Plus particulièrement, nous sommes ici sur un échantillon assez restreint de sites (18 en tout). Les indicateurs trop élevés de certains (en particulier l’Institut National de la Consommation et le CEA) impactent donc fortement les moyennes obtenues. Surtout que, dans ces deux cas, l’augmentation des données transférées est conséquente (la valeur est doublée voire triplée par rapport à 2020).
Analyse rapide
La baisse de l’EcoScore apparaît particulièrement marquée pour le site de l’ANSM (https://ansm.sante.fr/). On remarque déjà un carrousel en défilement automatique dès l’affichage du site. Deux autres se trouvent plus bas sur la même page (ce qui est une mauvaise pratique tant pour les impacts environnementaux que pour l’accessibilité). La suppression (ou refonte) de ces composants permettrait dans un premier temps de réduire l’impact sur le CPU donc sur la batterie du terminal utilisateur, réduisant ainsi les impacts environnementaux.
Les images sont plutôt légères. De même pour les polices de caractères mais les fichiers chargés sont trop nombreux.
Extrait des DevTools de Firefox, onglet Réseau
Il semblerait que l’un des fichiers soit chargé 3 fois, ce qui devrait être évité. Plus généralement, il faudrait privilégier les polices système mais aussi éviter de charger les polices Google directement depuis leur site d’origine (risque lié au RGPD : https://gomakethings.com/google-fonts-and-gdpr/ [EN]). Pour ce qui est FontAwesome, il serait préférable de ne charger que les icônes réellement utilisées.
Au passage, l’outil Wave relève d’ailleurs plusieurs erreurs d’accessibilité (boutons aux libellés non-explicites, images sans alternative textuelle, contraste de couleurs insuffisant, etc).
Page d’accueil du site de Bpifrance
Inversement, le site de BPI France (https://www.bpifrance.fr/) montre une amélioration notable. Ceci semble être lié à une refonte. Le site apparaît plutôt léger, même si (là aussi) les polices devraient être davantage optimisées (privilégier les polices système, éviter d’intégrer les polices Google depuis leur serveur d’origine, etc). Ici aussi, Drupal a été utilisé.
Il semblerait qu’il y ait eu ici une vraie volonté d’écoconcevoir le site. Il aurait donc été intéressant de présenter une déclaration d’écoconception (ainsi que des éléments relatifs à l’accessibilité).
Régions
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
La tendance pour l’EcoScore est globalement à l’amélioration, ce qui est une très bonne chose. Dans certains cas, cette amélioration est même très conséquente (Hauts-de-France, Auvergne-Rhône-Alpes, Grand-Est et Bourgogne-France-Comté). Mention spéciale pour la région Bretagne qui obtient le meilleur EcoScore, du fait d’une démarche d’écoconception déjà bien entamée, notamment sur le portail de services (niveau Argent du certificat de sobriété Greenspector) mais aussi d’engagements pris dans le cadre du label Numérique Responsable de l’INR.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
La tendance à l’amélioration, constatée avec l’EcoScore, se confirme ici avec notamment une réduction notable des émissions de GES pour la région Auvergne-Rhône-Alpes (ARA). Nous analyserons donc rapidement ce site par la suite.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
42,08
3,36
5,46
6,48
109,17
1,38
Moyennes 2024
55,58
0,87
5,17
2,83
73,67
0,94
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes confirme une tendance forte à l’amélioration sur l’ensemble des métriques et indicateurs, ce qui est très encourageant. Les résultats pourraient être encore meilleurs et il reste à voir si les gains obtenus sont plutôt liés à de la sobriété, de la frugalité ou de l’efficience. Dans tous les cas, ce pourrait être signe d’une démarche d’amélioration continue qui se met en place.
Analyse rapide
Si plusieurs sites montrent une amélioration notable de l’EcoScore, celui d’ARA (https://auvergnerhonealpes.fr/) est aussi celui pour lequel les émissions de GES diminuent le plus.
Page d’accueil du site de la région Auvergne-Rhône-Alpes
On note plusieurs éléments très positifs sur ce site : son apparence plutôt sobre et son poids relativement faible. Il est regrettable que certaines images ne soient pas suffisamment optimisées, de même que les polices de caractères. Même si ces bonnes pratiques semblent déjà très répandues et totalement acquises par ceux qui s’intéressent à l’écoconception, leur adoption n’est malheureusement pas encore systématique. Vous pouvez trouver des éléments plus détaillés à ce propos dans le chapitre Sustainability du Web Almanac (en particulier ici : https://almanac.httparchive.org/en/2022/sustainability#image-optimization [EN]) ou dans celui consacré aux polices : https://almanac.httparchive.org/en/2022/fonts [EN]
Là aussi, le site semble avoir été réalisé avec Drupal. S’il n’est pas garanti qu’un site créé avec Drupal respecte automatiquement toutes les bonnes pratiques d’écoconception, il est intéressant de noter ici que de plus en plus d’agences se tournent vers cette solution. Il est agréable de noter que les ressources sur les liens entre écoconception et Drupal se multiplient, même si la plupart sont aujourd’hui en anglais :
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
La tendance pour l’EcoScore est globalement à l’amélioration, avec des progrès significatifs sur certains sites (Seine-et-Marne, Val d’Oise, etc) mais aussi quelques dégradations qui peuvent étonner de prime abord (Rhône, Alpes-Maritimes). Nous creuserons cela de façon plus approfondie par la suite.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
La tendance à l’amélioration, constatée avec l’EcoScore, se confirme ici avec une réduction notable des émissions de GES pour le site de la Seine-et-Marne et des Hauts-de-Seine. Inversement, ces émissions augmentent considérablement pour les Alpes-Maritimes et l’Essonne.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
48,05
2,85
5,18
6,24
91,85
1,31
Moyennes 2024
51,30
0,95
5,55
7,85
79,65
1,07
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes reflète une amélioration des divers indicateurs, à l’exception de l’énergie et des données qui se dégradent.
Analyse rapide
L’amélioration constatée pour le site de la Seine-et-Marne (https://seine-et-marne.fr/fr) est importante. Comme pour le site de Limoges (voir plus loin), l’éditeur est ici Stratis. Le site apparaît plutôt léger même s’il est regrettable qu’il ne soit pas davantage accessible. Lorsqu’on observe les requêtes effectuées, plusieurs éléments étonnants apparaissent :
Extrait des DevTools de Firefox, onglet Réseau
FontAwesome (police d’icônes) est utilisée mais il faudrait se limiter aux caractères véritablement utilisés sur le site. D’autant plus que les fichiers utilisés ne sont pas compressés côté serveur.
De même, le fichier le plus volumineux est un fichier JS qui n’est pas compressé côté serveur et dont une bonne partie est probablement non-utilisées (ce qui est facilement vérifiable avec l’outil Coverage des DevTools de Chrome).
Quelques images pourraient être davantage être optimisées, notamment en les convertissant au format WebP
L’essentiel du poids du HTML correspond apparemment à des SVG (images vectorielles) intégrées directement à celui-ci. Si cette pratique permet de réduire le nombre de requêtes HTTP, elle risque ici de ralentir considérablement le chargement initial de la page, dans la mesure où le fichier HTML (que l’on récupère en premier) s’en retrouve bien alourdi.
Il s’agit une fois de plus d’un site réalisé avec Drupal.
Ce site apparaît très lourd (plus de 10 Mo pour l’ensemble de la page d’accueil). Là aussi, on retrouve des soucis d’optimisation sur certaines images ainsi que sur les polices (7 fichiers rien que pour la police Roboto). Certains gains pourraient être réalisés via la compression côté serveur.
Plus généralement, il faudrait réduire le nombre de requêtes dont la majeure partie sont liées à des images. Ceci pourrait passer par une plus grande sobriété sur la page d’accueil, qui présente énormément d’éléments, peut-être trop pour que les utilisateurs s’y retrouvent facilement.
Métropoles
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
On remarque déjà que certains sites n’ont pas pu être systématiquement remesurés.
Pour plusieurs sites, une amélioration notable était constatée entre 2022 puis une dégradation en 2024. Faute d’informations supplémentaires, nous ne pouvons que spéculer sur les causes : peut-être une refonte d’un site suivie d’une dégradation progressive ? Ceci semble souligner dans tous les cas une anomalie dans la démarche d’amélioration continue.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
Les tendances observées pour l’EcoScore se confirment ici. En complément, les sites de la Métropole de Grenoble et celle de Metz bénéficient d’une réduction considérable de leurs émissions de GES entre 2020 et 2024.
Il est intéressant de noter que celui de la métropole de Montpellier s’améliore au fil du temps, même si le résultat pourrait être encore meilleur.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
44,60
2,63
5,46
5,36
110,80
1,33
Moyennes 2022
58,47
1,37
5,72
7,58
95,16
0,89
Moyennes 2024
51,38
1,10
5,53
6,29
86,24
1,06
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes reflète les constats effectués sur l’EcoScore : une amélioration significative en 2022 puis une nouvelle dégradation en 2024. Seules les requêtes HTTP et l’utilisation du CPU diminuent dans tous les cas, ce qui est une bonne chose.
Pour autant, tout n’est pas parfait. En arrivant sur le site, on découvre une vidéo en lecture automatique ainsi qu’une animation qui tourne en boucle sur le champ de recherche.
Visualisation de l’étape de pause après chargement de la page, Greenspector Studio
Ces deux facteurs ont un fort impact sur le CPU du terminal utilisateur (la fluctuation est liée à la modification cyclique de l’affichage pour la vidéo et l’animation). De plus, ces choix de conception sont regrettables du point de vue de l’accessibilité.
De façon assez classique, les images pourraient être davantage optimisées, de même que les polices (7 fichiers rien que pour la police Raleway).
Les indicateurs du site de la métropole de Saint-Étienne (https://www.saint-etienne-metropole.fr/) se dégradent au fil du temps. Le chargement du site apparaît particulièrement long, en raison notamment de nombreuses images, certaines pesant plusieurs Mo (de façon analogue à ce qu’on avait pu constater en 2022 sur le site de la métropole de Montpellier). L’optimisation (de préférence) automatique de ces images permettrait d’obtenir des gains rapidement et facilement pour pouvoir ensuite aller vers d’autres problématiques (gestion des polices mais surtout sobriété).
Notons qu’il s’agit là aussi d’un site Drupal mais où l’optimisation technique n’a pas été aussi poussée que pour d’autres sites vus précédemment.
Villes
Entre 2020 et 2024, on observe l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
Comme pour les métropoles, on constate ici à plusieurs reprises une amélioration de l’EcoScore en 2022 puis une dégradation en 2024. Il sera intéressant d’effectuer les mesures plus régulièrement pour avoir une meilleure vision globale de leur évolution.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
Les tendances observées pour l’EcoScore se confirment ici. On observe d’ailleurs quelques fortes diminutions des émissions de GES, notamment pour les sites des villes de Limoges, Annecy et Tours.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
40,96
3,12
5,64
6,86
116,92
1,45
Moyennes 2022
57,92
1,27
5,59
6,41
92,13
0,88
Moyennes 2024
50,73
1,07
5,58
4,25
77,12
1,01
Evolution des moyennes entre 2020 et 2024
En définitive, si on compare 2020 et 2024, on constate une amélioration de l’Ecoscore mais aussi des autres indicateurs. Si l’on regarde l’EcoScore et les émissions de GES, le contraste est moins prononcé qu’entre 2020 et 2022. Toutefois, ceci souligne bien une tendance globale à l’amélioration.
Précisions
Sur les villes et métropoles (qui sont les seuls sites à avoir été remesurés en 2022), on constate une amélioration entre 2020 et 2022 puis une dégradation forte entre 2022 et 2024.
Plusieurs explications à cela :
En 2020, les mesures ont été effectuées sur Samsung S7. En 2022, nous avons utilisé un Samsung S9. Le fait que ce soit un téléphone plus récent implique souvent une amélioration des métriques (téléphone plus performant).
Entre 2022 et 2024, nous avons introduit un changement dans la méthodologie de mesure Greenspector pour le web. Jusque-là, l’étape de référence était mesurée sur un onglet vide de Chrome (onglet principalement blanc). Depuis, nous avons opté pour une étape de référence mesurée sur un onglet de Chrome contenant un fond entièrement noir. Ainsi, pour un écran OLED (comme celui du Samsung S9), la différence est significative et la note (en particulier pour les mesures liées à la décharge de batterie) diminue. Nous préparons à ce sujet une mise à jour de notre article sur l’impact de la couleur affichée sur la consommation énergétique paru en 2017 : https://greenspector.com/fr/faut-il-changer-son-fond-decran-pour-consommer-moins-de-batterie/ De plus, il n’est pas exclu que certains sites se soient dégradés entre 2022 et 2024 (ajout de contenus et autres aléas de la maintenance d’un site web).
Analyse rapide
Les émissions de GES liées au site de Limoges (https://www.limoges.fr/) ont grandement diminué, même si l’évolution de l’EcoScore est moins marquée.
Ce site est lui aussi réalisé avec Drupal. Si certaines images pourraient être optimisées davantage, le poids le plus important correspond ici… aux polices de caractères ! Sur plus de 100 requêtes en tout pour afficher le site, une vingtaine correspondent à des polices de caractères. On note ici de nombreux doublons. Des subsets (suppression des caractères non-utilisés) pourraient être créés, notamment dans le cas de FontAwesome.
S’il est intéressant de découper les fichiers de code (notamment CSS) pour pouvoir les gérer plus finement, on compte ici plus de 30 fichiers CSS. Il serait préférable d’en avoir moins (ou en tout cas de ne charger que ceux dont l’utilisateur a réellement besoin).
L’ensemble des résultats obtenus lors des mesures et de la projection environnementale pour 2024 sont présentés dans le tableau ci-dessous :
URL
Catégorie
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
https://www.bas-rhin.fr/
Département
76
0,48
4,84
0,53
22
0,74
https://www.nicecotedazur.org/
Métropole
71
0,61
5,17
0,64
27
0,79
https://www.education.gouv.fr/
Ministère
69
0,54
4,88
2,27
32
0,82
https://www.bpifrance.fr/
Agence d'état
68
0,72
4,73
1,51
45
0,83
https://www.antai.gouv.fr/
Agence d'état
68
0,49
4,79
1,42
47
0,76
https://www.ecologie.gouv.fr/
Ministère
68
0,55
5,09
2,31
40
0,82
https://www.grenoblealpesmetropole.fr/
Métropole
68
0,56
4,93
0,84
32
0,77
https://www.lillemetropole.fr/
Métropole
67
0,45
4,66
2,6
32
0,82
https://www.grandlyon.com
Département
67
0,59
4,76
2,41
71
0,85
https://www.enseignementsup-recherche.gouv.fr/
Ministère
67
0,55
4,69
2,13
30
0,85
https://www.bretagne.bzh/
Région
66
1,29
5,26
3,12
56
0,94
https://www.laregion.fr/
Région
65
0,74
4,75
1,41
26
0,8
https://www.cohesion-territoires.gouv.fr/
Ministère
65
0,53
5,01
2,32
40
0,84
https://www.gironde.fr/
Département
65
0,66
5,18
3,55
34
0,83
https://www.valdemarne.fr/
Département
65
0,5
4,49
2,01
70
0,83
http://www.bordeaux.fr/
Ville
64
0,52
4,53
0,62
32
0,74
https://www.diplomatie.gouv.fr/fr/
Ministère
64
0,55
5,1
1,02
21
0,81
https://www.metropole-rouen-normandie.fr/
Métropole
64
0,7
4,96
2,35
34
0,83
http://www.cstb.fr/
Agence d'état
64
0,52
4,89
2,64
35
0,78
https://metropole.rennes.fr/
Métropole
62
0,8
4,95
2,03
47
0,85
https://www.grandnancy.eu/accueil/
Métropole
62
0,62
4,71
3,09
64
0,84
https://www.toulouse.fr/
Ville
62
0,73
5,25
1,93
49
0,86
https://www.brest.fr/
Ville
62
0,57
4,86
3,19
32
0,85
https://wwz.ifremer.fr/
Agence d'état
62
1,15
4,55
0,69
34
0,78
https://www.metropolegrandparis.fr/fr
Métropole
61
0,64
4,47
1,96
84
0,84
https://www.ifpenergiesnouvelles.fr/
Agence d'état
61
0,65
4,91
2,32
49
0,85
https://www.iledefrance.fr/
Région
60
0,9
4,82
1,41
40
0,79
https://www.seinemaritime.fr/
Département
59
0,57
5,1
2,6
40
0,85
https://www.brest.fr
Métropole
59
0,6
4,98
3,21
32
0,91
https://anr.fr/
Agence d'état
59
0,47
5,05
1,73
54
0,83
http://www.onisep.fr/
Agence d'état
59
0,82
5,33
3,31
44
0,89
https://www.acoss.fr/
Agence d'état
58
0,66
5,23
5,88
55
0,96
http://nice.fr/
Ville
58
0,82
4,94
8,27
64
0,97
https://www.pole-emploi.fr/accueil/
Agence d'état
57
1,71
7,17
2,97
40
0,74
https://www.toulouse-metropole.fr/
Métropole
57
0,79
5,23
1,94
49
0,91
http://www.lemans.fr/
Ville
57
0,66
4,9
3,88
83
0,97
https://www.lyon.fr/
Ville
57
0,82
5,26
1,87
98
0,94
https://www.normandie.fr/
Région
57
0,62
5,29
4,13
67
0,91
https://www.lehavre.fr/
Ville
57
0,71
4,82
4,24
95
0,94
http://www.outre-mer.gouv.fr/
Ministère
57
0,91
5,05
7,66
35
0,92
https://www.centre-valdeloire.fr/
Région
57
0,6
4,76
1,47
145
0,91
https://www.amiens.fr/
Ville
56
0,91
5,33
2,21
60
0,91
https://www.fonction-publique.gouv.fr/
Ministère
56
1,04
4,99
1,99
54
0,83
https://www.auvergnerhonealpes.fr/
Région
56
0,89
5,21
2,92
43
0,88
https://www.grandest.fr/
Région
56
0,72
5,21
2,42
59
0,92
https://www.ecologie.gouv.fr/portail-mer/
Ministère
55
1
5
0,7
34
0,79
https://www.dijon.fr/
Ville
55
1,39
5,5
1,27
64
0,9
https://www.lille.fr/
Ville
55
1
5,96
4,51
80
1,03
https://www.isere.fr/
Département
55
0,96
5,36
4,01
64
0,97
https://www.reims.fr/
Ville
54
0,82
5,45
1,69
62
0,96
http://www.justice.gouv.fr
Ministère
54
1,06
4,77
1,14
41
0,82
https://www.pasdecalais.fr/
Département
54
1,09
5,32
3,36
51
0,89
https://www.mairie-perpignan.fr
Ville
54
0,88
5,27
10,99
140
1,19
https://www.ineris.fr/fr
Agence d'état
54
0,89
5,11
4,38
39
0,92
https://www.culture.gouv.fr/
Ministère
54
0,82
5,88
3,92
54
1,02
https://herault.fr/
Département
54
0,58
5,16
5,34
67
0,92
https://www.paris.fr/
Ville
54
1,51
6,35
3,35
36
1,01
https://ants.gouv.fr/
Agence d'état
53
0,94
5,12
3,34
38
0,89
https://www.rhone.fr/
Département
53
0,65
5,37
5,13
69
0,95
https://agriculture.gouv.fr/
Ministère
53
0,99
4,59
2,24
49
0,85
https://www.valdoise.fr/
Département
53
0,74
5,12
2,82
65
0,89
https://www.bourgognefranchecomte.fr/
Région
53
0,69
4,94
1,89
136
1,03
https://www.villeurbanne.fr/
Ville
52
0,96
4,98
3,48
46
0,92
https://ansm.sante.fr/
Agence d'état
51
1,97
5,2
2,15
41
0,88
https://www.businessfrance.fr/
Agence d'état
51
0,72
5,19
1,7
73
0,91
https://lenord.fr/
Département
51
0,62
4,61
6,69
100
1,01
https://www.yvelines.fr/
Département
51
0,69
5,32
2,5
96
0,94
https://www.montpellier.fr/
Ville
51
0,65
4,8
3,95
70
0,94
https://www.nouvelle-aquitaine.fr
Région
51
0,86
5,24
3,42
51
0,92
https://www.tours.fr/
Ville
51
0,92
5,57
3,76
48
0,93
https://www.orleans-metropole.fr/
Métropole
49
1,84
5,82
2,92
41
0,99
https://www.saint-etienne-metropole.fr/
Métropole
49
0,86
5,46
38,7
115
1,72
https://www.hautsdefrance.fr/
Région
49
0,86
4,91
3
119
1,01
https://www.haute-garonne.fr/
Département
49
0,91
5,41
4,29
53
0,92
https://www.maregionsud.fr/
Région
48
0,86
5,52
3,56
49
0,94
https://www.metropole-dijon.fr/
Métropole
48
1,36
5,77
1,64
67
0,99
https://www.seine-et-marne.fr
Département
48
0,95
5,88
7,17
99
1,01
https://www.clermontmetropole.eu/accueil/
Métropole
47
0,78
5,46
4,8
79
0,99
http://www.angers.fr/
Ville
47
1,4
5,56
2,38
66
0,98
http://www.aixenprovence.fr/
Ville
47
3,11
7,12
2,01
25
1,11
https://www.marseille.fr/
Ville
47
1,2
5,77
8,02
181
1,2
https://metropole.nantes.fr/
Métropole
47
0,9
5,41
8,99
62
1,07
https://nice.fr/
Ville
47
1,56
5,75
16,95
163
1,31
https://www.economie.gouv.fr/
Ministère
46
1,16
5,06
1,25
159
1,02
https://metropoletpm.fr/
Métropole
46
0,68
5,12
3,89
177
1,08
https://www.onf.fr/
Agence d'état
45
2,64
5,73
2,56
60
0,99
https://www.bordeaux-metropole.fr/
Métropole
44
1,33
5,66
2,12
48
0,9
https://www.saintdenis.re/
Ville
44
0,98
5,68
4,1
59
1,03
https://clermont-ferrand.fr/
Ville
44
1,05
5,65
4,94
71
1,06
https://www.ugap.fr/
Agence d'état
43
1,33
6,51
9,92
96
1,25
https://tours-metropole.fr/
Métropole
43
1,17
5,78
4,87
91
1,07
https://www.inc-conso.fr/
Agence d'état
43
1,1
6,36
19,44
97
1,4
https://toulon.fr/
Ville
43
0,74
5,66
5,65
149
1,12
https://seinesaintdenis.fr/
Département
41
1,3
5,52
6,89
92
1,07
https://www.loire-atlantique.fr
Département
41
1,22
5,66
3,63
77
1,11
https://www.departement13.fr/
Département
41
1,32
6,15
6,82
80
1,13
https://www.metzmetropole.fr/
Métropole
40
2,81
7,49
8,28
135
1,46
https://www.grenoble.fr/
Ville
39
1,34
5,58
4,67
70
1
https://meteofrance.com/
Agence d'état
38
2,04
6,93
5,46
82
1,25
https://www.limoges.fr/fr
Ville
38
1,51
8,67
2,46
93
1,43
https://www.annecy.fr/
Ville
37
1,55
5,71
4,64
104
1,07
https://www.hauts-de-seine.fr/
Département
37
2,02
6,88
11,86
175
1,4
https://www.montpellier3m.fr/
Métropole
37
0,92
5,41
20,48
238
1,57
https://www.essonne.fr/
Département
36
1,82
7,11
47,6
96
2,06
https://www.strasbourg.eu/
Métropole
34
2,24
6,97
3,25
91
1,19
https://www.nimes.fr/
Ville
34
1,11
5,93
12,38
128
1,24
http://www.cea.fr/
Agence d'état
32
2,27
7,86
18,59
99
1,62
https://www.departement06.fr/
Département
30
1,39
7,81
27,84
172
1,99
https://www.ampmetropole.fr/
Métropole
24
2,38
7,76
13,59
266
1,75
Pour les résultats antérieurs, se reporter aux articles précédents, identifiés en introduction de cet article.
Perspectives et conclusion
Il reste encore du chemin à parcourir pour rendre moins impactant les sites mesurés ici. Comme souvent dans ce type d’études, certaines recommandations faciles à implémenter pourraient constituer une bonne première étape. Il peut s’agir d’optimiser les images ou les polices, voire de limiter l’usage de certains composants animés. Dans tous les cas, une démarche d’amélioration continue doit être mise en place, notamment via des outils de mesure permettant de suivre l’évolution dans le temps. Ceci requiert de choisir soigneusement ce qui est mesuré, de quelle façon et à quelle fréquence, en s’appuyant si possible sur un budget environnemental. En complément, un référentiel de bonnes pratiques (le plus souvent construit à partir des référentiels existants) peut être d’un grand secours.
Ceci coïncide avec un grand défi qui se profile pour les structures publiques françaises : mettre en œuvre le RGESN afin d’améliorer l’écoconception de leurs services numériques mais aussi plus généralement d’initier ou de renforcer leur démarche d’écoconception. Alors même que les efforts se multiplient autour de l’amélioration de l’accessibilité au regard du RGAA, les deux chantiers ne doivent pas être dissociés. En effet, l’accessibilité et l’écoconception sont deux domaines (parmi d’autres) du Numérique Responsable qui s’avèrent être à l’usage mutuellement bénéfiques.
Si votre site n’apparaît pas dans ce classement ou si vous vous interrogez sur les résultats obtenus ou sur comment les améliorer, n’hésitez pas à nous contacter.
L’évolution constante des réglementations, telles que le RGPD (Règlement général sur la protection des données) et la loi REEN (Réduction de l’empreinte environnementale numérique), met en évidence un changement de paradigme dans le monde numérique. Les entreprises et les organisations sont de plus en plus conscientes de l’importance de la conformité réglementaire et de la nécessité de réduire leur impact environnemental. Cela a des implications profondes sur les outils et technologies utilisés, notamment en ce qui concerne les solutions d’analyse web.
D’autant qu’aujourd’hui, ces outils sont massivement utilisés pour scruter nos comportements et leurs impacts sont souvent sous-évalués au regard d’autres sujets comme la publicité par exemple. Ce sont des enjeux forts car le tracking est omniprésent dans les parcours et pages des services numériques. De plus, analyser les zones fréquentées par l’utilisateur via l’analytics permet de cibler les points par lesquels l’utilisateur passe souvent et donc ses impacts principaux. Ce tracking favorise également la détermination de l’utilité des fonctionnalités, favorisant la désactivation des éléments fonctionnels non utilisés. Ainsi, une utilisation judicieuse de l’analytique peut présenter des avantages environnementaux en évitant des impacts généralisés. L’optimisation et la modération dans son utilisation sont cruciales pour minimiser les impacts systémiques.
Bien choisir ses outils et adopter une bonne stratégie de tracking semble donc être un axe clé dans une démarche Numérique Responsable de son service numérique.
Dans cet article, nous allons explorer leurs impacts environnementaux de différentes solutions destinés au tracking dans les pages web (web tracking) afin d’avoir quelques repères sur l’impact généré par ce tracking mais aussi pouvoir faire un choix de manière avisée sur les solutions à implémenter en regard de leur niveau de sobriété.
Pourquoi utiliser des Analytics ?
Le web tracking, également connu sous le nom de suivi web, est l’activité de collecte de données sur les interactions des utilisateurs sur Internet, notamment leurs visites de sites web, leurs clics, leurs comportements de navigation et bien plus encore. Il permet aux entreprises et aux organisations d’analyser et de comprendre le comportement des utilisateurs en ligne, de mesurer l’efficacité de leurs campagnes marketing et de personnaliser les expériences utilisateur.
L’analyse web se concentre sur la mesure et l’interprétation des données d’utilisation des sites web, offrant ainsi aux exploitants une vision détaillée de l’activité en ligne de leurs visiteurs. Cette pratique englobe un large éventail d’informations, telles que :
Le nombre de visiteurs au fil du temps, distinguant les visiteurs réguliers des nouveaux arrivants, ainsi que la durée de leur visite et les pages consultées
Les sources de trafic : qu’il soit direct (lorsqu’un utilisateur saisit directement l’adresse du site), provenant d’autres sites web, de publicités ou via des moteurs de recherche
La localisation géographique des visiteurs
Les détails techniques, tels que le système d’exploitation, la résolution d’écran et la version du navigateur web des visiteurs
Et encore bien d’autres informations, en fonction de l’outil retenu
L’idée initiale de l’analyse web est de collecter et analyser ces informations pour un certain nombre de motivations :
Personnalisation de l’expérience utilisateur : en rassemblant des données collectées dans des profils d’utilisateurs, ceux-ci sont ensuite utilisés pour personnaliser les publicités. Au lieu de montrer des publicités aléatoires aux utilisateurs, les informations de leur profil, par exemple leur âge, leur sexe et les sites qu’ils ont visités dans le passé, sont utilisées pour choisir un contenu correspondant à leurs intérêts. Les annonceurs peuvent ainsi concentrer leur budget sur les consommateurs susceptibles d’être influencés.
Sécurité : les forces de l’ordre et les services de renseignement peuvent utiliser les technologies de suivi du web pour espionner des individus. L’identification unique des individus sur Internet est importante dans la lutte contre l’usurpation d’identité et pour la prévention de la fraude à la carte de crédit par exemple. Ce sujet reste étroitement lié à la notion de vie privée, en raison des dérives possibles.
Tests de convivialité des applications web ou compréhension du comportement utilisateur : en observant les étapes suivies par un individu lorsqu’il essaie de résoudre une certaine tâche sur une page web, les problèmes d’utilisation peuvent être découverts et corrigés.
Mesure de la performance et des objectifs : l’objectif est de maximiser les revenus, par exemple en évaluant les pages qui génèrent le plus de revenus, les bannières publicitaires qui génèrent le plus de trafic ou les étapes du processus de commande au cours desquelles les clients sont perdus.
Ces motivations aident à la prise de décision basée sur les données. En effet, les données collectées grâce au web tracking aident les entreprises ou autres entités à prendre des décisions fondées sur des statistiques prouvées. Les informations sur le comportement des utilisateurs aident à identifier les problèmes potentiels, à repérer les opportunités d’amélioration et à orienter les décisions relatives aux investissements en marketing, à l’expérience utilisateur et à d’autres aspects de l’activité en ligne. C’est notamment ainsi que l’impact du SEO (Search Engine Optimization) ou du SEA (Search Engine Advertising) peuvent être évalués.
Cependant, récupérer une telle masse d’informations engendre à la fois du trafic de données et leur stockage pour une analyse quotidienne ou sur la durée mais implique également des traitements du côté de l’utilisateur, que ce dernier utilise ou non le service numérique en question. Cela se fait aussi au risque de bloquer temporairement le chargement d’un site web ou de ne pas respecter le consentement de l’utilisateur.
Il est donc nécessaire en tant propriétaire exploitant de sites, de réfléchir à l’impact économique, social et environnemental de ces solutions de tracking.
S’il est important de collecter des données d’utilisation du service numérique, il faut se contenter de l’essentiel (ce qui va dans le sens du RGPD : Règlement général sur la protection des données).
D’autant que les services externes ont tendance à alourdir les sites, notamment via des scripts non-désirés collectant par exemple des données utilisateurs. On citera par exemple Google Analytics, Google Recaptcha (détection de bots), Google Maps et FontAwesome.
Quels critères pour faire son choix ?
Alors quels critères prendre en compte lors d’un choix d’outil d’analytics? Quelles sont les solutions qui permettent de faire cette collecte éclairée ?
Nous ne reviendrons pas sur l’ensemble des critères de besoins d’utilisation en termes d’ergonomie, de support technique, de fonctionnalités, etc. Bien sûr, cela reste un point primordial dans ce choix mais qui diffèrent selon les organisations.
Il est important de prioriser les outils qui respectent rigoureusement les réglementations en matière de protection des données, telles que le RGPD. Les données sensibles des utilisateurs doivent être sécurisées et traitées de manière confidentielle.
Lors de la sélection d’outils d’analytics, il est crucial de maintenir une expérience d’utilisation fluide et accessible pour tous les utilisateurs.
Il est également important de tenir compte de l’empreinte écologique de l’outil. Les données collectées correspondent-elles au besoin énoncé ? L’outil doit également pouvoir évoluer avec les avancées technologiques et les changements dans le paysage de l’analytique. Les serveurs et centres de données ont-ils des sources d’énergie renouvelables et sont-ils gérés durablement ?
Il peut être difficile d’avoir accès à toutes ces informations mais cela peut aider à affiner la recherche de solutions plus respectueuses. Si l’outil est transparent quant à la manière dont il collecte, traite et utilise les données, cela traduit un engagement des valeurs de l’entreprise. Les utilisateurs doivent avoir une compréhension claire de comment sont utilisées leurs données.
Sélection des solutions et définition du périmètre de mesure
Nous avons pris le soin de sélectionner 3 outils analytics qui sont accessibles gratuitement. Voici notre sélection :
Google Analytics
Matomo
Plausible
Méthodologie
Choix des solutions étudiées
Le choix des solutions à analyser a été effectué en prenant en compte plusieurs critères clés, tels que la popularité sur le marché ainsi que son coût. L’objectif était de sélectionner des solutions représentatives du paysage actuel de l’analyse web, afin d’obtenir des résultats pertinents et significatifs.
Il convient de noter que cette étude expérimentale ne vise pas à promouvoir une solution spécifique, mais plutôt à fournir une évaluation objective basée sur des données concrètes. Les résultats de cette étude pourront servir de référence et d’outil d’aide à la décision pour les acteurs du numérique cherchant à optimiser leurs analyses web tout en tenant compte des enjeux environnementaux et de vie privée.
Dans le cadre de cette étude comparative des solutions d’analyse web, une étape nécessaire consiste à mesurer les performances d’une page de référence qui n’a aucune solution d’analyse web implémentée et de mesurer cette même page avec les pages implémentant les solutions de web tracking. Cette approche nous permet d’évaluer l’impact spécifique de chaque solution en termes de performance et de consommation (énergie, data, …) de la page. Il est important de noter que nous avons délibérément exclu les utilisations plus avancées telles que l’utilisation de Tag Manager ou la configuration avancée des données collectées. De plus, nous avons pris en compte au possible la réalité de l’impact du traitement et du stockage des données collectées côté serveurs, celui-ci étant projeté par notre modèle détaillé dans cet article. Exclue également la partie administrative de ces outils et l’analyse des dashboards.
Il est à noter que Matomo propose également une solution qui tourne uniquement côté serveur, ce qui permet d’éviter les soucis vis-à-vis du RGPD (Règlement général sur la protection des données) en plus de réduire l’impact environnemental sur la partie cliente. Nous n’avons pas évalué cette solution.
Nous avons déployé une page web simple de référence ainsi que 3 pages identiques sur lesquelles nous avons implémenté les 3 solutions respectives. La page de référence est un écran noir avec un texte de police standard et dépourvue de script.
Définition du parcours utilisateur
Pour mesurer l’activité des outils d’Analytics, nous avons établi le parcours suivant :
Etape 1 : lancement de l’application du navigateur
Etape 2 : lancement de l’url de la page à mesurer
Etape 3 : pause (30 sec)
Etape 4 : scroll de la page
Le parcours consiste à lancer l’application du navigateur (ici Chrome) et saisir l’url de la page à mesurer (référence ou avec solution implémentée). Ensuite le parcours déroule en faisant une pause de 30 secondes pour mesurer ce qui se passe en cas d’inactivité de l’utilisateur. Enfin, un scroll est effectué pour détecter l’envoi de requêtes supplémentaires décrivant le comportement de l’utilisateur.
Contexte de mesure
Samsung S7, Android 10
Réseau : 3G : ici utilisé pour étendre les performances de tests et permettre davantage de points de mesures
Luminosité : 50%
Tests réalisés sur au moins 5 itérations pour fiabiliser les résultats
Hypothèses retenues pour les projections environnementales
Localisation utilisateurs : 2% France, 98% Monde
Localisation serveurs : 100% monde (à défaut d’avoir les informations pour chacune des applications)
L’empreinte environnementale dépend de la localisation des serveurs de l’application, de leur type, de la localisation des utilisateurs et du type d’appareils qu’ils utilisent. Nous avons pris le parti d’étudier tous les utilisateurs ce qui correspond à une répartition de 2% en France et 98% pour le reste du monde. Ce ratio est tiré du rapport Digital report de We are Social. Le rapport mondial précise que 5,16 milliards de personnes sont utilisatrices d’internet et l’édition française indique que 53,96 millions de français sont des utilisateurs d’internet.
Pour la répartition globale des appareils utilisés, le rapport de l’année précédente énonce une répartition d’environ 60% pour les smartphones, 38% pour les PC et 2% pour les tablettes.
Quel impact environnemental ?
En réalisant nos mesures réelles d’impact environnemental pour chacune des solutions d’analyse web, on peut directement faire le calcul avec les statistiques d’utilisation et l’impact unitaire de l’outil seul sur une visite (chargement, pause et scroll) auquel nous avons soustrait l’impact de la page de référence. L’impact unitaire présenté ci-dessous est le delta entre la page présentée noir avec analytics et la page noire de référence sans analytics implémenté.
Solution
Impact unitaire par parcours (g CO2e)
Impact pour 10 visites/jour de chaque instance sur une année
Google Analytics
0,069
2 490 T CO2e
Matomo
0,012
508 kg CO2e
Plausible
0,039
2,5 T CO2e
Pour chacune des solutions d’analytics, nous avons pris l’hypothèse que chacun des sites disposant des solutions a une fréquence de visite de 10 par jour.
Pour Google Analytics, qui produit 0,069 g CO2e par parcours, génère presque 2 500 tonnes de CO2e à l’échelle de ses 9 887 783 occurrences sur une année.
Plausible, elle a un impact unitaire au chargement de 0,039 g CO2e donc 2,5 T CO2e sur une année pour 17 628 occurrences.
Enfin, Matomo qui compte 11 610 occurrences avec un impact de 0,012 g CO2e par parcours produit 508 kg CO2e par an.
On peut spécifier que l’écart est très faible car les pages sont très sobres mais on ne constate que peu d’écart entre une solution très tournée vers le business comme Google Analytics, et Plausible, censée offrir une solution plus légère en termes d’impact environnemental. La plus grosse part de l’impact se fait au niveau du volume d’utilisation des solutions d’analytics.
Si la différence au niveau des impacts unitaires est très faible, à même taux d’utilisation, certaines solutions sont bien plus sobres écologiquement.
L’intérêt est donc de limiter l’usage de ceux-ci et de privilégier les solutions à plus faible impact.
Par exemple, si les services web utilisant Google Analytics transféraient leur usage d’analytics sur Matomo, l’impact environnemental en serait fortement diminué : si les visites des presque 10 millions d’occurrences de Google Analytics ont un impact de 2 490 T CO2e, en utilisant l’alternative Matomo, cet impact serait de 433 T CO2e. C’est 6 fois inférieur à l’impact de Google Analytics !
D’autant que Matomo propose une solution server-side. En dehors des bénéfices coté vie privée en n’ayant aucun intermédiaire niveau collecte des données et performance améliorée pour les visiteurs du site web, les émissions de gaz à effet de serre sont elles aussi diminuées.
21,6 ko de données sont transférés à Google par visite
50 M de sites utilisent Google Analytics d’après Marketing Land en 2015 (ce qui ne correspond pas à nos estimations)
Pour un total estimé de 10 visites par jour par site web utilisant Google Analytics, cela représente 500M de pages vues et donc près de 10 800Go transférés par jour ou 4M Go/an.
D’après ses recherches, 1Go = 4,2 g CO2eq. Ainsi la pollution de la solution Google Analytics s’élève à 16556kg/an.
On note donc que pour un usage au plus simple de l’outil sur une page très sobre, les estimations de Gerry McGovern sont très faibles en comparaison de l’impact que nous avons mesuré.
Cependant, cette estimation est réalisée en prenant en compte seulement le poids des données pour faire une projection d’impact carbone, ce qui diffère de notre méthodologie.
Pour aller plus loin…
Au-delà des considérations générales d’impact environnemental, une analyse technique approfondie des requêtes générées par les outils d’analytics peut fournir des informations sur la manière dont ces solutions opèrent et interagissent avec les sites web (poids des requêtes, chargement différé, services tiers, etc).
Voici les valeurs des mesures pour du parcours (chargement, pause, scroll) des 3 pages web auquel nous avons soustrait les valeurs de référence :
Performance (s)
Vitesse de décharge de batterie (µAh/s)
Données mobiles (Ko)
Google Analytics
2,3
21 955
145,9
Plausible
1,6
3 604
29,1
Matomo
0,4
15 272
9,2
Sans grande surprise, c’est Google Analytics le plus consommateur et le moins performant qui est suivi de Plausible puis de Matomo. En effet, sur 150Ko de données échangées sur le parcours, le fichier Javascript chargé d’envoyer la requête vers le serveur de Google pèse plus de 90 ko. C’est 66 fois plus élevé que Plausible. Matomo compte lui, plus de 40ko pour cette requête.
Page avec GA implémenté – Inspecteur Firefox, onglet network
D’autre part cela laisse penser que plus le fichier JS est volumineux, plus il récupère d’informations sur l’utilisateur même si cela ne constitue pas nécessairement une corrélation directe. D’autres facteurs, tels que les traitements côté client ou l’optimisation du code, peuvent également influencer la performance et la collecte de données.
Ici, un gros volume de données est transmis à la plateforme Google Tag Manager qui n’est pourtant pas implémenté dans le code. L’écart est flagrant avec Matomo qui transfère un faible volume de données par rapport à son concurrent.
De plus, Google Analytics et Matomo transfèrent tous deux des cookies.
A la base, les cookies ont été conçus pour un simple besoin : conserver les informations de connexion d’un utilisateur sur un site donné, ils ne sont donc pas problématiques en soit, mais ils servent en fait à bien des besoins publicitaires, marketing et autres pour permettre un contenu plus ciblé en fonction du comportement de l’utilisateur.
Ainsi, il est important de regarder la taille et la date d’expiration de ces cookies. Pour Google, les cookies se démarquent facilement avec leur préfixe _ga tandis que les cookies de Matomo se repèrent grâce au préfixe _pk. Les cookies de Google ont une taille totale de 80 octets et expirent seulement 13 mois plus tard ce qui correspond à la date d’expiration des cookies publicitaires. Ceux de Matomo comptent pour 56 octets et un des 2 cookies chargés expire le jour même. Dans les 2 cas on peut questionner la pertinence de ces cookies sur des pages aussi sobres.
On l’a vu, Google Analytics est la solution la moins performante et la plus impactante écologiquement, d’autant que la requête vers Google Analytics est chargée en asynchrone. Bien que le chargement asynchrone soit une bonne pratique de performance courante pour ne pas retarder l’affichage de la page, cela peut en effet masquer l’impact environnemental réel de cette solution.
Dans notre processus de mesure, nous avons cherché à obtenir une vue complète du chargement de Google Analytics. Il est important de souligner que Google a mis en place diverses stratégies pour minimiser son impact sur la performance des sites web. Cependant, malgré ces efforts, nos données de mesure révèlent que les impacts en termes d’énergie et de transfert de données restent plus élevés pour GA par rapport à ses concurrents.
Les limites de notre étude
Les résultats de notre étude présentent des limites. Les pages mesurées sont premièrement très simples en termes de fonctionnalités et de visuels ce qui implique un scénario simple également ce qui n’est pas forcément représentatif des sites web disposant d’outils d’analytics. De plus, de par leur sobriété, ces pages sont très légères et les mesures effectuées peuvent donc entrer dans la marge d’erreur de notre outil de mesure. Enfin, nous n’avons que peu d’informations sur les facteurs variants de l’impact environnemental (localisation des serveurs par exemple).
Pour conclure
En conclusion, notre étude sur les différents outils d’analyse web met en évidence des nuances intéressantes quant à leur impact environnemental. Il est important de noter que nos analyses ont été effectuées sur une page sobre et un cas d’utilisation très basique, ce qui limite considérablement les écarts d’impact. Cependant, même dans ce contexte, nous constatons des volumes de données élevés avec des techniques d’efficience différant certains chargements. Ceci pour toujours plus d’analyse du comportement utilisateur avec un fort impact environnemental en prime.
L’objectif premier de cet article est de valider le classement proposé dans cette activité par de la mesure mais aussi d’aller plus loin. Cet article a été réalisé en collaboration avec l’INRIA (merci Benjamin !) et l’activité du MOOC sera modifiée en conséquence prochainement.
Méthodologie
Afin de pouvoir mesurer les différents éléments qui constituent une page web, nous avons commencé par créer une page HTML/CSS aussi basique que possible qui sert de référence pour les mesures. Cette page a un fond entièrement noir. Ensuite, nous avons décliné cette page en autant de versions qu’il y a d’éléments à mesurer. Pour chaque élément à mesurer, une page HTML est donc créée à partir de cette page de référence, à laquelle on ajoute seulement l’élément à mesurer. Le CSS est créé dans un fichier à part, renseignant à minima le fond entièrement noir. Ce fichier n’est pas minifié (suppression des caractères non-nécessaires à l’interprétation du code) car l’apport sur un fichier aussi court est négligeable.
Ensuite, un parcours simple est automatisé en GDSL (le langage d’automatisation de Greenspector) afin de simuler le comportement standard d’un utilisateur, basé sur une utilisation standard du composant mesuré (voir plus loin). Ensuite, une fois les mesures réalisées sur le banc de mesure, nous procédons à la génération d’un dashboard et à la projection environnementale. Ce sont ensuite ces résultats que nous utilisons pour analyser les impacts des différents éléments mesurés et les classer.
Concernant les médias intégrés dans la page à titre d’exemple pour la mesure, nous avons autant que possible repris les éléments utilisés dans l’activité du MOOC. Cette dernière proposait à l’origine un fil Twitter qui apparaît depuis vide. Avec l’INRIA, il a été décidé de le remplacer par un fil Facebook (celui de l’INRIA) à la fois dans l’activité et dans l’échantillon mesuré ici.
Nous avons ici pris le parti de mesurer les éléments choisis en fonction de l’usage qui en est fait :
Image (brute et allégée), animation (CSS), image animée (GIF) : chargement et pause
Fichier audio, vidéo (BD et HD) : chargement, pause, lecture
Carte interactive : chargement, pause, zoom, pause
L’idée générale est d’aller au-delà du simple chargement de la page pour refléter ce qu’en font les utilisateurs mais aussi d’aller vers d’autres métriques liées aux impacts environnementaux.
Les mesures ont été effectuées sur Samsung Galaxy S9, en WIFI.
Différentes hypothèses ont été prises pour la projection environnementale :
100 % des utilisateurs et serveurs localisés en France
La méthodologie pour la projection environnementale est décrite dans cet article dédié.
Classement des éléments d’une page en fonction leur poids
Attention, cet article contient des spoilers. En effet, il se base sur le résultat attendu pour l’activité “Comparer le poids des éléments d’une page web”. Si vous n’avez pas encore fait cette activité, faites-la dès maintenant.
Dans l’activité du MOOC, le classement proposé est le suivant (du composant ayant le poids le plus élevé à celui ayant le poids le plus faible) :
Vidéo Haute Définition
Vidéo Basse Définition
Podcast audio
Image Brute
Carte OpenStreetMap
Un fil de réseau social
Image allégée
Texte seul
A l’issue des mesures que nous avons effectuées, les données transférées lors du chargement des pages correspondantes donnent les résultats suivants :
Données transférées au chargement des pages pour les éléments de l’activité
On retrouve donc plus ou moins le classement proposé dans l’activité avec quelques écarts liés aux contenus choisis pour chaque catégorie. Il convient en effet de noter que le poids de ces éléments dépend de plusieurs facteurs et en particulier du réseau social sélectionné ainsi que du contenu intégré ici (message, fil de messages, etc). Il en va de même pour les autres éléments mesurés ici mais l’ordre de grandeur reste donc tout à fait correct.
Nous pouvons donc ici valider le classement du poids des éléments tel que proposé dans l’activité du MOOC de l’INRIA. Nous pourrions tout à fait nous arrêter ici mais voyons maintenant pour aller plus loin. Pour cela, regardons ce qui se passe au-delà du chargement de la page ainsi que d’autres métriques et indicateurs.
Autres impacts des éléments d’une page web
Nous restons donc sur les huit éléments proposés dans l’activité.
Le dashboard généré via Greenspector Studio liste plusieurs autres métriques et indicateurs. Le premier score calculé concerne la performance. Toutefois, sur des pages aussi légères, le chargement est trop rapide pour qu’on puisse différencier les éléments de façon significative en raison du “bruit”, notamment le TTFB (Time to First Byte = délai avant réception du premier élément) qui peut légèrement varier d’une itération à l’autre.
Données transférées au-delà du chargement initial
Commençons par regarder les données transférées au-delà du chargement de la page : pause de 30 secondes, scroll en bas de la page puis nouvelle pause de 30 secondes.
Données transférées sur l’ensemble de la mesure pour les éléments de l’activité
On constate ici que les données transférées en-dehors du chargement ne sont la plupart du temps pas négligeables. En particulier, dans le cas de la lecture de vidéo et d’audio (comme on pourrait s’en douter) mais aussi pour le fil Facebook.
Énergie consommée
Sur l’ensemble des étapes mesurées, l’énergie consommée en fonction des éléments est la suivante :
On constate que l’ordre reste globalement cohérent à quelques exceptions près (nous y reviendrons plus tard) mais surtout le fil Facebook qui, bien que moins impactant que la vidéo, l’est davantage que les autres éléments (notamment le lecteur audio).
Fil Facebook
La page contenant le fil Facebook est parmi les plus impactantes du point de vue de l’énergie. S’il est logique que le scroll et le chargement soient impactants (car ces étapes impliquent à minima une modification de l’affichage), c’est tout de suite plus étonnant pour les pauses. En effet, lorsque l’utilisateur est inactif, l’affichage n’est normalement pas modifié. Il reste donc à regarder si des requêtes “parasites” surviennent. Dans l’interface web de Greenspector Studio, on obtient la représentation suivante :
Visualisation CPU et données transférées pendant la pause après scroll sur la page contenant le fil Facebook
Sur une étape de pause “normale”, aucun transfert de données n’a lieu (en-dehors d’éventuelles requêtes liées à la télémétrie du navigateur Chrome). Si, en plus, l’affichage n’est pas modifié, on s’attend à voir une sollicitation CPU stable et basse et aucune donnée transférée. Ce n’est pas le cas ici. En-dehors d’un pic fort de CPU, corrélé à du transfert de données, les pics CPU semblent plutôt être de l’ordre du tracking.
Extrait des requêtes HTTP capturées dans l’onglet Réseau des DevTools de Firefox
Lors de l’intégration d’un contenu provenant d’un service externe, il est courant que des requêtes soient émises à intervalles réguliers vers le site source pour l’informer du comportement utilisateur et des interactions avec le contenu intégré. On le voit ici dans le cas de Facebook mais sachez que la plupart des réseaux sociaux procèdent ainsi (à ce propos, je vous recommande de tester l’intégration d’un contenu Linkedin…).
Différences de consommation énergétique pour les contenus
Le texte apparaît plus impactant pour l’énergie que la carte interactive ou les images. Tous ces contenus ne provoquent pas de changement de l’affichage une fois chargés et juste visualisés. En revanche, sur un écran AMOLED (comme celui du S9 utilisé ici), l’affichage du texte est plus impactant que les images et la carte interactive choisis car le fond est noir mais le texte blanc. Sur ce type d’écran (et c’est la raison d’être du mode sombre du point de vue de la consommation d’énergie), un pixel noir est beaucoup moins coûteux à afficher qu’un pixel blanc. Nous sommes donc ici sur un cas limite mais qui permet de comprendre d’où provient l’impact d’une page en consultation seule.
Pour les éléments de l’activité du MOOC, la mesure des données transférées vient confirmer le classement attendu, avec seulement un léger bémol lié au contenu de réseau social intégré (qui apparaît plus impactant que la carte interactive).
Toutefois, si on regarde plutôt l’énergie consommée, on constate qu’une bonne partie de l’impact du fil Facebook intervient après le chargement, via des requêtes régulières à des services tiers. Ceci souligne la nécessité d’aller au-delà de la mesure des requêtes, données transférées et du DOM mais aussi de mesurer ce qui se passe après le chargement initial, au risque de passer entre autres à côté des services tiers (et des éléments dont le chargement est différé, souvent pour des raisons de performance). Aussi, il s’agit là (au risque d’insister) d’être au plus proche du comportement des utilisateurs.
Voyons maintenant pour ajouter à la liste initiale de nouveaux éléments qu’on trouve souvent sur le web.
Autres éléments intégrés dans une page web
En complément des éléments proposés dans l’activité du MOOC, nous nous sommes penchés sur d’autres items :
La méthodologie de mesure et création des pages de l’échantillon est exactement la même que celle exposée plus haut.
Voyons ici les résultats obtenus.
Données transférées lors du chargement initial
A l’issue des mesures que nous avons effectuées, les données transférées lors du chargement des pages correspondantes donnent les résultats suivants :
Données transférées au chargement des pages pour l’ensemble des éléments
En complément du classement constaté plus haut pour les éléments issus de l’activité, on note le GIF, assez volumineux en soi (même si cela dépend une fois de plus de l’élément choisi).
Le tableau est moins volumineux que le texte car il contient moins de caractères (moins de phrases de contenu factice ont été introduites dans le tableau que dans la page servant à mesurer l’impact du texte seul). Nous verrons plus loin que la surconsommation, dans le cas du tableau, est ailleurs. L’animation apparaît ici plutôt légère (quelques lignes de HTML et de CSS).
A noter que les éléments ajoutés ici n’entraînent pas de transferts de données additionnels au-delà de l’étape de chargement initial.
Données transférées sur toutes les étapes pour l’ensemble des éléments
Énergie consommée
Les résultats obtenus ici sont les suivants :
Énergie consommée sur l’ensemble de la mesure pour les éléments
Lorsque l’on se limitait aux éléments de l’activité du MOOC, nous avions constaté quelques différences avec le classement initialement proposé. En particulier, le fil Facebook se démarquait nettement comme le plus impactant du point de vue de l’énergie.
Ici, on remarque que l’animation CSS est de loin la plus impactante du point de vue de l’énergie. Après les vidéos, on trouve le fil Facebook puis l’image animée. Cet ordre est notable : en effet, contrairement au GIF animé qui modifie en continu l’affichage, le fil Facebook apparaît plutôt statique lorsque l’utilisateur est inactif. Comme évoqué précédemment, sa surconsommation d’énergie vient plutôt de ce qui ne se voit pas : les requêtes à destination de Facebook et le préchargement des vidéos.
Le tableau HTML natif est légèrement plus impactant que le texte simple du point de vue de l’énergie, même s’il contient moins de caractères. Ainsi, dès l’affichage, le tableau sollicite légèrement plus le CPU (nous y reviendrons plus loin).
Lorsqu’un élément sur une page entraîne des modifications en continu ou presque de l’affichage, l’impact énergétique peut être conséquent. Nous verrons dans la dernière partie de cet article en quoi ceci influe sur les impacts environnementaux.
Conclusion intermédiaire
Les trois éléments ajoutés s’intègrent sans surprise au classement initial si l’on s’en tient aux données transférées. Toutefois, du point de vue de l’énergie, l’animation CSS et le GIF animé ont un impact considérable. Ceci souligne une fois de plus la nécessité, pour de la mesure, de ne pas se limiter aux requêtes HTTP, données transférées et au DOM. L’utilité de cette dernière métrique pour la projection environnementale reste discutable. Les cas présentés ici sont d’ailleurs de bonnes illustrations de cas où le DOM est très léger mais où les impacts sont très importants.
Pour finir, nous allons utiliser une autre méthodologie de mesure et collecter des données afin d’avoir une vision plus globale des différents éléments.
Mesure des pages via un benchmark “classique”
Pour cette nouvelle série de mesures, nous sommes partis du même échantillon de pages mais avons utilisé un benchmark classique. Ainsi, chaque page est mesurée sur une durée de 70s, en utilisant les étapes suivantes :
Le chargement de la page
Une étape de pause avec la page affichée au premier plan
Une étape de pause avec la page affichée à l’arrière-plan
Agrégation des résultats du benchmark des éléments (classés par quantité de données transférées)
Pour ce qui est des données transférées, on retrouve ce qui a déjà été observé. Sachant qu’il est plus difficile de départager l’animation CSS, le texte et le tableau HTML car les quantités de données transférées sont très faibles.
Pour ce qui est du CPU, on note quelques légères variations mais surtout les surconsommations pour l’animation CSS, le GIF et le fil Facebook sont d’autant plus claires. À la suite de ce trio de tête, on trouve le tableau HTML qui, malgré la faible quantité de données nécessaires à son chargement, s’avère être impactant pour le CPU.
Pour les requêtes HTTP, on retrouve sans surprise en tête le fil Facebook (de loin) et la carte OpenStreetMap. Il s’agit en effet ici de l’intégration d’éléments dynamiques fournis par des services-tiers, ce qui nécessite davantage de fichiers pour fonctionner. A noter que les requêtes vers et depuis Facebook se font en continu ou presque, jusqu’à atteindre plus de 170 requêtes en tout au bout de quelques minutes d’inactivité de l’utilisateur (comme nous avons pu l’évoquer plus haut).
Concernant les équivalents en émissions de gaz à effet de serre, l’animation et l’image animée sont les plus impactants, suivis par le fil Facebook (en raison de sa forte consommation de données et de CPU). À titre indicatif, l’occupation des sols ainsi que l’eau sont également indiquées (voir à ce propos l’article sur la projection environnementale : https://greenspector.com/fr/methodologie-calcul-empreinte-environnementale/ ). Le classement pour ces deux autres indicateurs, reste globalement identique.
Conclusion intermédiaire
Ces nouvelles mesures, avec une méthodologie légèrement différente, soulignent une fois de plus la nécessite de prendre en compte différentes métriques mais aussi les écarts observables lors de l’évaluation sur plusieurs indicateurs environnementaux.
Conclusion globale
Si l’on reste sur le même périmètre (données transférées lors du chargement initial), les mesures confirment le classement des éléments proposé par l’activité du MOOC de l’INRIA. Le seul point à discuter reste l’intégration d’un élément de réseau social. Sur l’échantillon choisi ici, l’intégration du fil Facebook est plus impactante que la carte interactive issue d’OpenStreetMap (sans même compter les autres impacts identifiés au-delà du chargement initial ou les données liées à l’énergie).
Si l’on va au-delà de ce périmètre de mesure (en regardant également d’autres métriques et indicateurs environnementaux), le classement peut être amené à changer, en particulier à cause des impacts au niveau de l’énergie consommée.
Enfin, l’ajout de nouveaux éléments intégrables sur une page web vient forcément modifier le classement mais permet surtout d’affiner le modèle mental évoqué en introduction du présent article. En particulier, l’animation CSS et le GIF animé (ainsi que le tableau HTML dans une moindre mesure) soulignent l’impact sur des métriques qui ne sont aujourd’hui pas mesurées par la plupart des outils alors qu’elles ont un rôle prépondérant pour les impacts environnementaux. Par exemple, l’impact du CPU sur la décharge de batterie du terminal peut entraîner l’accélération à terme du renouvellement de celui-ci donc les impacts environnementaux majeurs liés à cette opération. Ce constat remet directement en question le modèle mental largement adopté pour les impacts environnementaux du numérique qui conduit certains à “compenser” la diète qu’ils s’imposent sur les données transférées par la mise en place d’animations. Par extension, ceci rejoint notamment les questionnements sur l’impact des différents formats et codecs pour certains contenu (où la réduction de poids peut être compensée par une surcharge de calcul qui vient réduire voire annuler les gains environnementaux).
Même s’il est normal de commencer avec un modèle mental simple, cet article vise également à souligner la nécessité d’affiner celui-ci afin d’avoir tous les éléments en main pour effectuer des choix éclairés. En espérant que certains des résultats présentés ici y contribuent.
En conclusion, deux classements sont proposés ici.
Le premier ne s’appuie que sur les données transférées lors du chargement initial, comme prévu initialement dans l’activité (du moins impactant au plus impactant) :
Tableau
Texte
Animation
Image allégée
Carte interactive
Intégration d’un contenu de réseau social
GIF animé
Fichier audio
Vidéo basse définition
Image brute
Vidéo haute définition
Le deuxième classement s’appuie directement sur la projection en termes d’émissions de gaz à effet de serre sur l’ensemble des étapes de mesure (ce qui implique de revenir aux métriques pour expliquer mais aussi d’être transparent sur le modèle de projection environnementale) :
Quel est le point commun entre des imprimantes, une voiture connectée et un avion de ligne ?
La mise à disposition de terrains de jeux pour l’ingéniosité des cybercriminels qui exploitent les moindres failles de sécurité pour infiltrer les réseaux ou prendre le contrôle de nos systèmes les plus critiques. À l’image d’un baron de la drogue comme El Chapo qui s’échappe de sa prison de haute sécurité par l’endroit le moins sécurisé, les toilettes, un pirate informatique va toujours essayer de chercher la partie la plus vulnérable pour vous attaquer. Ces attaques pouvant être dramatiques pour la personne ou l’entreprise qui en est victime, il est donc nécessaire d’avoir une réflexion profonde sur ce sujet.
Dans cet article, nous allons mentionner quelques histoires d’attaques informatiques étonnantes. Cela permettra de questionner nos choix d’implémentation de nouvelles fonctionnalités. En effet, ces mésaventures ont toutes une cause commune : l’augmentation de la surface d’attaque.
La multiplication des points d’accès est un facteur de risque
Ces dernières années, nous avons tous vu débarquer dans nos salons des objets communiquant avec l’extérieur. De l’assistant vocal connecté au thermostat intelligent, ces objets rendent des services plus ou moins utiles. Le monde de l’entreprise n’échappe pas à cette règle. Que ce soit dans les visions de l’industrie 4.0 ou tout simplement pour faciliter la communication à distance, ces systèmes connectés prennent une place de plus en plus importante.
Malheureusement, certains appareils posent de grands risques. Alliant un faible niveau de sécurité et une connexion au réseau interne des entreprises, les objets connectés sont une mine d’or pour les individus malveillants. Et ils ne s’en privent pas.
La multiplication de ces objets pose un réel problème de société que nous ne pouvons pas ignorer.
D’un point de vue environnemental, la diffusion de ces systèmes provoque également des impacts qui ne sont pas négligeables. De l’extraction des minerais jusqu’à leur distribution, la production des systèmes informatiques provoque des émissions de CO2 importantes, sans oublier bien sûr les autres impacts environnementaux comme la pollution des sols ou l’érosion de la biodiversité.
Pour toutes ces raisons, l’achat d’un nouvel appareil connecté ne doit pas être pris à la légère. Une question s’impose alors : Est-ce que nous en avons vraiment besoin ?
Comment une fonctionnalité annexe peut se transformer en cheval de Troie ?
Les nouveaux objets connectés ne sont pas les seuls systèmes qui peuvent être attaqués, les logiciels existants peuvent tout aussi bien l’être.
Ce n’est pas non plus qu’une question de moyens. L’aviation, l’une des industries les plus puissantes financièrement et qui a mis des moyens importants dans la sécurité a aussi été victime d’actes criminels.
Dans cet article, nous n’allons pas nous questionner sur l’intérêt de prendre l’avion, mais sur le sujet précis du divertissement à bord de ceux-ci.
Les nombreux films et séries disponibles apportent des avantages indéniables pour les usagers : réduction de l’ennui, occupation des enfants, oubli du stress (et du fait que l’on soit dans un appareil qui brûle des milliers de litres de carburant par heure ) …
Néanmoins, l’écran n’est pas un système totalement isolé du reste du monde. Par exemple, la coupure de la vidéo lors d’une communication du personnel implique nécessairement une communication entre le boitier et au moins une partie du reste de l’appareil.
Et ce lien peut tout à fait servir de support à une attaque.
Cette dernière attaque est intéressante. Elle illustre en effet une philosophie bien connue des développeurs : “Pourquoi le faire ? Parce qu’on peut.”
Des hackers ont profité d’une faille de sécurité dans un service du réseau social phare de Meta. La fonctionnalité en question permettait d’avoir un aperçu de la vision de son profil par un autre utilisateur. Certes, cela a un intérêt pour l’utilisateur, mais sans être indispensable en bon fonctionnement du réseau social. Les conséquences d’une attaque sont à l’inverse extrêmement préjudiciables à la fois pour les utilisateurs, mais aussi pour l’entreprise qui voit ainsi son image entachée.
Lorsque le groupe s’est rendu compte de cette faille, ils ont immédiatement supprimé le service. Une question se pose alors : les utilisateurs ont-ils remarqué la disparition de la fonctionnalité ?
D’un point de vue général, nous pouvons lister quelques inconvénients de la multiplication des possibilités offertes par un service numérique :
dispersion des moyens qui auraient pu être alloués à la sécurisation des services clés de l’application ou du site web
mise en place de fonctionnalités peu utilisées qui bénéficient d’une faible attention de la part de l’équipe de développement et donc d’une plus grande vulnérabilité
nécessité de réduire la compatibilité avec les anciennes versions d’Android ou d’iOS. Et par conséquent de diminuer le nombre d’utilisateurs potentiels
augmentation du poids d’une application dû au développement d’un plus grand nombre de code ou de médias embarqués. Augmentant ainsi l’impact environnemental de l’application
En prenant en compte les risques associés, nous devons toujours nous demander : le confort que cela apporte vaut-il réellement les impacts que l’on provoque ?
Il est également bon de rappeler que la cybersécurité fait partie intégrante du numérique responsable. En tant que concepteur de services numériques, il est par conséquent de notre devoir de protéger les utilisateurs. L’implémentation des mécanismes de sécurité est un élément important, mais une réflexion globale englobant l’ensemble des fonctionnalités est nécessaire.
Les individus malveillants vont essayer de chercher dans tous les recoins de votre système pour s’y introduire. En massifiant le nombre de fonctionnalités, vous leur offrez de nouvelles portes qu’ils se feront un plaisir de forcer.
Finalement, toutes ces attaques nous montrent que la sobriété de nos services numériques n’est pas uniquement un outil utile dans le cadre de la transition écologique du numérique, mais cette réflexion est intéressante également dans la lutte contre la cybercriminalité.
Conclusion
En résumé, la sobriété numérique se révèle être notre alliée inattendue dans le combat quotidien pour la sécurité informatique. Avant de se précipiter sur le nouvel objet à la mode ou la conception d’une fonctionnalité posons-nous les 2 questions suivantes :
Est-ce que c’est utile ?
Le risque vaut-il le bénéfice que cela m’apporte ?
Dans certains cas, la réponse va bien évidemment être positive. La ceinture de sécurité alourdie la voiture, et donc augmente sa consommation d’essence, mais elle diminue fortement le nombre de morts sur les routes. La diminution du confort en valait la chandelle.
Dans un grand nombre de cas, la réponse est au contraire négative. De nos jours, les voitures peuvent atteindre des vitesses dépassant largement les 150km/h. Pourtant, il est interdit de dépasser les 130km/h. Cette mesure, prise en 1974 pour lutter contre le choc pétrolier de 1973, a été le résultat de la mise dans la balance entre les libertés individuelles d’une part et d’autre part l’effort collectif a mener contre les conséquences du choc pétrolier. Le risque n’en valait pas la chandelle.
Cette réflexion centrale de toute décision doit être au cœur des questionnements d’une équipe de développement.
Aujourd’hui, uniquement la partie avantage d’une fonctionnalité est mise en avant. Mais est oublié :
La sécurité des utilisateurs
Le coût financier d’une attaque informatique
La dégradation de l’image de l’entreprise qui subit une attaque informatique
L’impact environnemental de cette fonctionnalité
La perte de compatibilité avec certains utilisateurs
Et bien d’autres encore…
33 ans après l’obligation du port de la ceinture de sécurité à l’arrière, la question entre l’inconfort et la sécurité que cela apporte ne se pose plus dans le monde de l’automobile. Il faut que cela devienne également un réflexe des équipes de conception de services numériques dans le monde de l’informatique.
Le covoiturage au quotidien est une pratique qui permet de mettre en commun les impacts environnementaux liés aux transports en voiture. Il existe des applications qui permettent de mettre en relation les conducteurs et les passagers. Cependant, il ne faut pas que les économies réalisées pendant un trajet soient compensées par les impacts liés aux SI de ces services. Dans cet article, nous étudierons les pratiques d’écoconception de trois applications de covoiturage quotidien : BlaBlaCarDaily, Karos et Klaxit.
Méthodologie
Cette étude comparative des applications mobiles examine différents aspects, tels que la taille des fichiers APK (les fichiers d’installation des applications Android), la compatibilité des applications et les émissions de gaz à effet de serre (GES) provoquées par leur utilisation. Les résultats obtenus mettent en évidence des différences significatives entre les applications, soulignant ainsi l’intérêt de la mise en place d’une démarche d’écoconception.
Tout d’abord, Il faut savoir que la grande majorité de l’impact environnemental d’un smartphone est dû à sa phase de fabrication. En effet, une grande quantité d’énergie et de matériaux, parfois rares, sont nécessaires à la fabrication du produit. Par conséquent, pour réduire de manière efficace l’impact d’une application mobile, il est nécessaire de faire en sorte qu’elle ne pousse pas l’utilisateur à changer de téléphone pour obtenir une expérience utilisateur convenable. Cela passe par l’évaluation de plusieurs critères dont voici une liste non exhaustive :
– Compatibilité : une application doit être compatible avec l’ensemble des terminaux des utilisateurs (OS, résolution d’écran, etc.). Nous avons constaté que certaines applications étaient exclusivement conçues pour des versions plus récentes, ce qui limite leur accès pour les utilisateurs possédant des appareils plus anciens. Cette incompatibilité conduit souvent à un remplacement fréquent des appareils, ce qui peut entraîner un gaspillage des ressources naturelles et une augmentation des déchets électroniques.
– Utilisation de la batterie : l’usure de la batterie est une des causes matérielles qui provoquent la nécessité de devoir acheter un nouveau téléphone. Un des facteurs d’usure de celle-ci est le nombre de cycles de charges / décharges du téléphone. Il est donc nécessaire que l’utilisation de l’application ne nécessite pas trop d’énergie afin de ne pas accélérer la décharge de la batterie.
– Performance : ce critère correspond au temps de réponse de l’application. Premièrement, l’objectif d’une démarche d’écoconception est de permettre aux utilisateurs, qui ne souhaiteraient pas renouveler leur téléphone, d’avoir une expérience utilisateur agréable même sur de vieux appareils. En second lieu, un allongement du temps de chargement signifie donc une usure de la batterie plus rapide. Enfin, si le facteur limitant la performance est la qualité du réseau, les utilisateurs en nomadicité seront d’autant plus impactés.
– Taille de l’APK : cet indicateur provoque 2 impacts différents. Premièrement, une application avec une taille importante nécessite un échange de données plus important pour être installée ou mise à jour. Deuxièmement, un utilisateur qui souhaite conserver son téléphone longtemps peut être amené à devoir gérer des problèmes de manque de mémoire. En effet, la taille des logiciels et des applications va croissante (on parle d’obésiciel). Dans un objectif de l’encourager dans cette démarche, il est nécessaire que le stockage utilisé par l’application soit le plus réduit possible. Dans cet article, nous allons nous focaliser uniquement sur la taille de l’APK, mais une démarche d’éco-conception doit également être menée sur l’ensemble des données stockées sur le téléphone, comme le cache.
Lors d’une analyse d’impact environnemental chez Greenspector, nous examinons l’ensemble de ces points pour fournir des recommandations permettant à nos clients d’avoir une vue précise de leur situation et de réduire leur impact environnemental.
Comparatif de la taille des APKs
Tout d’abord, évaluons la taille de chaque application, une fois installées sur un Samsung Galaxy S9 (Android 11). Étant donné, qu’elles remplissent toutes les mêmes domaines fonctionnels, nous nous attendons à des tailles à peu près semblables. Cependant l’application Klaxit se démarque par son volume. Une telle différence peut avoir plusieurs origines. Par exemple l’application utilise plus de SDK externes, ou bien elle embarque plus de ressources (images, vidéos, etc.) non compressées.
Application
Taille de l’APK
Karos
48.66 MB
BlaBlaCarDaily
55.70 MB
Klaxit
84.23 MB
Comparatif de la compatibilité des applications
Un autre critère essentiel que nous avons étudié est la compatibilité des applications avec différentes versions d’Android. Par exemple, une application qui ne serait pas compatible avec une version inférieure à Android 8 empêcherait 7,1% des détenteurs d’Android d’utiliser l’application.
Application
Version minimum d’Android requise
Nombre de détenteur de téléphone Android pouvant télécharger l’application
Karos
Android 8.0
94.0%
BlaBlaCarDaily
Android 7.0
96.1%
Klaxit
Android 7.0
96.1%
L’application Karos permet donc à 2.1% d’utilisateurs de moins d’utiliser leur service de covoiturage. Cette différence ne parait pas significative et pourtant, cherchons à calculer les émissions évitées par un support de Android 6.0 au lieu de seulement 7.0.
Selon l’ARCEP 37% des renouvellements de smartphone sont dus à un dysfonctionnement partiel (réel ou supposé) ce qui comprend les casses de composants non essentiels, l’usure de la batterie, la désuétude et enfin l’obsolescence logicielle. Prenons pour hypothèse une répartition équitable de ces quatre raisons. Nous arrivons à un taux de renouvellement dû à l’OS (obsolescence logicielle) de 9.25%.
Toujours selon l’ARCEP, on estime qu’il y avait en France en 2021, 48.4 millions détenteurs de smartphone. Prenons pour hypothèse que chaque détenteur de smartphone ne possède qu’un seul appareil. Par ailleurs supposons que 10% des Français ont besoin d’accéder à un service de covoiturage quotidien (hypothèse forte). Cela revient à économiser la fabrication de N smartphones :
N = 10% * 9.25% * 2.1% * 48.4 M N = 9.4 k
Selon les données de notre modèle d’évaluation environnementale, l’ensemble du cycle de vie d’un smartphone sans la phase d’usage émet en moyenne 59 kgCO2eq. Les émissions ainsi évitées représentent :
Etot = 9.4 * 59 = 554 T CO2 eq
Comparatif des émissions de GES
a) Explication de notre méthodologie
Pour évaluer les émissions de gaz à effet de serre des applications, nous avons suivi une méthodologie rigoureuse basée sur la collecte de métriques pendant le parcours automatisé sur un téléphone réel : la consommation d’énergie de l’appareil, la quantité de données mobiles échangées et le nombre de requêtes HTTP effectuées. Grâce à ces données mesurées et le modèle d’évaluation d’impact environnemental Greenspector Studio, nous sommes en mesure de réaliser une estimation des émissions de CO2. Une explication plus précise du modèle utilisé est détaillée dans cet article : https://greenspector.com/fr/methodologie-calcul-empreinte-environnementale/
Hypothèses retenues pour l’évaluation environnementale
Localisation des utilisateurs : 100% en France
Localisation des serveurs : 100% en France
Appareils utilisés : smartphones uniquement
b) Explication du parcours
Ces mesures ont été réalisées sur la base de parcours utilisateur que nous avons découpés en petites étapes. Nous nous situons du point de vue d’un passager souhaitant se rendre quotidiennement du centre de Nantes jusqu’à Carquefou. Ces parcours ont été établis de sorte que les mêmes fonctionnalités soient évaluées, à savoir “lister les conducteurs disponibles” et “avoir des détails sur un trajet en particulier”. Ainsi chaque parcours est constitué de tout ou partie de ces étapes :
Lancement de l’application
Scroll sur la page d’accueil
Chargement d’une liste de conducteurs disponibles
Chargement des détails du premier trajet
Ces différentes étapes nous permettent d’avoir une vue d’ensemble sur plusieurs éléments généralement présents dans une application mobile, comme une page défilante, un élément complexe (l’intégration d’une carte du trajet). L’étape de lancement est également très importante car elle peut nous fournir des informations essentielles, par exemple sur le stockage en cache des données ou le temps de lancement de l’application.
Dans l’objectif d’avoir la mesure la plus fiable possible, nous écrivons un script GDSL pour automatiser l’exécution de 5 séries de tests identiques. Le GDSL est un langage développé par Greenspector qui permet de scripter des parcours de tests à lancer sur des smartphones Android et iOS. Pour plus d’informations, voir notre article dédié.
Contexte de mesure
Samsung Galaxy S10, Android 10
Réseau : Wi-Fi
Luminosité : 50%
Tests réalisés sur au moins 3 itérations pour fiabiliser les résultats
C) Résultats
Après avoir exécuté les mesures, l’analyse des résultats a permis d’établir une évaluation de l’empreinte carbone du parcours retenu pour les trois applications de covoiturage. Un tableau comparatif des résultats a été établi. Les résultats suivants sont exprimés en gramme équivalent CO2.
Application
Emission de CO2 (g CO2e)
Karos
1,32
BlaBlaCarDaily
1,88
Klaxit
2,15
Les résultats obtenus mettent en évidence une certaine disparité entre les différentes applications, ce qui démontre clairement l’impact que la conception et le développement d’une application peuvent avoir sur ses émissions de gaz à effet de serre. Dans cet article, nous nous limiterons à une analyse superficielle, ne comprenant que des éléments comparatifs dans un souci de concision. Par exemple, le choix de l’implémentation de la carte interactive ne sera pas analysé. Cependant, dans le cadre d’un projet d’optimisation d’application, l’analyse serait approfondie pour donner des préconisations plus exhaustives.
En complément de notre étude sur les émissions de CO2, il convient de souligner que les impacts environnementaux des applications vont au-delà des seules émissions de gaz à effet de serre. La fabrication d’un smartphone est génératrice d’autres facteurs de pollution. Ainsi la prise en compte d’autres facteurs environnementaux comme l’éco-toxicité aquatique ou l’épuisement des ressources abiotiques permettrait d’appréhender les enjeux liés à la pollution numérique dans leur globalité.
Analyse
Les résultats de l’évaluation environnementale ont montré que le parcours Klaxit était plus émetteur en GES que les deux autres, à hypothèses équivalentes. La cause de ses moins bonnes performances est double : la quantité de données échangée de Klaxit est très importante comparée aux consommations d’énergie et la consommation en énergie se démarque du meilleur parcours, Karos. 95% des consommations de données du parcours de Klaxit se font lors du lancement de l’application.
Application
Quantité de données mobiles échangées
Consommation d’énergie
Karos
115 ko
9,1 mAh
BlaBlaDaily
336 ko
13,1 mAh
Klaxit
3150 ko
12,7 mAh
En inspectant l’écran de Klaxit, nous constatons la présence d’un carrousel d’image, une pratique que nous avons tendance à déconseiller à nos clients : en plus d’apporter une navigation peu intuitive, l’animation apporte une surconsommation énergétique continue. En l’occurrence, aucune image de ce carrousel n’est mise en cache, ce qui conduit à des échanges de données très importants, dès le premier écran de l’application.
En ce qui concerne l’énergie, la consommation de l’application Klaxit n’est pas vraiment plus intense que les autres. C’est en fait le nombre d’étapes nécessaires pour remplir les mêmes fonctionnalités qui est plus important ce qui rallonge le parcours utilisateur, entraînant en conséquence une augmentation de la consommation d’énergie. En effet, comparé à Karos, un scroll et un chargement supplémentaire sont nécessaires. Revoir le parcours utilisateur et proposer des optimisations en vue de le raccourcir permettrait de ramener l’application Klaxit au niveau des deux autres.
Ainsi, en partant simplement de mesures sur un parcours rudimentaire, nous retrouvons deux leviers d’action fondamentaux de l’écoconception numérique : la conception et le design en amont (optimisation du parcours utilisateur, carrousel), et les pratiques de développement (mise en cache des images). Ces deux axes d’amélioration sont à prendre en compte ensemble, afin de mettre en relation deux acteurs centraux de la conception des services numériques : les designeurs et les développeurs.
Conclusion
L’analyse met en évidence les retards de certaines applications sur le sujet de l’écoconception. Néanmoins, il existe des solutions pour améliorer les services numériques. En comprenant mieux chaque aspect d’une application mobile, nous pouvons identifier des opportunités de réduction de l’empreinte écologique tout en améliorant l’expérience utilisateur. Par exemple, il est nécessaire que designeurs et développeurs travaillent ensemble pour favoriser une utilisation plus durable et responsable pour garantir les bénéfices environnementaux liés à l’usage d’un service vertueux. Nous sommes prêts à accompagner toute entreprise soucieuse d’améliorer sa démarche de conception d’application.
Une démarche d’écoconception de services numériques ne peut réussir qu’en impliquant tous les acteurs du projet sur toutes les étapes du cycle de vie de celui-ci. Parfois, malgré tous les efforts mis en œuvre pour appliquer les principes de l’écoconception lors de la réalisation d’un site web, les impacts environnementaux peuvent augmenter à cause d’éléments externes au périmètre défini. En particulier, il est indispensable d’embarquer celles et ceux qui vont produire du contenu sur le site. Pour cela, tout n’est pas si simple. Certaines bonnes pratiques peuvent être automatisées techniquement tandis que d’autres nécessitent de garder en tête l’ensemble des contenus proposés ainsi que leur pérennité.
Cet article propose des bonnes pratiques visant à faciliter la gestion des contenus dans une optique de réduction des impacts (environnementaux et autres) des contenus proposés.
L’agence Rose Primaire propose des checklists à ce sujet, qu’il s’agisse de publier sur un site web, un réseau social ou une newsletter : https://roseprimaire.com/checklists/
Chaque contenu intégré va générer des requêtes et transferts de données. Il est donc important d’en intégrer le moins possible, tout en veillant à maintenir l’attractivité des publications. Une fois qu’il ne reste que les contenus indispensables, il est nécessaire d’intégrer chacun d’entre eux de façon aussi efficiente que possible (voir plus loin).
Le plus souvent, niveau impact : vidéo > podcast > image animée > image statique > texte
Attention, les images animées de type GIF peuvent avoir une taille très conséquente et poser des problèmes d’accessibilité.
Au-delà de la conception de chaque publication, il est important de garder en tête l’ensemble des publications disponibles. L’objectif ici est de garder du contenu pertinent et à jour. L’intérêt est d’éviter que le contenu ne soit noyé dans la masse, ce qui permet au passage d’améliorer le référencement naturel.
Comment ?
S’appuyer sur des indicateurs concrets : nombre de visites, nombre d’arrivées sur le site via cette page, taux de rebond, etc.
Mettre à jour les publications plus anciennes qui restent intéressantes. Éventuellement en profiter pour changer le format : la vidéo devient un article
Combiner les publications proches par leurs thèmes : des articles informatifs sont agrégés en un article de référence
Supprimer les publications qui ne sont plus vues ou plus pertinentes (contenu obsolète ou relatif à des événements passés)
Pour aller plus loin, il est également envisageable de :
Définir une date d’expiration pour les publications créées (exemples : contenu chaud VS contenu froid, date de dépublication pour du contenu temporaire)
Publier le contenu de façon raisonnée et pertinente, notamment pour sa diffusion sur les réseaux sociaux et dans des newsletters. Ces dernières doivent elles-mêmes faire l’objet d’une démarche d’écoconception et de mise en accessibilité. Ce sujet pourrait à lui seul faire l’objet d’un article
Proposer des libellés explicites pour les liens
Contexte
Lors de la navigation dans des contenus, il est fréquent de rencontrer des liens qui viennent enrichir le contenu en question. Afin d’éviter des mauvaises surprises pour les utilisateurs, les libellés de ces liens doivent être aussi explicites que possible. L’intérêt pour l’expérience utilisateur est évident mais il est également question ici d’éviter à l’utilisateur de charger du contenu qui ne lui est pas utile ou que son terminal ou sa connexion internet ne lui permettent pas d’utiliser dans de bonnes conditions.
Les critères pour cette bonne pratique sont pour la plupart issus des règles OPQUAST (OPen QUality STandards). Il convient ici d’insister à nouveau sur la nécessité de proposer des liens (mais aussi plus généralement des contenus) accessibles.
Le libellé de chaque lien décrit sa fonction ou la nature du contenu vers lequel il pointe. De façon plus spécifique, lorsqu’un téléchargement ou l’ouverture d’un document a lieu, il est nécessaire de le signaler à l’utilisateur et de préciser sa taille, son format, son contenu voire sa langue si elle diffère de celle de la page courante (et, si nécessaire, le logiciel nécessaire à son utilisation)
Conclusion
Nous avons évoqué ici ce qui peut être fait pour s’assurer de proposer du contenu aussi léger que possible. Si certaines actions reposent principalement sur les contributeurs, il est important à terme que les outils de gestion de contenu tels que les CMS (Content Management System) intègrent des outils pour assister les contributeurs. Il peut s’agir par exemple d’automatiser certaines optimisations techniques, de visualiser les impacts environnementaux du contenu produit mais aussi de faciliter la mise en place d’une démarche plus globale de gestion de contenu (expiration des documents, visualisation des consultations, etc.). Certains éditeurs ont déjà pris l’initiative d’entamer une telle démarche, il reste à espérer que celle-ci deviendra systématique.
Greenspector may use cookies to improve your experience. We are careful to only collect essential information to better understand your use of our website.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.