Depuis quelques années, l’écoconception de service numérique prend de l’ampleur. Toutefois, il faut reconnaître que ceci ne se fait pas sans heurt. L’objet de cet article est de s’intéresser aux freins à l’adoption de l’écoconception. Il s’inspire très fortement de l’article de Perrine Croix (12 excuses de l’inaction en accessibilité et comment y répondre) qui est lui-même l’adaptation d’un article de l’université de Cambridge (Discourses of climate delay [PDF, EN]).
Les excuses
Ça coûte trop cher
C’est vrai et c’est normal, au moins le temps de monter en compétence et de mettre en place la démarche pour qu’elle fasse partie intégrante d’un tout. Mais c’est aussi un moyen de réduire les coûts : déprioriser une fonctionnalité peu utile/utilisée/utilisable en raison de ses impacts environnementaux, produire un service numérique plus facile à maintenir, réduire les besoins d’infra pour faire tourner et stocker. C’est par exemple là que le DevGreenOps rejoint le FinOps.
Enfin, l’écoconception est un sujet de Qualité qui a pour contrepartie de réduire son coût de possession : utilisation possible sur un panel plus large d’équipements, service moins coûteux à maintenir, etc.
2. Ça prend trop de temps
Oui, implémenter l’écoconception prend du temps mais l’amélioration continue et l’automatisation permettent de réduire ce temps. De même, la priorisation basée sur les aspects environnementaux peut permettre de réduire le temps nécessaire pour concevoir le service numérique en se limitant à ce qui est strictement nécessaire pour l’utilisateur : retirer des fonctionnalités du périmètre, simplifier les parcours utilisateur, etc.
3. L’équipe n’a pas les compétences nécessaires
Il est en effet possible que certains collaborateurs n’aient pas encore certaines compétences en écoconception. Toutefois, comme on l’entend souvent par ailleurs, une bonne partie des choses à savoir reposent sur du bon sens ou sont déjà abordées pour l’accessibilité ou la performance. Les ressources en ligne abondent, qu’il s’agisse d’articles, d’outils ou de référentiels. De plus, cette montée en compétences améliore souvent la motivation des personnes concernées et peut même devenir attractive pour ceux qui souhaiteraient rejoindre une organisation plus engagée dans cette trajectoire.
Bien entendu, vous avez également la possibilité de vous faire accompagner, que ce soit pour la montée en compétences de vos collaborateurs ou pour vous appuyer sur des experts du sujet.
4. Il n’y a pas de consensus sur l’estimation des impacts environnementaux d’un service numérique
C’est vrai et on trouve aujourd’hui plusieurs modèles de projection environnementale qui co-existent. L’ADEME (Agence de l’Environnement et de la Maîtrise de l’Energie) aborde en ce moment le sujet sous l’angle des RCP (référentiels méthodologiques d’évaluation environnementale par catégorie de produit). Pour autant, l’absence de consensus ne doit pas être un frein à l’action. Même s’ils ont des limitations connues, les outils et référentiels existent. De même que dans le cadre plus global du dérèglement climatique, il y a urgence à agir.
5. Pas besoin de faire de l’écoconception, nous faisons déjà de la performance
L’écoconception rejoint la performance sur de nombreux points, notamment pour l’optimisation technique. Si vous êtes déjà beaucoup impliqué sur le sujet de la performance des services numériques, il y a fort à parier que ceci contribue à réduire leurs impacts environnementaux. Toutefois, il y a également quelques sujets de divergence entre les deux approches. En effet, la performance est parfois améliorée en décalant le chargement ou l’exécution de certaines ressources ou en anticipant leurs chargements au cas où l’utilisateur effectuerait certaines actions. Cette amélioration de l’efficience et de la performance ressentie ne doit pas faire perdre de vue la nécessité de sobriété (faire la même chose mais avec moins : par exemple moins d’images) et de frugalité (renoncer à quelque chose : par exemple un robot conversationnel basé sur de l’intelligence artificielle).
Il reste discutable de chercher à rendre plus rapide un composant qui dégrade l’accessibilité, l’écoconception ou tout autre aspect lié au Numérique Responsable.
La performance n’est que l’un des indicateurs de l’écoconception mais il ne doit pas être le seul.
6. Le site le mieux écoconçu est celui qui n’existe pas
C’est vrai mais ce n’est pas forcément celui qui répond le mieux aux besoins de vos utilisateurs. Afin de s’en assurer, le RGESN (Référentiel général de l’écoconception de services numériques) propose dès son premier critère de prendre en compte les impacts environnementaux en fonction de la nécessité du service (critère 1.1 avec notamment le questionnaire des Designers Ethiques). Il est également important de se poser ces questions et d’effectuer des mesures avant d’envisager la refonte d’un service numérique (dont les impacts environnementaux pourraient être ainsi dégradés)
7. Un site écoconçu est forcément moche
Cette question se retrouve aussi souvent au sujet de l’accessibilité. Ces deux sujets sont avant tout des contraintes de conception qui peuvent améliorer la créativité et les exemples sont de plus en plus nombreux. Un article à ce sujet a été proposé : https://greenspector.com/fr/un-site-sobre-est-il-necessairement-moche/
8. C’est l’affaire des développeurs
Si les développeurs sont bel et bien concernés, ils ne sont pas les seuls. En effet, leur périmètre d’action se limite souvent à l’efficience ou optimisation technique. Ils seront souvent limités dans leurs actions par des décisions qui ne dépendent pas d’eux : limiter le nombre de médias ou de services-tiers, choisir un hébergeur moins impactant, supprimer certaines fonctionnalités, etc. L’impact du code est largement inférieur à celui des choix de conception. Les compétences du développeur restent essentielles au bon déroulement de la démarche d’écoconception mais celle-ci est bien plus large que cela, que ce soit dans le cycle de vie du service numérique ou dans les rôles concernés.
En complément, le développeur peut avoir un devoir de conseil sur des surconsommations liées au fonctionnel, à l’ergonomie, à des choix graphiques ou même aux contenus publiés.
9. Les impacts environnementaux du numérique sont négligeables par rapport à ceux d’autres domaines
L’impact environnemental du numérique apparaît non-négligeable, en particulier en raison des impacts sur les terminaux utilisateurs dont la fabrication est critique de ce point de vue. De plus, le contexte d’urgence climatique, incite à agir de façon aussi holistique que possible. D’autant plus que les apports de l’écoconception sur l’expérience utilisateur sont de mieux en mieux documentés.
10. Greenwashing
Il y a deux aspects à prendre en compte ici. Pour certains interlocuteurs, l’écoconception de service numérique est du greenwashing car l’impact de cette démarche est négligeable. Pour vous convaincre du contraire, je vous renvoie à l’excuse précédente sur les impacts environnementaux du numérique. Pour ce qui est des résultats de la démarche, les témoignages et retours d’expérience et vous en trouverez d’ailleurs sur le site de Greenspector : https://greenspector.com/fr/ressources/etude-de-cas/
Le second aspect à prendre compte concerne les structures qui craignent d’être accusées de greenwashing si elles communiquent sur une démarche d’écoconception de services numériques. Ce peut être parce que les structures en question sont à l’origine par ailleurs d’impacts environnementaux beaucoup plus importants, par exemple dans le cadre de leur activité principale. Pour éviter cela, il est essentiel d’être très attentif aux éléments de communication. Il s’agit de s’appuyer sur des référentiels existants et reconnus, d’expliciter autant que possible la démarche et les outils utilisés ainsi que le plan d’action. Le RGESN évoqué plus haut permet justement de structurer sa démarche et de construire sa déclaration d’écoconception. De plus, l’écoconception de service numérique ne doit pas se substituer aux autres efforts de réduction des impacts environnementaux de la structure concernée. Enfin, il s’agira de s’appuyer sur les RCP de l’ADEME (voir plus haut) lorsque ceux-ci seront disponibles afin de se conformer aux éléments suggérés pour une communication adéquate sur le sujet.
11. Mes clients ne sont pas intéressés
Les utilisateurs sont de plus en sensibles aux sujets environnementaux mais aussi à la façon dont leurs services numériques sont conçus. Il s’agit également d’améliorer l’expérience utilisateur, ce qui est un besoin essentiel mais non exprimé pour la plupart d’entre eux. Ainsi, agir pour limiter la décharge de la batterie des téléphones est un levier important pour l’écoconception, alors même que ce sujet est de plus en plus considéré comme une source d’anxiété pour les utilisateurs (https://www.counterpointresearch.com/insights/report-nomophobia-low-battery-anxiety-consumer-study/ [EN]). De même, l’écoconception peut améliorer l’expérience utilisateur en cas de connexion dégradée ou de terminal ancien voire en contribuant à l’amélioration de l’accessibilité. Inversement, attention à certaines actions qui sont parfois menées pour améliorer l’expérience utilisateur sans les consulter (et sans prendre en compte les conséquences sur les impacts environnementaux). Par exemple, l’ajout de vidéos en lecture automatique ou de carrousels pour améliorer l’attractivité. Plus généralement, communiquer sur l’écoconception permet aussi de mettre en avant l’expertise et l’intérêt porté à la qualité du produit.
12. En l’absence de contraintes légales sur l’écoconception, nous préférons prioriser l’accessibilité
Il est effectivement indispensable d’améliorer l’accessibilité de vos services numériques, d’autant plus que ceci contribue souvent à réduire leurs impacts environnementaux. Le renforcement des obligations liées à l’accessibilité des services numériques aux niveaux européen et français marque un tournant pour beaucoup de structures. En particulier, le périmètre d’application s’est élargi et les pénalités financières ont été renforcées.
Il n’existe pas à ce jour de dispositif similaire pour l’écoconception des services numériques. Toutefois, l’ARCEP (Autorité de Régulation des Communications Electroniques, des postes et de la distribution de la Presse) porte le RGESN évoqué précédemment mais le sujet des obligations légales a été poussé directement au niveau européen via le BEREC (Body of European Regulators for Electronic Communications). Il reste donc à espérer que le sujet avancera rapidement pour que les obligations légales puissent voir le jour. Peut-être que certains pays prendront l’initiative à ce propos. Dans tous les cas, il n’est pas nécessaire d’attendre ce type de dispositif pour entamer une démarche d’écoconception. Ses apports sont de mieux en mieux connus, documentés voire mesurés. Il s’agit d’améliorer l’expérience utilisateur mais aussi de faire monter en compétence les équipes voire d’augmenter l’attractivité pour le recrutement et les clients potentiels. Alors que l’écoconception était depuis quelques années un facteur différenciant, son adoption de plus en plus large tend à en faire un facteur discriminant. Alors qu’un nombre croissant de structures s’emparent du sujet, il n’est pas souhaitable d’être à la traîne, quelles qu’en soient les raisons.
Conclusion
Les raisons de ne pas faire d’écoconception peuvent être nombreuses, notamment parce que le sujet peut paraître intimidant voire non-prioritaire. Il est important de garder en tête que l’écoconception contribue à améliorer l’expérience utilisateur mais aussi d’autres aspects du service numérique. Son intégration sur le projet doit se faire de façon progressive, le point essentiel étant de s’inscrire dans une démarche d’amélioration continue. Les résultats obtenus ne seront pas parfaits du jour au lendemain. Pour autant, le premier pas peut être simple et efficace et les résultats de même que les compétences s’améliorent au fil du temps.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
À première vue (via les outils du navigateur web), le site apparaît en effet plutôt léger. Toutefois, certains éléments attirent mon attention. Nous y reviendrons.
Les mesures ont été effectuées sur un téléphone Samsung Galaxy S9, en WIFI (3 itérations).
Après mesure, les résultats confirment les soupçons initiaux :
EcoScore : 61/100 (Réseau : 82, Client : 40)
Données transférées : 292 ko
Décharge totale de la batterie : 5,28 mAh
Process CPU (1,11 %)
Les données transférées sont effectivement faibles et, en conséquence, le score côté Réseau est très bon.
En revanche, le score côté Client est bas, ce qui est corrélé avec une décharge élevée de la batterie et un impact CPU élevé (surtout pour une page statique et aussi légère). Généralement, ceci peut être dû à des services tiers, des animations voire des calculs (principalement JS) effectués en boucle.
On commence par regarder ce qui se passe lorsque l’utilisateur est inactif, via Greenspector Studio :
On remarque 3 pics de données qui sont probablement liés directement à Chrome (qui collecte des métriques d’usage et vérifie régulièrement les fonctionnalités proposées par la version du navigateur).
Cette hypothèse fut par la suite étudiée via l’utilisation d’un proxy web (car les requêtes en question n’apparaissaient pas dans le navigateur). Ceci permit de confirmer que ces requêtes étaient bien liées à Chrome.
Sur un site plus lourd, ces requêtes peuvent passer inaperçues mais pas ici.
Mais il faut surtout s’interroger sur les fluctuations fortes du CPU. Il y a bien quelques animations sur le site mais la plupart ne sont déclenchées qu’au scroll. Elles ne devraient donc pas directement impacter le processeur lorsque l’utilisateur est inactif et les animations non-déclenchées.
En regardant ce qui se passe pendant 10 secondes d’inactivité, on constate que le processeur est très sollicité avec de très nombreux événements à traiter en continu. Rapidement, il apparaît de nombreux traitements JS (d’écoute ou d’observation) guettant certaines interactions de l’utilisateur pour déclencher les animations.
Tout ceci est géré par une librairie très utilisée : GSAP.
Arrivé là et avant d’aller plus loin, j’ai contacté Julien-Antoine directement afin de planifier un moment pour présenter mes constats à son équipe.
Après quelques échanges, il apparaît intéressant de travailler ensemble sur ce sujet. L’objectif est de voir comment réduire les impacts de la page via de l’analyse et des mesures. Pour cela, nous décidons de procéder de façon itérative : proposer une première liste de préconisations et les appliquer une par une pour pouvoir estimer l’impact de chacun par de la mesure.
Expérimentations autour du site
Dans un premier temps, il faut s’assurer que le badge affiché sur le site, provenant de Website Carbon Calculator n’est pas en cause (ce qui serait un comble). Pour cela, un tel badge est intégré sur une page HTML vide pour être mesuré via un benchmark.
L’EcoScore est de 95, les données transférées très faibles (un simple script JS de moins de 2 Ko qui récupère en une seule fois tout le nécessaire pour l’affichage) et l’impact sur le processeur négligeable (autour de 0,25% de sollicitation CPU).
Le badge est donc hors de cause.
En parallèle, l’équipe côté Konfiture déploie le site que nous voulons étudier sur un serveur à part qui accueillera les différentes versions réalisées. Une première mesure est effectuée pour constituer le point de référence pour la suite, certaines métriques pouvant varier en fonction des conditions d’hébergement du site.
La première version mesurée s’affranchit de la librairie Lenis qui gère en partie les animations.
La version 1.0.2 correspond à l’optimisation plus poussée des SVG (images vectorielles). Il en résulte une légère réduction des données transférées.
La version 1.0.3 ajoute le chargement progressif natif pour les SVG ainsi que la mise en place d’un CDN et de la compression (brotli) des fichers texte (dont SVG). Il en résulte une réduction notable des données transférées.
La version 1.0.5 supprime toutes les animations. Pour le client final, ceci n’est pas envisageable car les animations sont jugées essentielles afin de rendre le site plus attractif. Mais, une fois les autres éléments optimisés, cette mesure nous donne une cible à atteindre. Ici, on constate une réduction des données transférées (moins de JS nécessaire) mais surtout de la sollicitation CPU (qui reste l’une des métriques les plus affectées par les animations du fait des calculs nécessaires).
Pour aller plus loin sur ce sujet, je vous renvoie vers deux autres articles du présent blog :
La version 1.0.6 s’affranchit de tout code JS pour gérer les animations. Le souci qui apparaît alors est que les animations se font en continu. Même si, à l’usage, cette approche est moins impactante pour le processeur (ce qui est aisément vérifiable via l’outil Performance de Chrome), elle dégrade l’expérience utilisateur et pose problème pour l’accessibilité (critère 13.8 du Référentiel Général d’Amélioration de l’Accessibilité : https://accessibilite.numerique.gouv.fr/methode/criteres-et-tests/#13.8).
Après discussion sur le sujet, ce point apparaît rédhibitoire. Si la gestion des animations seulement en CSS est un bon compromis pour les impacts environnementaux, la dégradation de l’accessibilité doit être évitée.
Les premiers résultats ne correspondent pas exactement à ce qui est attendu. Il est apparu après analyse que le fait d’avoir des animations en continu venait entraver la détection d’inactivité lors des mesures et prolonger artificiellement la durée de scroll.
Afin d’aller plus loin, la version 1.08 cherche à concilier écoconception et accessibilité. Pour cela, il a été décidé de limiter la durée des animations et, en conséquence, de ne les déclencher qu’au scroll afin de s’assurer qu’elles soient malgré tout visibles.
Résultats obtenus
Les résultats suivants sont obtenus via les mesures au fil de l’eau :
Au préalable, il convient ici de rappeler que l’impact sur le CPU, la mémoire mais aussi la décharge de batterie dépendent fortement du modèle d’appareil utilisé pour la mesure mais peuvent aussi varier entre deux appareils du même modèle. C’est pour cela que chaque mesure comprend également une étape de référence non-affichée ici. Pour des pages web, cette étape de référence consiste à mesurer ce qui se passe lorsque l’utilisateur est inactif sur un onglet de Chrome affichant une page entièrement noire (impact énergétique minimal, notamment par rapport à l’onglet vide de Chrome qui est très clair donc plus impactant si on utilise un appareil avec un écran OLED).
Les mesures sur des sites aussi légers sont souvent plus compliquées car les écarts et surconsommations peuvent être légers voire difficiles à distinguer d’artefacts de mesure, par exemple. Parfois, il est possible de contourner cela en adaptant la méthodologie. Par exemple, pour mesurer un composant très léger, on l’intègre 100 ou 1000 fois sur la page et on procède de même avec d’autres composants que l’on voudrait comparer.
L’augmentation de la durée de scroll suite à l’application en continu des animations a provoqué un allongement conséquent de la durée de scroll (17 secondes au lieu de 6), ce qui augmente directement l’impact énergétique et les impacts environnementaux.
Pour des sites aussi légers, les requêtes “parasite” de Chrome (télémétrie, vérification des variantes) apparaissent d’autant plus impactantes, même si seulement quelques Ko ou dizaines de Ko de données sont transférés.
Dans le cas qui nous intéresse ici, la meilleure solution pour pouvoir limiter les impacts de l’intégration des animations correspond à la version 1.0.8. Cette dernière bénéficie de l’implémentation des bonnes pratiques suivantes :
Optimisation poussée des SVG (notamment via la compression et le lazy-loading)
Limiter la durée des animations, les stopper pour les utilisateurs en faisant le choix et ne les déclencher qu’au scroll.
Au global, sur le nombre de requêtes et les volumes de données transférées, les gains sont indéniables (même si le site était à la base très léger).
Concernant la vitesse de décharge de batterie, les gains ne sont pas négligeables. Même si les impacts environnementaux et la consommation d’énergie apparaissent au global identiques voire légèrement plus élevée (à cause de l’augmentation de la durée de scroll), les résultats sont encourageants.
Conclusion
Comme déjà souligné dans l’article sur les sites sobres, l’estimation de la sobriété d’un site est complexe car elle prend en compte de nombreux facteurs mais aussi une méthodologie particulière. Même sur un site annoncé comme sobre, il reste souvent des améliorations à mettre en place (même si toutes ne valent pas forcément le coup).
Une fois n’est pas coutume, le sujet des animations revient. Parfois utilisées pour compenser la réduction du nombre d’images, elles sont très souvent impactantes, même si les outils gratuits occultent cet impact (en se concentrant sur les transferts de données effectués lors du chargement de la page). Lorsque, comme ici, on veut aller plus loin pour les intégrer de façon aussi efficiente que possible, les résultats ne sont à ce jour pas forcément concluants. La priorité devrait être la frugalité (s’affranchir des animations) puis la sobriété (en réduire le nombre) et enfin l’efficience (optimiser leur intégration). Toutefois, notamment pour des raisons d’accessibilité, leur utilisation devrait être proscrite (mais aussi en s’appuyant sur le critère 4.1 du RGESN).
Pour ce qui est de l’intégration efficiente des animations, tout reste à faire. Ce chantier est très complexe à aborder car les métriques à prendre en compte sont nombreuses et complexes à mesurer et comparer (CPU, GPU, décharge de batterie, etc). Ajoutez à cela les risques de transfert d’impact (opter pour du CSS plutôt que du JS ou inversement) et vous aboutissez à un sujet technique pour le moins épineux. Toutefois, on note ici que la limitation de leur durée, couplée à des logiques simples pour leur déclenchement, apporte les meilleurs résultats.
Aujourd’hui, les référentiels et connaissances permettent d’énoncer comment rendre conforme une animation du point de vue de l’accessibilité. Pour l’écoconception, ce n’est pas encore le cas (même si le RGESN propose des pistes). Il n’y a pas (à ma connaissance) de solution universelle pour proposer des animations qui n’entraînent pas de surconsommation.
D’un point de vue très pragmatique, il convient donc de revenir à une approche simple mais importante : évitez autant que possible l’intégration d’animations, aussi bien pour des raisons d’accessibilité que d’écoconception (et plus généralement d’expérience utilisateur).
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
L’arrivée de la version finale du RGESN (Référentiel général d’écoconception de service numérique) pose plus que jamais la question de comment valider les différents critères. Il est parfois reproché à ces derniers d’être trop déclaratifs voire pas assez précis.
Nous aborderons ici les apports des outils de Greenspector Studio sur ces sujets. La possibilité d’intégrer ces outils à une PIC (Plateforme d’Intégration Continue) aide alors à aller vers de l’amélioration continue voire vers l’automatisation (forcément partielle) du contrôle de conformité. La validation exhaustive de la plupart des critères ne pourra pas être automatisée, de même que pour l’accessibilité numérique. Toutefois, il est souhaitable d’automatiser tout ce qui peut l’être, ne serait-ce que pour remonter des alertes en cas de dégradation.
Via cette démarche de vérification de la conformité par la mesure, nous verrons se dessiner une véritable stratégie de mesure.
Nous distinguerons par la suite deux types de critères :
Ceux qui nécessitent de la mesure pour être validés
Ceux pour lesquels la mesure permet d’aller plus loin et notamment au-delà du simple déclaratif
Préambule
Il est important avant toute chose de bien définir ce qu’est le périmètre de l’audit RGESN. Comme le nom l’indique, il est ici question d’un service numérique. Si cette notion n’est pour l’instant pas précisément définie dans le référentiel, il s’agit a priori d’un applicatif (site web, application mobile ou autre) qui sera audité, ainsi que l’ensemble de ses parcours utilisateurs représentatifs et fonctionnalités.
Cette précision est importante pour la mesure, afin de savoir s’il faut opter pour une mesure simple d’un échantillon d’écrans ou d’usages représentatifs (de type benchmark) ou pour un parcours utilisateur.
La définition de cet échantillon s’appuie souvent sur la liste des fonctionnalités mises à disposition ainsi que sur des statistiques d’usage.
Si un même service (faire des achats en ligne, consulter son compte en banque, regarder des vidéos, etc) se décline en plusieurs applicatifs (site web, application Android, application iOS), chaque applicatif devra faire l’objet d’un audit.
Si un applicatif comporte plusieurs parcours représentatifs, ils devront tous être pris en compte au cours de l’audit.
1.4 – Le service numérique réalise-t-il régulièrement des revues pour s’assurer du respect de sa démarche d’écoconception ?
Il est question ici de prévoir une revue régulière via le RGESN, accompagnée d’audits de performance et de tests de charge.
Greenspector Studio permet aussi, en particulier via les mesures de parcours, de suivre la performance (en plus de l’énergie, des données transférées et des indicateurs environnementaux). La mesure d’écrans via l’outil de benchmark permet de vérifier automatiquement le respect de bonnes pratiques techniques. La mesure régulière sur les parcours et écrans identifiés peut donc permettre de valider en partie ce critère.
1.5 – Le service numérique s’est-il fixé des objectifs en matière de réduction ou de limitation de ses propres impacts environnementaux ?
Sur chaque projet, les objectifs de réduction sont généralement définis dès les premières mesures, notamment via un budget environnemental. Nous y reviendrons dans un prochain article.
2.9 – Le service numérique a-t-il pris en compte les impacts environnementaux des composants d’interface prêts à l’emploi utilisés ?
La mesure des différents composants ou intégrations d’un même composant permet de comparer directement les résultats. Le dashboard proposé via Greenspector Studio ainsi que des fonctionnalités de l’atelier de mesure permettent une comparaison directe selon divers paramètres.
2.10 – Le service numérique a-t-il pris en compte les impacts environnementaux des services tiers utilisés lors de leur sélection ?
La démarche est ici similaire à ce qui a été présenté ci-dessus pour les critères 2.8 et 2.9. En complément (nous y reviendrons plus loin), l’outil benchmark permet la vérification automatique de certaines bonnes pratiques techniques, ce qui peut être un gain de temps pour la validation de certains critères du RGESN (en particulier lorsqu’il est question de compression, de chargement progressif et autres).
3.1 – Le service numérique repose-t-il sur une architecture, des ressources ou des composants conçus pour réduire leurs propres impacts environnementaux ?
Via Greenspector Studio, différents composants ou choix d’intégration peuvent être comparés par la mesure, notamment via du A/B Testing ou du feature flipping.
4.3 – Le service numérique optimise-t-il le parcours de navigation pour chaque fonctionnalité principale ?
Comme indiqué dans les moyens de test et de contrôle pour ce critère, des indicateurs techniques doivent être définis pour les parcours identifiés. Il est alors souhaitable de définir un budget environnemental ainsi qu’une fréquence de mesure afin de suivre leur évolution dans le temps.
4.4 – Le service numérique permet-il à l’utilisateur de décider de l’activation d’un service tiers ?
La mesure est ici nécessaire pour renseigner le possible coût environnemental d’un service tiers.
Selon le cas, il sera possible d’automatiser l’activation du service-tiers ou de mesurer ses impacts lors de phases d’inactivité de l’utilisateur. En complément, le feature flipping permet d’isoler l’impact de certains composants et services tiers.
4.5 – Le service numérique utilise-t-il majoritairement des composants fonctionnels natifs du système d’exploitation, du navigateur ou du langage utilisé ?
Les composant fonctionnels non-natifs et natifs doivent être comparés et suivis via les ressources chargées et l’utilisation effective de celles-ci.
4.8 – Le service numérique limite-t-il le nombre des polices de caractères téléchargées ?
Le nombre des polices chargées et surtout leur poids doivent être vérifiés (et dans l’idéal suivis dans le temps), ce qui est possible via de la mesure.
4.9 – Le service numérique limite-t-il les requêtes serveur lors de la saisie utilisateur ?
Via un parcours automatisé, il est possible de reproduire la saisie par un utilisateur et, ainsi, de vérifier par la mesure que les requêtes générées respectent bien les seuils imposés par le RGESN (volume de données transférées et délai entre deux requêtes).
4.10 – Le service numérique informe-t-il l’utilisateur du format de saisie attendu, en évitant les requêtes serveur inutiles pour la soumission d’un formulaire ?
Via l’automatisation de la saisie d’un formulaire, il est possible de vérifier que les éléments renseignés sont bien contrôlés côté client avant envoi.
4.12 – Le service numérique indique-t-il à l’utilisateur que l’utilisation d’une fonctionnalité a des impacts environnementaux importants ?
Pour pouvoir informer l’utilisateur des impacts environnementaux d’une fonctionnalité, il est nécessaire d’évaluer ceux-ci via de la mesure.
4.15 – Le service numérique fournit-il à l’utilisateur un moyen de contrôle sur ses usages afin de suivre et de réduire les impacts environnementaux associés ?
L’affichage des impacts environnementaux ainsi que l’évaluation des gains associés à des possibilités de paramétrage nécessitent de la mesure.
6.1 – Le service numérique s’astreint-il à un poids maximum et une limite de requête par écran ?
La mesure est essentielle pour définir les seuils (en se basant sur le service existant et/ou sur des services similaires). En complément, il est important ici de suivre ces valeurs dans le temps.
Critères pour lesquels la mesure est préférable
2.1 – Le service numérique a-t-il défini la liste des profils de matériels que les utilisateurs vont pouvoir employer pour y accéder ?
Afin de valider ce critère, il est a minima attendu une liste des profils en question.
Toutefois, il est important ici de creuser davantage la notion d’utilisabilité en s’appuyant sur des mesures. En particulier, il peut s’agir de mesurer sur un échantillon de terminaux anciens pour quantifier l’impact sur la performance et l’énergie. Ainsi, la définition d’utilisabilité peut être précisée via ce qu’on considère comme une dégradation acceptable par rapport au cas nominal.
Ceci peut être fait de façon très basique : “sur tel terminal ancien, le parcours utilisateur peut bien être réalisé de bout en bout”.
Ou de façon plus poussée : “sur tel terminal ancien, le parcours utilisateur est effectué en moins de X minutes et la décharge de la batterie est inférieure à X mAh”.
Ces seuils peuvent être déterminés par rapport au cas nominal. Par exemple, on peut s’imposer que le parcours soit au maximum deux fois plus long ou deux fois plus impactant pour la batterie.
Greenspector Studio permet cela, notamment via la mise à disposition de terminaux aujourd’hui jugés comme anciens :
Le téléphone Samsung S7 date de 2016, le S9 de 2018
Selon les modèles, la tablette Pixel C date de 2016 ou 2017
Il est possible d’imaginer une démarche similaire pour les ordinateurs.
2.2 – Le service numérique est-il utilisable sur d’anciens modèles de terminaux ?
Voir critère 2.1.
2.3 – Le service numérique est-il utilisable via une connexion bas débit ou hors connexion ?
Pour les mesures avec Greenspector Studio, il est possible via le banc de mesure d’utiliser une connexion similaire à de la 3G.
Il est tout à fait envisageable de s’adapter pour réaliser des mesures hors connexion.
2.5 – Le service numérique s’adapte-t-il à différents types de terminaux d’affichage ?
Les mesures via Greenspector Studio permettent de vérifier que le parcours utilisateurs s’effectue correctement sur un ensemble de terminaux. En complément, des captures d’écran sont réalisées au début et à la fin de chaque étape de mesure, ce qui permet de contrôler la qualité de l’affichage.
2.7 – Le service numérique a-t-il prévu une stratégie de maintenance et de décommissionnement ?
La mesure permet ici, comme demandé dans le RGESN, de documenter les résultats de la stratégie de maintenance et de décommissionnement (en particulier dans le cas des fonctionnalités) via les gains obtenus selon différentes métriques ou indicateurs.
2.8 – Le service numérique impose-t-il à ses fournisseurs de garantir une démarche de réduction de leurs impacts environnementaux ?
La mesure permet de valider les engagements des fournisseurs, en leur transmettant les métriques et indicateurs obtenus, un dashboard détaillé voire les résultats de la vérification automatique de bonnes pratiques techniques (via un benchmark de page).
4.1 – Le service numérique comporte-t-il uniquement des animations, vidéos et sons dont la lecture automatique est désactivée ?
Sur les écrans et étapes contenant de tels éléments, l’impact sur les données transférées, la décharge de la batterie et le CPU sont directement identifiables via les outils Greenspector Studio.
Si nécessaire, des mesures en A/B Testing permettent de quantifier directement les gains liés à la désactivation de la lecture automatique.
4.2 – Le service numérique affiche-t-il uniquement des contenus sans défilement infini ?
Voir critère 4.1.
4.13 – Le service numérique limite-t-il le recours aux notifications, tout en laissant la possibilité à l’utilisateur de les désactiver ?
Les mesures via Greenspector Studio peuvent permettre de détecter et quantifier les surconsommations liées aux notifications. Les captures d’écran effectuées automatiquement en cours de mesure permettent d’identifier les notifications en question.
5.1 – Le service numérique utilise-t-il un format de fichier adapté au contenu et au contexte de visualisation de chaque image ?
La mesure, en particulier des données transférées, permet de détecter les images les plus volumineuses ainsi que l’impact du téléchargement d’un fichier. Partant de là, il est possible d’analyser de façon plus poussée ces surconsommations afin d’identifier si elles sont liées à leur format, leur compression ou leur redimensionnement dans le navigateur.
5.2 – Le service numérique propose-t-il des images dont le niveau de compression est adapté au contenu et au contexte de visualisation ?
Voir critère 5.1.
5.3 – Le service numérique utilise-t-il, pour chaque vidéo, une définition adaptée au contenu et au contexte de visualisation ?
Les éléments présentés plus haut pour le critère 5.1 peuvent tout à fait s’adapter pour d’autres types de contenus (vidéo et audio), en particulier pour ce qui est du format et du niveau de compression. En complément, pour ces médias, la mesure permet d’identifier les préchargements (qui sont là aussi à éviter, comme stipulé dans le critère 6.5 mentionné plus loin).
5.4 – Le service numérique propose-t-il des vidéos dont le mode de compression est efficace et adapté au contenu et au contexte de visualisation ?
Voir critère 5.3.
5.5 – Le service numérique propose-t-il un mode « écoute seule » pour ses vidéos ?
Via la mesure, il est possible de quantifier les gains résultant de l’utilisation du mode “écoute seule”.
5.6 – Le service numérique propose-t-il des contenus audios dont le mode de compression est adapté au contenu et au contexte d’écoute ?
Voir critère 5.3.
5.7 – Le service numérique utilise-t-il un format de fichier adapté au contenu et au contexte d’utilisation pour chaque document ?
Voir critère 5.3.
En complément, la mesure permet de comparer différentes modalités de mise à disposition d’un document en évaluant les impacts environnementaux selon différents cas d’utilisation possible (ouverture sur téléphone, en connexion dégradée, etc).
6.2 – Le service numérique utilise-t-il des mécanismes de mise en cache pour la totalité des contenus transférés dont il a le contrôle ?
Il est ici plus simple de vérifier la stratégie de cache par de la mesure (notamment en comparant les résultats obtenus lors du premier chargement avec les chargements ultérieurs voire lors de la poursuite de navigation sur d’autres pages). En complément, l’outil benchmark de Greenspector Studio vérifie automatiquement l’intégration des entêtes liées au cache.
6.3 – Le service numérique a-t-il mis en place des techniques de compression pour les ressources transférées dont il a le contrôle ?
Les surconsommations liées à la non-mise en place de la compression sont détectables via la mesure des données transférées (et indirectement de la performance). Via l’outil benchmark de Greenspector Studio, les éléments non-compressés sont automatiquement détectés et listés.
6.4 – Le service numérique affiche-t-il majoritairement des images dont les dimensions d’origine correspondent aux dimensions du contexte d’affichage ?
Les surconsommations liées au redimensionnement des images dans le navigateur sont détectables via la mesure des données transférées (et indirectement de la performance). Via l’outil benchmark de Greenspector Studio, les images concernées sont automatiquement détectées et listées.
6.5 – Le service numérique évite-t-il de déclencher le chargement de ressources et de contenus inutilisés pour chaque fonctionnalité ?
Les surconsommations liées au chargement de ressources inutilisées sont détectables via la mesure des données transférées (et indirectement de la performance). En complément, via l’outil benchmark de Greenspector Studio, les images qui ne bénéficient pas du lazy-loading (chargement progressif) sont automatiquement détectées et listées.
6.7 – Le service numérique héberge-t-il toutes les ressources statiques transférées dont il est l’émetteur sur un même domaine ?
L’outil benchmark de Greenspector Studio liste automatiquement la liste d’éléments statiques chargés depuis un domaine nécessitant l’envoi de cookies, ce qui facilite l’identification des domaines.
Construire sa stratégie de mesure
Dans l’optique d’un audit de conformité au RGESN (et pour son suivi dans temps), il apparaît donc essentiel de mettre en place des mesures. Ceci implique forcément de définir une stratégie de mesure composée des éléments suivants :
Les éléments mesurés : pages ou parcours représentatifs
Pour couvrir l’ensemble des fonctionnalités principales
En se basant sur les statistiques d’usage
Avec un échantillon suffisamment large pour être pertinent
Les indicateurs collectés, en s’assurant d’avoir aussi bien des métriques techniques (mesurées directement) et des indicateurs environnementaux (donc calculés). Tout en mentionnant bien la méthodologie de projection environnementale.
Associés à tout ou partie de ces indicateurs, un budget environnemental avec deux approches complémentaires :
L’ambition : les valeurs que l’on veut atteindre
Le palier : les valeurs qui permettent d’identifier des régressions via une dégradation trop importante
Les appareils sur lesquels on souhaite mesurer :
Des appareils représentatifs de ceux majoritairement utilisés par les usagers du service audité. Tout en s’assurant si possible de vérifier ainsi l’adaptation du service numérique au terminal d’affichage
Des appareils plus anciens pour les critères liés à l’inclusion
Les types de connexion à internet (avec un cas nominal mais aussi un cas dégradé pour le critère 2.3)
La fréquence de mesure :
Relativement élevée pour les conditions nominales, afin de suivre l’évolution dans le temps, quantifier les améliorations et détecter les dégradations
Éventuellement plus espacés pour les tests sur terminaux anciens et/ou en connexion dégradée
Conclusion
Comme souvent dans une démarche de vérification de la conformité, il est impossible de vérifier automatiquement tous les critères. Toutefois, sur les 78 critères actuellement présentés dans le RGESN :
14 nécessitent des mesures
21 devraient s’appuyer sur des mesures, notamment pour appuyer la déclaration sur des indicateurs chiffrés et vérifiables
Au total, ce sont donc presque la moitié des critères qui peuvent (ou doivent) s’appuyer sur des mesures.
Au-delà de la vérification ponctuelle de conformité, ces mesures devraient être automatisées dans une logique d’amélioration continue.
Tout ceci est évidemment possible avec Greenspector Studio.
L’arrivée du RGESN et la volonté de l’appliquer aussi largement que possible renforcent notre conviction de concilier bonnes pratiques et mesures afin de réduire les impacts (notamment environnementaux) des services numériques.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
Le sujet des impacts environnementaux du numérique ne cesse de prendre de l’ampleur depuis quelques années. En particulier en France, où il bénéficie de la mise en place rapide d’un contexte légal structurant. Celui-ci avait été abordé dans un autre article du blog de Greenspector : https://greenspector.com/fr/le-cadre-legislatif-de-lecoconception-de-services-numeriques/
En tant qu’entreprise cherchant à réduire les impacts environnementaux et sociétaux du numérique, Greenspector a forcément à cœur d’explorer en détail ce sujet. Nous vous proposons donc ici de reprendre brièvement la loi REEN (Réduction de l’empreinte environnementale du numérique) pour ensuite nous intéresser au RGESN (Référentiel général d’écoconception de services numériques).
Cadre de la loi REEN
La loi REEN impose aux villes et intercommunalités de plus de 50 000 habitants de définir leur stratégie liée au Numérique Responsable d’ici 2025. Celle-ci inclut nécessairement des éléments liés à l’écoconception de services numériques. Toutefois, les collectivités se retrouvent souvent confrontées à un premier obstacle : le sujet de l’écoconception de services numériques est encore relativement récent. Ainsi, il peut être difficile de s’y retrouver, qu’il s’agisse de choisir un outil de mesure ou un guide ou référentiel permettant d’avancer efficacement sur le sujet.
C’est pourquoi un autre volet de la loi REEN est attendu de pied ferme par beaucoup : la définition des obligations légales d’écoconception de services numériques. Celle-ci devrait se faire sous la forme de 2 items :
Le RGESN que nous allons voir plus en détail dans cet article
Un décret d’application qui définit qui est soumis à ces obligations et avec quelles contraintes (quels types de services numériques, quels délais pour la mise en œuvre, quels livrables attendus, etc.).
Le référentiel pour tous les lier : le RGESN
Ses origines
En 2020, l’INR (Institution du Numérique Responsable) réunit une centaine (!) d’experts pour travailler sur un référentiel pour l’écoconception des services numériques. L’objectif : offrir des recommandations qui couvrent tous types de services numériques, sur toutes les étapes du cycle de vie et pour toutes les personnes impliquées. Bref, une approche holistique. Le chantier est colossal mais approche de l’arrivée à l’été 2021. Il donnera naissance au GR491, qui compte aujourd’hui 61 recommandations et 516 critères. Il devrait prochainement être une fois de plus mis à jour. Il constitue à ce jour une référence unique au monde sur laquelle s’appuyer.
Juste avant la mise en ligne de ce référentiel, la DINUM (Direction interministérielle du numérique) intervient. Son objectif est simple et tout à fait pertinent : s’appuyer sur les travaux réalisés pour pouvoir construire son propre référentiel. C’est ainsi que, à l’automne 2021, deux référentiels voient le jour : le GR491 et le RGESN.
Le RGESN a déjà été décliné en deux versions : la première proposée par la DINUM puis une nouvelle version proposée en consultation publique par l’ARCEP (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse) fin 2023.
La version finale a été mise à disposition le 17 mai 2024.
Son rôle
Les versions existantes du RGESN référentiel soulignent déjà ses spécificités. Dans le cas de l’accessibilité, le RGAA (Référentiel général d’amélioration de l’accessibilité) permet de contrôler l’accessibilité d’un service numérique en s’appuyant sur des critères issus des WCAG (Web Content Accessibility Guidelines) émises par le W3C (World Wide Web Consortium). Le cadre légal français impose de plus d’afficher la conformité notamment via une déclaration d’accessibilité mais aussi de publier un schéma pluriannuel de mise en accessibilité numérique de l’entité. Tous ces éléments sont consultables ici : https://accessibilite.numerique.gouv.fr/
Dans le cas du RGESN, la notion de déclaration d’écoconception est incluse directement dans le référentiel et son contenu détaillé au fil des critères. En revanche, ce référentiel ne s’appuie pas sur un référentiel international. En effet, les WSG (Web Sustainability Guidelines : Web Sustainability Guidelines (WSG) 1.0 [EN]) ont été publiées par le W3C après le RGESN. En conséquence, les WSG s’appuient en partie sur le RGESN et non l’inverse.
Dans le cas du RGESN, l’ambition n’est pas tant de “vérifier” qu’un service numérique est écoconçu que de vérifier qu’une démarche d’écoconception a bien été mise en place. Il devient ainsi possible d’embarquer toutes les parties prenantes sur le sujet (y compris l’hébergeur, les fournisseurs de services tiers mais aussi questionner la stratégie voire le modèle économique) et de s’inscrire dans une démarche d’amélioration continue. Cette approche est ambitieuse mais aussi liée au fait qu’il est compliqué voire impossible d’établir factuellement (via des critères purement techniques) si un service numérique est écoconçu ou non. Il s’agit plutôt de s’assurer qu’il s’inscrit bien dans une démarche d’écoconception.
Son contenu
La V1 (celle de la DINUM)
Dans sa première version, le RGESN propose 79 recommandations réparties en 8 familles :
Chaque recommandation se présente sous la forme suivante :
Objectif
Mise en œuvre
Moyen de test ou de contrôle
Ainsi, par exemple, la première recommandation du référentiel a pour nom “1.1 Le service numérique a-t-il été évalué favorablement en termes d’utilité en tenant compte de ses impacts environnementaux ?”
Son “Objectif” est de s’assurer que le service numérique que l’on cherche à écoconcevoir contribue bien aux Objectifs de Développement Durable (ODD).
Pour cela, la section “Mise en œuvre” propose quelques pistes pour vérifier cela ainsi que les éléments à préciser dans la déclaration d’écoconception.
Le “Moyen de test ou de contrôle” résume ce sur quoi s’interroger pour s’assurer que ce critère est satisfait.
On arrive ici sur l’une des limites de cette version du référentiel : l’objectif est louable mais il manque de moyens concrets de vérification et de mise en œuvre.
D’autres points sont soulevés par des experts du sujet mais l’outil reste important et nombreux sont ceux qui s’en emparent pour le tester sur le terrain.
Le référentiel définit certains éléments pour structurer la démarche d’écoconception notamment via :
La désignation d’un référent
La rédaction d’une déclaration d’écoconception (avec tous les détails relatifs à son contenu)
La mise en place d’une stratégie de mesure. En particulier, la définition d’un budget environnemental en visant entre autres une compatibilité plus large du service en termes de navigateurs, systèmes d’exploitation, types de terminaux et connectivité.
Les outils qui accompagnent le référentiel (une extension de navigateur, des templates de tableur Excel comme grille d’audit) sont les bienvenus mais parfois insuffisants sur le terrain. Notamment pour pouvoir mener plusieurs audits sur des services numériques différents ou pour pouvoir construire un plan d’action complet.
Cette version a été soumise en consultation publique deux ans après la première version.
Elle apporte quelques modifications significatives :
On passe de 79 à 91 critères, notamment via l’ajout d’une section “Apprentissage” (relative au machine learning) qui introduit 5 nouveaux critères.
En plus d’”Objectif”, “Mise en œuvre” et “Moyen de test ou de contrôle”, 3 nouveaux attributs apparaissent :
Niveau de difficulté
Niveau de priorité
Critères de non-applicabilité
Du fait de l’ajout du niveau de priorité, les recommandations sont au préalable regroupées par priorité. 20 d’entre elles sont identifiées comme prioritaires, en particulier toutes celles liées à la nouvelle section Apprentissage.
Au-delà de ces apports, la nouvelle version se démarque de la précédente en étant davantage opérationnelle : elle vise à fournir des éléments concrets pour faciliter la mise en place des recommandations.
On retrouve par exemple le même critère 1.1 mais présenté de façon plus complète :
Action identifiée comme prioritaire et facile à mettre en place, pas de cas de non-applicabilité
Objectif plus ou moins identique
Davantage d’informations de contexte pour aller plus loin dans la démarche de vérification des apports du service numérique en termes d’impacts environnementaux (et sociétaux)
Des outils concrets de contrôle : le questionnaire des Designers Éthiques et l’arbre de conséquences tel que formalisé par l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Energie). On retrouve d’ailleurs cet arbre de conséquences par la suite, dans le critère 2.1, dans le cadre des revues de conception.
Le critère relatif à la déclaration d’écoconception disparaît. Cette dernière n’en reste pas moins essentielle et son contenu défini au fil de différentes recommandations.
Un autre élément qui se dessine au fil de cette nouvelle version du référentiel est la mise en place d’une stratégie de mesure via la définition d’indicateurs environnementaux (a minima énergie primaire, émissions de gaz à effet de serre, consommation d’eau bleue et épuisement des ressources abiotiques) ainsi que d’une stratégie pour leur réduction et d’un budget environnemental via des seuils. Cette stratégie de mesure devrait également inclure des éléments relatifs à la vérification du bon fonctionnement du service numérique sur des terminaux et systèmes d’exploitation anciens (voire navigateurs anciens) ainsi qu’en connexion dégradée. Via les modifications apportées à la recommandation 4.4, cette stratégie de mesure doit s’étendre à des parcours utilisateurs.
C’est notamment sur ce sujet de la stratégie de mesure que Greenspector peut intervenir, aussi bien pour la construction de la stratégie que pour sa mise en place. Via la mesure proprement dite mais aussi la définition des indicateurs environnementaux, leur calcul de même que pour la définition des parcours et des terminaux et conditions de connexion. Ainsi, la démarche peut aujourd’hui s’appliquer aussi bien sur les sites web que les applications mobiles et les objets connectés.
Certains nouveaux critères font le lien avec le RGPD (Réglement général sur la protection des données), le RGS (Référentiel général de sécurité), l’IoT (Internet of Things donc les objets connectés) et l’open source. Aussi, la recommandation 2.6 impose de prendre en compte les impacts environnementaux de briques logicielles telles que l’IA et la blockchain. Ceci dit, cette recommandation aurait tout à fait pu trouver sa place directement dans la section Stratégie.
La section Contenus apporte de nombreux éléments sur les formats et modalités de compression des contenus, ce qui permet d’aller encore plus loin sur les aspects techniques d’une démarche de sobriété éditoriale.
De nouveaux critères apportent également des éléments sur la blockchain mais aussi sur le lancement asynchrone de traitements complexes.
Tout ceci va clairement dans le bon sens. Nul doute que la consultation publique aura permis de récupérer énormément d’éléments pour tendre vers un excellent référentiel mais aussi les outils qui doivent l’accompagner (en améliorant l’extension de navigateur mais surtout le template Excel pour mener les audits de conformité et les suivre dans le temps via un plan d’action).
Il ressort d’ores et déjà de ces ajouts et précisions que la réalisation d’un audit RGESN prendra davantage de temps qu’avec la V1, ce qui est important pour prendre en compte les critères dans leur ensemble et ainsi lever le plus possible les éventuelles ambiguïtés. Si les intentions du RGESN V1 étaient déjà bonnes, le référentiel se dote dès sa V2 des éléments nécessaires pour faciliter son adoption et sa mise en œuvre. Cette version témoigne également d’une grande maturité sur le sujet et en fait une ressource donc la lecture permet déjà de faciliter la montée en compétences.
La version finale (celle publiée le 17 mai 2024 par l’ARCEP)
Comme annoncé, les réponses à la consultation publique sont également téléchargeables.
A première vue, cette version finale est plutôt proche de cette qui avait été proposée en consultation publique par l’ARCEP. C’est déjà une très bonne nouvelle pour ceux qui avaient déjà commencé à s’emparer du sujet.
La déclaration d’écoconception doit désormais mentionner des éléments sur presque l’ensemble des critères du référentiel. La nouvelle grille d’audit permet le calcul du score d’avancement. Elle est très dense mais aussi très complète. Il est regrettable de ne pouvoir générer la déclaration d’écoconception qu’au format PDF (le format HTML ou un autre format facilement éditable auraient été préférables). L’idéal pourrait être à terme de proposer un outil similaire à celui proposé pour les audits d’accessibilité : https://ara.numerique.gouv.fr/
On retrouve les 9 familles de critères de la version précédente (la famille « Apprentissage » devient « Algorithmie »). On compte au total 78 critères.
En cause ici, la fusion de certains critères. Le risque est alors de complexifier leur validation. C’est notamment le cas du critère 8.1 qui demande que l’hébergeur partage ses indicateurs environnementaux, ses engagements environnementaux et ratifie le Code de Conduite Européen [lien en anglais]. C’est aussi le cas du 6.5 qui incite à charger progressivement les contenus mais aussi le code, ce qui correspond souvent à deux chantiers techniques différents. Le problème est d’avoir en conséquence des critères plus difficiles à valider mais surtout avec un niveau de granularité inapproprié où l’état d’un critère (typiquement « non-validé ») ne permet pas d’estimer (voire de récompenser) finement les efforts réalisés. Pour ceux qui souhaiteraient creuser davantage ce sujet, je vous invite à explorer la façon dont Opquast définit ses règles.
De nouveaux critères font leur apparition :
5.5 – Le service numérique propose-t-il un mode « écoute seule » pour ses vidéos ?
4.14 – Le service numérique évite-t-il le recours à des procédés manipulatoires dans son interface utilisateur ?
9.5 – Le service numérique optimise-t-il l’occurrence de mise à jour et de réentraînement des modèles en fonction de ses besoins et des cibles utilisatrices ?
9.7 – Le service numérique utilise-t-il une stratégie d’inférence optimisée en termes de consommation de ressources et des cibles utilisatrices ?
L’ancien critère 5.5 (format des fichiers audio) disparaît.
En conséquence, certains critères changent de numéro (le 1.8 sur le référent écoconception devient 1.3) en plus de (nombreux) nouveaux détails ajoutés dans le contenu de certains critères. Ainsi, la validation des critères est davantage guidée. A terme, la publication des déclarations d’écoconception ainsi que les éventuelles listes de diffusion dédiées au sujet (au même titre que ce qui est proposé pour le RGAA) devraient permettre de lever les ambigüités restantes.
De même, certains critères sont déplacés. En particulier, les critères liés aux matériels ciblés (dont système d’exploitation et version de navigateur ainsi que design adaptatif) et au type de connexion utilisable sont regroupés dans la famille Spécifications.
Chaque critère se voit doter des mêmes attributs que sur la précédente version (priorité, difficulté, non-applicabilité, Objectifs, Mise en oeuvre et Moyen de test ou de contrôle), auxquels viennent s’ajouter les métiers concernés. On note au passage une nouvelle répartition des priorités avec 30 critères sur 78 identifiés comme prioritaires.
On note également que le calcul du score d’avancement a été légèrement modifié. En particulier, les critères non-applicables ne contribuent plus directement au score. Sur la version précédente, les critères non-applicables étaient ajoutés au même titre que les critères validés. Ils sont désormais directement retirés du total cible.
Plus généralement, l’appui sur la mesure est de plus en marqué, notamment pour de l’A/B testing (comparer par la mesure les impacts de composants, fonctionnalités ou choix d’implémentation).
Au final, si le nombre total de critères diminue, la complexité de validation de certains d’entre eux augmente et certains regroupement de critères apparaissent discutables.
Il n’en reste pas moins que cette nouvelle version apporte son lot de précisions qui sont les bienvenues.
Qu’attendre de la suite ?
Le RGESN est appelé à évoluer au fil du temps et peut-être même à trouver une déclinaison au niveau de l’Europe. Il s’agira sans nul doute d’un outil essentiel pour structurer les démarches d’écoconception de services numériques. Ainsi, les pratiques de chacun pourront évoluer sur ce sujet.
Les outils qui l’accompagnent ont bien progressé dans la version finale mais pourraient aller encore plus loin.
Le référentiel impose entre autres la publication d’une déclaration d’écoconception complète, ce qui permet de sensibiliser plus largement mais aussi de confronter les pratiques. Donc de faire évoluer ce domaine d’expertise.
La grande inconnue reste le décret d’application à venir, qui doit poser le cadre d’application de la loi REEN en s’appuyant sur le RGESN. Il reste à ce propos plusieurs inconnues. Si l’on se base sur ce qui est fait pour l’accessibilité (et en particulier à la suite du décret d’octobre 2023), des questions restent en effet en suspens :
L’utilisation du RGESN sera-t-elle limitée au web ou étendue à d’autres types de services numériques (applications mobiles, mobilier urbain, etc) ? A minima, il serait important d’embarquer les applications mobiles en complément des sites et applications web.
Quelles seront les sanctions ?
Quels seront les délais pour la mise en place ?
Quelles structures seront concernées ? Les structures publiques seront a priori les premières concernées mais, comme pour l’accessibilité, il serait intéressant de viser aussi les entreprises. Certaines, d’ailleurs, ont déjà commencé à s’emparer du sujet car elles ont reconnu l’intérêt de ce référentiel pour guider leurs démarches d’écoconception de services numériques.
Quels seront les moyens mis en place officiellement pour faciliter la prise en main du RGESN (formation, guides, outils, etc.) ?
D’autres questions plus générales se posent. Notamment, comment certaines entreprises et certains professionnels feront évoluer leurs pratiques et leurs offres, peut-être pour une partie d’entre eux en évoluant vers des rôles d’auditeurs (voire en formant les futurs auditeurs). Il reste également à espérer que la définition plus complète de l’écoconception de services numériques permettra l’émergence de formations certifiantes (donc de référentiels de compétences validés par France Compétences).
Un point d’inquiétude subsiste sur la nature déclarative des recommandations. L’avantage du RGAA est de proposer une approche technique voire factuelle (même si certains critères restent parfois sujets à interprétation). Dans le cas du RGESN, les critères sont moins factuels et moins faciles à vérifier, ce qui peut parfois les faire reposer sur l’objectivité de l’auditeur. Reste aussi ouverte la question de la définition de méthodes pour valider certains critères par des mesures. Il reste à voir, à terme, comment le suivi dans le temps du référentiel sera assuré (liste de diffusion par exemple). D’ailleurs, la création d’un « Forum des parties prenantes de l’écoconception numérique » piloté par l’ADEME et l’ARCEP a été annoncée. Il reste à espérer que ce moyen de partage du savoir sera disponible en ligne et plus seulement limité au présentiel sur Paris.
Il sera également intéressant de voir comment tous ces éléments trouveront un écho au-delà de la France et comment le RGESN pourra s’articuler avec l’éventuelle mise en place de nouvelles normes et autres référentiels.
Et Greenspector dans tout ça ?
Le RGESN s’impose comme un socle inédit mais surtout indispensable pour améliorer nos propres pratiques et accompagner au mieux nos clients. D’autant plus dans la mesure où ils seront bientôt confrontés à l’obligation d’utiliser ce référentiel.
Pour cela, plusieurs actions ont été menées à bien :
Intégrer la V1 du RGESN dans notre propre référentiel interne de bonnes pratiques. La version finale du référentiel est prise en compte dès maintenant dans nos accompagnements et sera très bientôt intégrée à notre référentiel de bonnes pratiques.
Incorporer le RGESN dans les formations que nous proposons : présenter le référentiel et son contexte et proposer des activités autour de celui-ci, notamment via la mise en œuvre rapide et encadrée d’un audit RGESN. Les autres référentiels sont également présentés afin de les comparer ainsi que leurs cas d’usage.
Nous effectuons régulièrement des audits RGESN pour des clients et centralisons les informations qui nous permettent de tracer les taux de conformité mais aussi leur évolution dans le temps. De plus, ces audits nous permettent de faire évoluer notre utilisation du RGESN.
Nous nous appuyons systématiquement sur le RGESN lors des audits et revues de design. En complément, notre offre Ecobuild évolue. L’objectif de cette offre est à l’origine d’accompagner une équipe projet dès le début via de la formation, des revues de design, des audits, du monitoring et plus largement de l’expertise. Nous proposons désormais d’appuyer cette offre sur le RGESN, ce qui permet d’aller plus loin encore pour mettre en place ou consolider la démarche d’écoconception de nos clients.
Au-delà de l’approche permettant d’utiliser le RGESN pour auditer/améliorer un site, nous l’utilisons également dans le cadre d’un accompagnement sur une solution de création de sites afin d’avoir des leviers plus globaux mais aussi d’amorcer une réflexion autour des critères RGESN qui peuvent être pris en compte directement à ce niveau. Ce type de raisonnement pourrait par la suite s’étendre à d’autres outils comme WordPress, Drupal et autres CMS. L’intérêt ici est multiple :
Sensibiliser les clients et utilisateurs sur le sujet du RGESN
Rassurer les clients en prenant en charge une partie des critères, ce qui pourrait à terme avoir un caractère différenciant (on peut imaginer à terme des clients qui opteraient vers des solutions “conformes au RGESN” afin de répondre plus facilement aux obligations légales sur le sujet)
Mettre en place les moyens pour que des sites moins impactants soient créés par les utilisateurs/clients
Conclusion
Le RGESN s’impose déjà comme un incontournable pour l’écoconception de services numériques mais aussi pour structurer les démarches d’écoconception. En tant que tel, il devrait aider chacun à monter en compétences sur le sujet. Il reste à voir en quoi le cadre légal facilitera cette évolution et induira à terme des changements que l’on espère en profondeur dans les structures concernées.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
D’après une étude de Statista, le secteur du jeu vidéo a généré plus de 155 milliards de dollars américains de revenus dans le monde en 2021. Ce chiffre s’explique par l’augmentation du nombre de plateformes de jeux et de la diversification des types de jeux disponibles pour les consommateurs mais aussi en se démocratisant grâce à l’émergence de jeux gratuits. En 2022, les jeux vidéo ont attiré près de 1,8 milliard de joueurs à travers le globe, transformant ainsi l’expérience de divertissement en une dimension sociale et favorisant l’émergence de nouveaux secteurs comme le streaming et l’esport.
Or, tous ces jeux, biens que virtuels, sont exécutés sur du matériel physique, et induit donc une consommation énergétique. Cet article présente et compare les consommations énergétiques de différents jeux vidéo et de leurs paramètres. Pour connaitre la consommation réelle de ces usages, nous avons choisi d’évaluer les jeux vidéo suivants : Assassin’s Creed Valhalla, Total War Warhammer III, Borderlands 3, Anno 1800 et War Thunder.
Nous avons précédemment réalisé une étude sur les jeux mobiles.
Choix et méthodologie
Ces jeux vidéo ont été sélectionnés de par le fait qu’ils proposent un benchmark. Utiliser ces benchmarks comme sujet de mesure assure la réplicabilité de notre protocole expérimental, tout en s’affranchissant du facteur humain dans les résultats.
Un benchmark est une fonctionnalité proposée par le jeu permettant de mesurer les performances d’un système (PC entier), ou d’un de ses composants (CPU, GPU, mémoire …) selon un scénario donné en fonction du paramétrage sélectionné.
Nous avons également veillé à représenter plusieurs types de mode de jeu tels que RPG (jeu de rôle), stratégie ou simulation.
Nous avons mesuré ces jeux vidéo sur un PC disposant de la configuration suivante :
Processeur: i7 6700
Mémoire: 32 Go RAM DDR4
Carte graphique: RTX 3060 12Go
Ce matériel nous a été fourni par l’entreprise OPP! qui propose de la réparation et maintenance sur PC et Mac ainsi que de la vente individuelle de composants.
L’écran utilisé est un écran LG E2441 disposant des caractéristiques suivantes:
Technologie d’écran : LED
Taille de l’écran : 24”
Résolution : 1920×1080
Nous avons collecté les métriques d’énergie grâce à un module de mesure connecté à notre logiciel Greenspector Studio, branché directement sur l’alimentation du PC et de l’écran et relié à la prise secteur.
Les benchmarks ont été réalisés dans 2 configurations graphiques différentes :
Une configuration avec un paramétrage maximal des graphismes proposés par le jeu
Une configuration avec un paramétrage minimal des graphismes proposés par le jeu
6 itérations ont été effectuées sur chacun des scénarios pour assurer une fiabilité de résultats.
Les benchmarks durent entre 80 et 240 secondes. Ces variations n’affectent pas les résultats présentés.
L’évolution graphique impacte la puissance
Les jeux modernes intègrent des graphismes de plus haute qualité avec des textures ultra-détaillées, des effets visuels avancés tels que l’éclairage dynamique, les ombres en temps réel et les effets de particules sophistiqués. Cette complexité graphique nécessite des capacités de rendu et de traitement graphique considérables.
Les joueurs optent également de plus en plus pour des résolutions d’affichage élevées pour une expérience visuelle optimale. Cela place une pression supplémentaire sur le GPU (Graphics Processing Unit, la carte graphique) pour rendre des images détaillées à des résolutions ultra-hautes.
Ces GPU on des consommations énergétiques croissantes à chaque nouvelle génération comme celles de NVDIA classées ci-dessous :
Evolution de la puissance minimale du système et la puissance max du GPU selon la date de sortie des GPU
Les développeurs exploitent des techniques de rendu avancées telles que le ray tracing pour simuler de manière réaliste le comportement de la lumière dans les environnements virtuels. Bien que ces techniques offrent un niveau de réalisme sans précédent, elles nécessitent des calculs intensifs qui exigent des GPU haut de gamme.
Différences de consommation selon le paramétrage
Les mesures de puissance moyenne du PC sur la configuration graphique la plus faible et la plus élevée de chaque jeu montrent une grande disparité entre celles-ci.
Puissance totale du PC en selon le paramétrage minimal ou maximal
Le fait de passer d’une configuration de paramètres maximale aux paramètres les plus faibles proposés par chacun des jeux résulte d’une diminution de puissance mesurée de 45% en moyenne. Pour le jeu Borderlands 3, on constate même un gain de puissance de 72%.
Sur le jeu Anno 1800, le benchmark est une vue aérienne panoramique de la carte du jeu. Cette séquence met en valeur les détails du monde du jeu, tels que les paysages, les bâtiments emblématiques et les animations de la vie quotidienne.
Ci-dessous les graphes d’une itération mesurée avec un paramétrage maximal et d’une autre itération avec paramétrage minimal. Le benchmark balaie la ville de son point de vue aérien zoomé au début puis la même trajectoire se répète 8 fois avec des points de vue de plus en plus hauts ce qui explique les 8 pics sur le graphe.
Ici, nous constatons facilement la différence notoire entre les 2 niveaux de paramétrage. Sur les deux paramétrages différents on voit d’abord que plus la caméra s’éloigne de la ville, plus la puissance se réduit étant donné le temps de plus en plus court du scénario.
De plus, lorsque le jeu est paramétré de manière maximale, la consommation est à son pic pendant presque toute la durée du scénario tandis que les mesures faites avec le plus faible paramétrage affichent des pics de puissance moins élevés et plus courts.
Consommation d’énergie du benchmark Anno 1800 avec paramétrage maximal
Consommation d’énergie du benchmark Anno 1800 avec paramétrage minimal
Une enquête Statista réalisée en décembre 2023 a révélé que 22 % des adultes américains âgés de 18 à 29 ans passaient de six à dix heures par semaine à jouer à des jeux vidéo. Dans l’ensemble, les personnes interrogées de ce groupe d’âge étaient également plus susceptibles que les autres d’être des joueurs assidus car un total de 8% jouait à des jeux vidéo plus de 20 heures en moyenne par semaine.
Ces chiffres nous permettent d’évaluer la consommation d’énergie globale selon les temps d’usage de différents types de joueurs dans le cas où le benchmark est représentatif de la consommation du jeu. La consommation d’énergie a été projetée avec les mesures faites sur les paramétrages minimum et maximums de chaque jeu.
La moyenne de consommation pour une heure de jeu en paramétrage minimal est de 0,168 kWh et 0,254 kWh en paramétrage maximal. Ces résultats sont plus élevés que ceux de l’étude européenne de l’évaluation de l’impact environnemental des services numériques. Celle-ci affiche une consommation de 0,137 kWh pour une heure de jeu sur PC avec une résolution moyenne.
Consommation d’énergie sur 6h de jeu (Wh)
Consommation d’énergie sur 10h de jeu (Wh)
Consommation d’énergie sur 20h de jeu (Wh)
Paramétrage
Min
Max
Min
Max
Min
Max
War Thunder
1469,70
1460,78
2449,50
2434,64
4899,00
4869,28
Anno 1800
843,26
1352,27
1405,43
2253,78
2810,86
4507,56
Borderlands
522,33
1537,53
870,55
2562,55
1741,09
5125,09
Assassin’s Creed Valhalla
1110,49
1618,73
1850,82
2697,88
3701,65
5395,76
Total War Warhammer III
1108,08
1651,01
1846,80
2751,68
3693,60
5503,37
La majorité des joueurs ont donc une consommation hebdomadaire comprise entre 1,5 kWh et 2,5 kWh en jouant entre 6 et 10h par semaine. Pour les joueurs davantage impliqués jouant 20h par semaine environ (2h40 par jour), leur PC et écran ont une consommation hebdomadaire de 5 kWh. A même titre de grandeur, un réfrigérateur classique consomme en moyenne 3,29 kWh par semaine.
Evolution selon les dates de sortie
Sur les configurations maximales, on note une évolution de la puissance mesurée proportionnelle à la date de sortie de ces jeux.
Jeux
Sortie du jeu
Puissance avec paramétrage maximal (W)
War Thunder
Novembre 2012
181,86
Anno 1800
Avril 2019
214,94
Borderlands 3
Septembre 2019
236,62
Assassin’s Creed Valhalla
Novembre 2020
249,46
Total War Warhammer III
Février 2022
257,70
Dans ce contexte, les configurations maximales des jeux vidéo reflètent cette évolution technologique. Les développeurs de jeux conçoivent leurs jeux pour tirer parti des dernières avancées matérielles, ce qui se traduit par des exigences de plus en plus élevées sur les composants. Par conséquent, pour profiter pleinement des performances graphiques et de la fluidité de jeu, les joueurs doivent souvent investir dans du matériel informatique de pointe.
Ces graphismes complexes et détaillés nécessitent un rendu en temps réel qui repose souvent sur le CPU pour effectuer des calculs liés à la physique, à l’intelligence artificielle des personnages non-joueurs, à la gestion des collisions et à d’autres aspects du gameplay.
C’est ce qu’explique un directeur technique du jeu Total War dans une interview d’Intel :
« Nous modélisons des milliers de soldats avec un niveau de détail élevé appliqué à chacun en matière d’animations, d’interactions, de décisions de pathfinding, etc. »
Dans les jeux vidéo, le pathfinding consiste à trouver comment déplacer un personnage d’un point A à un point B en tenant compte de l’environnement : obstacles, autres personnages, longueur des chemins, etc.
En outre, le processeur jongle souvent entre de nombreuses tâches simultanément en fonction de ce qui s’affiche à l’écran. « Prenons une scène où deux immenses fronts comptant des milliers de soldats se fracassent l’un contre l’autre, et où vous avez effectué un zoom assez rapproché » explique le directeur technique du jeu. « Dans cette situation, le processeur se partage principalement entre les combats basés sur des agents d’entité, les mécanismes de collision et la construction des piles de matrices afin de dessiner toutes les entités. »
En d’autres termes, le processeur doit gérer simultanément la présence et les interactions de milliers de PNJ (personnages non joueurs).
De plus, plus les graphismes sont avancés, plus le GPU est sollicité pour traiter les données et les instructions de manière efficace, ce qui peut entraîner des goulots d’étranglement et des ralentissements si le processeur n’est pas assez puissant.
Sur le jeu Assassin’s Creed Valhalla, lorsque le paramétrage est au plus faible, la carte graphique est sollicitée à 46% en moyenne. A l’inverse, sur un paramétrage maximal avec par exemple les reflets sur l’eau activés ou la qualité des nuages maximale, la carte graphique est utilisée à 99% pendant le benchmark.
Optimisation vs qualité graphique
Nous venons de voir que le paramétrage d’un jeu réglé à son maximum implique de grosses consommations d’énergie. Cependant, les effets visuels en sont-ils améliorés ? Tous les paramètres sont-ils pertinents pour l’expérience de jeu selon la configuration du PC ?
Un indicateur intéressant pour répondre à ces questions est le nombre d’images par secondes (FPS) car il est souvent utilisé comme indicateur de la fluidité d’un jeu : plus les FPS sont élevés, plus le jeu paraît fluide et réactif.
Le FPS (Frame Per Second), c’est le nombre d’image par seconde indique le nombre d’images individuelles (ou « frames ») affichées à l’écran chaque seconde.
En effet, plus une image est lourde à générer et afficher en fonction de sa complexité, moins le processeur et la carte graphique peuvent être rapides à les afficher. Ainsi, lorsque le paramétrage dépasse les capacités de la configuration du PC, l’effet visuel pour le joueur n’en est pas forcément amélioré.
D’autant plus, le gameplay peut en être impacté par le phénomène de bottleneck.
Le bottleneck ou goulot d’étranglement en français, c’est un phénomène produit par un composant matériel ou logiciel de performance limitée par rapport à d’autres composants plus performants. Cela signifie qu’une partie du système fonctionne à une capacité maximale, tandis que d’autres parties ne peuvent pas suivre, ce qui entraîne une baisse des performances globales.
En équilibrant correctement la configuration matérielle et en ajustant les paramètres graphiques en conséquence, les joueurs peuvent minimiser les risques de ralentissements et de saccades, offrant ainsi une expérience de jeu plus agréable et immersive.
Voici quelques différences de benchmarks réglés au maximum de leurs paramètres de jeu puis au minimum :
Implications pour le matériel et impact environnemental
L’évolution constante des jeux vidéo vers des expériences toujours plus immersives et réalistes a des implications significatives pour le matériel utilisé. Les développeurs de jeux cherchent à exploiter pleinement les capacités graphiques et de traitement des nouvelles technologies, ce qui se traduit par des exigences matérielles plus élevées.
En France, l’année 2020 est marquée par la vente de 2,3 millions de consoles, 27,5 millions de jeux complets (Console + PC / physique + dématérialisé) et près de 7 millions d’accessoires (Console + PC). Avec une croissance de 10%, l’écosystème Console représente 51% de parts de marché total du jeu vidéo et le PC Gaming croît de 9%. (Source : Sell)
Les joueurs cherchent à rester à la pointe de la technologie pour profiter pleinement des dernières sorties. Au-delà de l’enjeu financier que cela peut représenter, cette quête de performances matérielles est également très critique d’un point de vue environnemental.
Nous l’avons vu, il faut que tous les composants d’une configuration soient environ au même niveau de performance pour bénéficier d’une expérience de jeu optimisée. Si le joueur possède une carte graphique très performante mais un écran de plus faible résolution, un processeur ou une carte mère moins puissants, l’expérience de jeu n’en sera pas forcément améliorée voire altérée. L’intérêt d’un point de vue optimisation n’est donc pas d’acheter des composants de dernière génération pour améliorer ses performances mais d’optimiser au mieux les paramètres du jeu selon la configuration de son matériel. Cela permet d’une part de rallonger leur espérance de vie avec une sollicitation moindre mais aussi en améliorant l’expérience de jeu pour les utilisateurs.
La sur-sollicitation fait chauffer les composants comme la carte graphique ou le processeur à de hautes températures à cause de la quantité de calculs gérés par ces derniers et endommage leurs transistors et puces impliquant donc la réduction de leur durée de vie.
La durée de vie d’un PC de bureau moyen dure entre 2 et 3 ans selon HP, et celle d’un PC gamer entre 3 et 5 ans.
Nous n’avons pas d’informations au sujet de l’impact environnemental de la fabrication d’un PC gamer mais la fréquence de sortie tous les ans des produits dernière génération poussant les joueurs à renouveler tous les ans leur configuration de PC augmente considérablement l’impact de cette industrie.
Il est à noter que les consoles de jeu ne sont pas en reste dans l’empreinte carbone.
Ben Abraham, chercheur sur le climat et la durabilité, analyse l’unité centrale de traitement de la PlayStation 4 en utilisant la spectrométrie de masse, révélant la présence de composants atomiques comme le titane, dont l’extraction, le raffinage et la fabrication contribuent aux émissions de gaz à effet de serre.
Cette observation souligne le défi de rendre durable la production de ces appareils, avec des décennies nécessaires pour atteindre cet objectif.
L’importance de la mesure
Les éditeurs de jeux vidéo jouent un rôle crucial dans la réduction de l’empreinte environnementale de l’industrie. Pour ce faire, il est impératif de prendre en compte les consommations d’énergie tout au long du processus de développement des jeux.
Tout d’abord, mesurer les consommations d’énergie permet aux éditeurs de jeux de comprendre l’impact environnemental de leurs produits. Cela inclut non seulement la consommation d’énergie directe des appareils sur lesquels les jeux sont exécutés, mais aussi pourquoi pas l’empreinte carbone liée aux serveurs de jeu, aux mises à jour et téléchargements.
Ensuite, cette prise de conscience permet aux développeurs de jeux de concevoir des mécaniques de jeu et des graphismes qui optimisent l’efficacité énergétique. Par exemple, en minimisant les effets visuels complexes qui nécessitent une puissance de calcul élevée, les jeux peuvent réduire leur consommation d’énergie tout en offrant une expérience de jeu immersive.
Le sujet de l’empreinte environnementale des jeux vidéo est de plus en plus pris en compte par les éditeurs, ce qui est encourageant. Des initiatives telles que le Green Games Guide de l’Ukie ou celui de l’Ecran d’après offrent des conseils pratiques et des bonnes pratiques pour réduire l’impact environnemental de la conception et du développement de jeux. De même, des outils comme le Xbox Sustainability Toolkit de Microsoft ou Jyros, l’outil de mesure d’impact environnemental dédié à l’industrie du jeu vidéo en France, fournissent aux développeurs des moyens concrets d’évaluer et d’améliorer la durabilité de leurs jeux.
Cependant, il est important de généraliser ces pratiques et de les intégrer de manière plus systématique dans l’ensemble de l’industrie. Trop souvent, l’aspect environnemental est relégué au second plan, tandis que l’accent est mis sur la performance et l’esthétique des jeux. Il est donc essentiel que les éditeurs prennent davantage en compte les implications environnementales de leurs décisions de conception et de développement.
Limites de l’étude
Dans le cadre de cette étude, il est important de reconnaître certaines limites qui pourraient affecter la portée et la représentativité des résultats obtenus :
Partenariat entre constructeur et concepteur : Il est possible que certains jeux vidéo aient établi des partenariats avec des fabricants de matériel informatique pour optimiser leurs performances sur des configurations spécifiques. Ces accords pourraient fausser les résultats du benchmark en favorisant certaines marques ou modèles de composants. Ces résultats peuvent altérer les comparaisons entre jeux, mais pas les comparaisons entre configurations d’un même jeu.
Scénario de benchmark pas forcément représentatif des modes de jeu : Les scénarios de benchmark utilisés pour évaluer les performances des jeux vidéo peuvent ne pas refléter les conditions de jeu réelles. Par exemple, un benchmark peut se concentrer sur des séquences spécifiques du jeu qui ne représentent pas nécessairement le gameplay général. Par conséquent, les résultats obtenus peuvent ne pas être entièrement représentatifs de l’expérience de jeu globale.
Pas de mesure du mode multijoueur ou du jeu en ligne : Cette étude se concentre principalement sur les performances des jeux en mode solo et ne prend pas en compte les aspects liés au multijoueur ou au jeu en ligne. Par conséquent, les échanges de données entre les serveurs de jeu et les clients, ainsi que les performances réseau, ne sont pas pris en compte dans l’analyse. Cela pourrait limiter la compréhension complète des besoins matériels pour une expérience de jeu en ligne optimale.
Conclusion
En conclusion, cette étude met en lumière l’impact croissant des jeux vidéo sur les performances matérielles des ordinateurs. Avec l’évolution constante des graphismes et des fonctionnalités, les jeux modernes exigent des configurations matérielles de plus en plus puissantes pour offrir une expérience de jeu optimale. Cela soulève des questions importantes sur la durabilité et l’efficacité énergétique des équipements informatiques, ainsi que sur les choix des consommateurs en matière de matériel. En fin de compte il est crucial, tant pour les éditeurs que pour les joueurs, de trouver un équilibre entre les performances des jeux vidéo et la durabilité de l’industrie technologique pour assurer un avenir plus durable.
Maëva Rondeau est consultante en numérique responsable chez Greenspector depuis novembre 2023. Elle a rejoint l’équipe après avoir réalisé son stage de fin d’étude chez nous d’avril à septembre 2023.
Comme établi par la loi REEN (Réduction de l’Empreinte Environnementale du Numérique), les services publics devraient dès cette année être soumis à des obligations d’écoconception, décrites par le RGESN (Référentiel Général d’Écoconception de Services Numériques). La version finale de ce référentiel devrait sortir ces prochaines semaines. Il restera alors à attendre le décret d’application afin de connaître précisément ce qui sera attendu. C’est donc l’occasion idéale de proposer une nouvelle étude afin de remesurer l’ensemble des sites de l’étude de 2020 et de voir quelles tendances se dessinent.
Même si nous n’avons pas encore la version finale du RGESN, celui-ci se dessine dans ses versions existantes comme un outil permettant de structurer une démarche d’écoconception, au-delà de l’estimation de l’écoconception d’un service numérique. Mesurer la page d’accueil d’un site ne permet en aucun cas de définir directement l’écoconception d’un site et encore moins sa conformité au RGESN. Toutefois, il s’agit toujours là d’une bonne première approche afin de se faire une première idée de la sensibilité de la structure au sujet de l’écoconception.
Le RGESN est déjà utilisé chez Greenspector et nous partagerons ultérieurement nos recommandations concernant la place des mesures dans une démarche de mise en conformité au référentiel, notamment via la mise en place d’une démarche d’amélioration continue.
Méthodologie
Les mesures initiales de 2020 ont été menées sur un smartphone Samsung Galaxy S7 sous Android 8.
Les remesures de 2022 (villes et métropoles) quant à elles ont été effectuées sur un smartphone Samsung Galaxy S9 sous Android 10. Les mesures ont été réalisées au travers de notre outil Greenspector Benchmark.
Le scénario de mesure est le suivant :
Chargement de l’application
Lecture du site web en premier plan
Lecture de la page avec scroll
Inactivité du site web en arrière-plan
Chaque mesure est la moyenne de 3 mesures homogènes (avec un écart-type faible). Pour chacune des itérations, le cache est préalablement vidé.
Cette année, il s’est avéré impossible de remesurer deux des sites de l’échantillon :
Ministère de la Santé
Ministère du Travail
Il faut noter que ces ministères ont été fusionnés à la suite du remaniement de début 2024 pour devenir le ministère du Travail, de la Santé et des Solidarités. Les deux URL existantes pointent donc vers le même site, lequel présente d’ailleurs a priori quelques soucis d’optimisation côté Javascript (voir un article Linkedin que j’avais publié à ce sujet).
Projection environnementale (gaz à effet de serre) par catégorie de site (2020)
L’idée était d’établir un premier état des lieux. Les résultats étaient assez disparates (ce qui est habituel sur ce type d’étude), avec encore une belle marge de progression. Ainsi, nous avions donc un point de comparaison pour des études ultérieures.
À la suite de l’arrivée de la loi REEN fin 2021, les communes et intercommunalités de plus de 50 000 habitants sont contraintes d’établir une stratégie autour du Numérique Responsable avant 2025. C’est donc tout naturellement que nous avons lancé en 2022 une nouvelle étude dédiée cette fois aux villes et métropoles.
Ecoscore
Energie
CPU
Données (Mo)
Mémoire
Requêtes HTTP
Impact carbon (gEqCO2)
Empreinte Eau (Litres)
Empreinte sol (m2)
Moyenne générale mesure
42
5,72
2,97
7,91
672
114
0,56
0,074
0,693
Moyenne générale remesure
58
5,65
1,31
7,14
738
92
0,51
0,070
0,673
Evolution des moyennes pour un échantillon de villes et métropoles (2022)
Et aujourd’hui ?
Ecoscore
CPU (%)
Mémoire (Mo)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Impact eau (L)
Occupation des sols (cm²)
Moyennes 2024
52,84
1,02
851,14
5,46
5,18
73,39
1,00
0,17
1,84
Moyennes 2020
46,58
2,81
634,07
5,18
5,47
99,34
1,30
0,22
2,42
Moyennes sur l’ensemble des sites au fil des mesures
Pour 2024, nous avons donc choisi de remesurer l’ensemble des sites de 2020 : ministères, agences d’état, régions, départements, métropoles et villes. Ces remesures ont été lancées dans les mêmes conditions qu’en 2022 (mesures sur Samsung S9 plutôt que Samsung S7).
L’EcoScore moyen pour l’ensemble des sites mesurés ici est passé de 46,58 à 52,84.
Même si les métriques restent élevées, on note une amélioration entre 2020 et 2024.
Alors que les structures publiques devront bientôt répondre à des obligations d’écoconception de leurs services numériques, il semblerait que des efforts restent nécessaires.
Mais voyons tout ceci plus en détail.
Résultats obtenus
Le tableau compilant l’ensemble des résultats au cours des remesures effectuées cette année est présenté plus loin dans l’article. Commençons par examiner l’évolution par catégorie de sites.
Ministères
Pour les sites qu’il a été possible de remesurer en 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
On constate une certaine disparité au niveau des scores mais aussi de leur évolution. Toutefois, dans le cas de l’Outre-Mer et de l’Enseignement Supérieur, la hausse est très importante (ce qui laisse imaginer une refonte complète de ces deux sites, ou en tout cas un remaniement conséquent). Nous les analyserons donc plus en détail par la suite.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
On constate une tendance globale à la diminution des gaz à effet de serre, ce qui est une très bonne nouvelle.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
52,75
2,23
5,11
4,07
94,67
1,28
Moyennes 2024
59,00
0,81
5,01
2,41
49,08
0,87
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes confirme une tendance globale à l’amélioration sur l’ensemble des métriques et indicateurs, ce qui est très encourageant.
Analyse rapide
Le site du ministère de l’Enseignement Supérieur et de la Recherche (https://www.enseignementsup-recherche.gouv.fr/fr) ainsi que celui du ministère de l’Intérieur et des Outre-Mer (https://www.outre-mer.gouv.fr/) montrent une amélioration significative de leur EcoScore (corrélée à une forte diminution de leurs impacts environnementaux).
Page d’accueil du site du ministère de l’Enseignement Supérieur et de la Recherche
Il apparaît que ces deux sites ont bénéficié d’une refonte par la société ISOBAR / Dentsu Creative, en s’appuyant sur Drupal.
De façon malheureusement assez classique, les deux sites souffrent d’images insuffisamment optimisées (format et taille) ainsi que d’un manque d’optimisation des polices. Une fois ces optimisations mises en place et automatisées, il sera plus facile d’investiguer plus en détail pour trouver d’autres pistes d’amélioration.
Agences de l’État
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
Il y a là aussi une certaine disparité entre les EcoScores (et émissions de GES) mais aussi leur évolution.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
51,94
2,75
4,40
3,44
73,78
1,09
Moyennes 2024
53,67
1,17
5,59
5,00
57,11
0,97
Evolution des moyennes entre 2020 et 2024
Si l’on constate une légère amélioration sur certains indicateurs, l’énergie et les données tendent à augmenter, ce qui devrait être évité. Plus particulièrement, nous sommes ici sur un échantillon assez restreint de sites (18 en tout). Les indicateurs trop élevés de certains (en particulier l’Institut National de la Consommation et le CEA) impactent donc fortement les moyennes obtenues. Surtout que, dans ces deux cas, l’augmentation des données transférées est conséquente (la valeur est doublée voire triplée par rapport à 2020).
Analyse rapide
La baisse de l’EcoScore apparaît particulièrement marquée pour le site de l’ANSM (https://ansm.sante.fr/). On remarque déjà un carrousel en défilement automatique dès l’affichage du site. Deux autres se trouvent plus bas sur la même page (ce qui est une mauvaise pratique tant pour les impacts environnementaux que pour l’accessibilité). La suppression (ou refonte) de ces composants permettrait dans un premier temps de réduire l’impact sur le CPU donc sur la batterie du terminal utilisateur, réduisant ainsi les impacts environnementaux.
Les images sont plutôt légères. De même pour les polices de caractères mais les fichiers chargés sont trop nombreux.
Extrait des DevTools de Firefox, onglet Réseau
Il semblerait que l’un des fichiers soit chargé 3 fois, ce qui devrait être évité. Plus généralement, il faudrait privilégier les polices système mais aussi éviter de charger les polices Google directement depuis leur site d’origine (risque lié au RGPD : https://gomakethings.com/google-fonts-and-gdpr/ [EN]). Pour ce qui est FontAwesome, il serait préférable de ne charger que les icônes réellement utilisées.
Au passage, l’outil Wave relève d’ailleurs plusieurs erreurs d’accessibilité (boutons aux libellés non-explicites, images sans alternative textuelle, contraste de couleurs insuffisant, etc).
Page d’accueil du site de Bpifrance
Inversement, le site de BPI France (https://www.bpifrance.fr/) montre une amélioration notable. Ceci semble être lié à une refonte. Le site apparaît plutôt léger, même si (là aussi) les polices devraient être davantage optimisées (privilégier les polices système, éviter d’intégrer les polices Google depuis leur serveur d’origine, etc). Ici aussi, Drupal a été utilisé.
Il semblerait qu’il y ait eu ici une vraie volonté d’écoconcevoir le site. Il aurait donc été intéressant de présenter une déclaration d’écoconception (ainsi que des éléments relatifs à l’accessibilité).
Régions
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
La tendance pour l’EcoScore est globalement à l’amélioration, ce qui est une très bonne chose. Dans certains cas, cette amélioration est même très conséquente (Hauts-de-France, Auvergne-Rhône-Alpes, Grand-Est et Bourgogne-France-Comté). Mention spéciale pour la région Bretagne qui obtient le meilleur EcoScore, du fait d’une démarche d’écoconception déjà bien entamée, notamment sur le portail de services (niveau Argent du certificat de sobriété Greenspector) mais aussi d’engagements pris dans le cadre du label Numérique Responsable de l’INR.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
La tendance à l’amélioration, constatée avec l’EcoScore, se confirme ici avec notamment une réduction notable des émissions de GES pour la région Auvergne-Rhône-Alpes (ARA). Nous analyserons donc rapidement ce site par la suite.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
42,08
3,36
5,46
6,48
109,17
1,38
Moyennes 2024
55,58
0,87
5,17
2,83
73,67
0,94
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes confirme une tendance forte à l’amélioration sur l’ensemble des métriques et indicateurs, ce qui est très encourageant. Les résultats pourraient être encore meilleurs et il reste à voir si les gains obtenus sont plutôt liés à de la sobriété, de la frugalité ou de l’efficience. Dans tous les cas, ce pourrait être signe d’une démarche d’amélioration continue qui se met en place.
Analyse rapide
Si plusieurs sites montrent une amélioration notable de l’EcoScore, celui d’ARA (https://auvergnerhonealpes.fr/) est aussi celui pour lequel les émissions de GES diminuent le plus.
Page d’accueil du site de la région Auvergne-Rhône-Alpes
On note plusieurs éléments très positifs sur ce site : son apparence plutôt sobre et son poids relativement faible. Il est regrettable que certaines images ne soient pas suffisamment optimisées, de même que les polices de caractères. Même si ces bonnes pratiques semblent déjà très répandues et totalement acquises par ceux qui s’intéressent à l’écoconception, leur adoption n’est malheureusement pas encore systématique. Vous pouvez trouver des éléments plus détaillés à ce propos dans le chapitre Sustainability du Web Almanac (en particulier ici : https://almanac.httparchive.org/en/2022/sustainability#image-optimization [EN]) ou dans celui consacré aux polices : https://almanac.httparchive.org/en/2022/fonts [EN]
Là aussi, le site semble avoir été réalisé avec Drupal. S’il n’est pas garanti qu’un site créé avec Drupal respecte automatiquement toutes les bonnes pratiques d’écoconception, il est intéressant de noter ici que de plus en plus d’agences se tournent vers cette solution. Il est agréable de noter que les ressources sur les liens entre écoconception et Drupal se multiplient, même si la plupart sont aujourd’hui en anglais :
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
La tendance pour l’EcoScore est globalement à l’amélioration, avec des progrès significatifs sur certains sites (Seine-et-Marne, Val d’Oise, etc) mais aussi quelques dégradations qui peuvent étonner de prime abord (Rhône, Alpes-Maritimes). Nous creuserons cela de façon plus approfondie par la suite.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
La tendance à l’amélioration, constatée avec l’EcoScore, se confirme ici avec une réduction notable des émissions de GES pour le site de la Seine-et-Marne et des Hauts-de-Seine. Inversement, ces émissions augmentent considérablement pour les Alpes-Maritimes et l’Essonne.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
48,05
2,85
5,18
6,24
91,85
1,31
Moyennes 2024
51,30
0,95
5,55
7,85
79,65
1,07
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes reflète une amélioration des divers indicateurs, à l’exception de l’énergie et des données qui se dégradent.
Analyse rapide
L’amélioration constatée pour le site de la Seine-et-Marne (https://seine-et-marne.fr/fr) est importante. Comme pour le site de Limoges (voir plus loin), l’éditeur est ici Stratis. Le site apparaît plutôt léger même s’il est regrettable qu’il ne soit pas davantage accessible. Lorsqu’on observe les requêtes effectuées, plusieurs éléments étonnants apparaissent :
Extrait des DevTools de Firefox, onglet Réseau
FontAwesome (police d’icônes) est utilisée mais il faudrait se limiter aux caractères véritablement utilisés sur le site. D’autant plus que les fichiers utilisés ne sont pas compressés côté serveur.
De même, le fichier le plus volumineux est un fichier JS qui n’est pas compressé côté serveur et dont une bonne partie est probablement non-utilisées (ce qui est facilement vérifiable avec l’outil Coverage des DevTools de Chrome).
Quelques images pourraient être davantage être optimisées, notamment en les convertissant au format WebP
L’essentiel du poids du HTML correspond apparemment à des SVG (images vectorielles) intégrées directement à celui-ci. Si cette pratique permet de réduire le nombre de requêtes HTTP, elle risque ici de ralentir considérablement le chargement initial de la page, dans la mesure où le fichier HTML (que l’on récupère en premier) s’en retrouve bien alourdi.
Il s’agit une fois de plus d’un site réalisé avec Drupal.
Ce site apparaît très lourd (plus de 10 Mo pour l’ensemble de la page d’accueil). Là aussi, on retrouve des soucis d’optimisation sur certaines images ainsi que sur les polices (7 fichiers rien que pour la police Roboto). Certains gains pourraient être réalisés via la compression côté serveur.
Plus généralement, il faudrait réduire le nombre de requêtes dont la majeure partie sont liées à des images. Ceci pourrait passer par une plus grande sobriété sur la page d’accueil, qui présente énormément d’éléments, peut-être trop pour que les utilisateurs s’y retrouvent facilement.
Métropoles
Entre 2020 et 2024, on constate l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
On remarque déjà que certains sites n’ont pas pu être systématiquement remesurés.
Pour plusieurs sites, une amélioration notable était constatée entre 2022 puis une dégradation en 2024. Faute d’informations supplémentaires, nous ne pouvons que spéculer sur les causes : peut-être une refonte d’un site suivie d’une dégradation progressive ? Ceci semble souligner dans tous les cas une anomalie dans la démarche d’amélioration continue.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
Les tendances observées pour l’EcoScore se confirment ici. En complément, les sites de la Métropole de Grenoble et celle de Metz bénéficient d’une réduction considérable de leurs émissions de GES entre 2020 et 2024.
Il est intéressant de noter que celui de la métropole de Montpellier s’améliore au fil du temps, même si le résultat pourrait être encore meilleur.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
44,60
2,63
5,46
5,36
110,80
1,33
Moyennes 2022
58,47
1,37
5,72
7,58
95,16
0,89
Moyennes 2024
51,38
1,10
5,53
6,29
86,24
1,06
Evolution des moyennes entre 2020 et 2024
L’évolution des moyennes reflète les constats effectués sur l’EcoScore : une amélioration significative en 2022 puis une nouvelle dégradation en 2024. Seules les requêtes HTTP et l’utilisation du CPU diminuent dans tous les cas, ce qui est une bonne chose.
Pour autant, tout n’est pas parfait. En arrivant sur le site, on découvre une vidéo en lecture automatique ainsi qu’une animation qui tourne en boucle sur le champ de recherche.
Visualisation de l’étape de pause après chargement de la page, Greenspector Studio
Ces deux facteurs ont un fort impact sur le CPU du terminal utilisateur (la fluctuation est liée à la modification cyclique de l’affichage pour la vidéo et l’animation). De plus, ces choix de conception sont regrettables du point de vue de l’accessibilité.
De façon assez classique, les images pourraient être davantage optimisées, de même que les polices (7 fichiers rien que pour la police Raleway).
Les indicateurs du site de la métropole de Saint-Étienne (https://www.saint-etienne-metropole.fr/) se dégradent au fil du temps. Le chargement du site apparaît particulièrement long, en raison notamment de nombreuses images, certaines pesant plusieurs Mo (de façon analogue à ce qu’on avait pu constater en 2022 sur le site de la métropole de Montpellier). L’optimisation (de préférence) automatique de ces images permettrait d’obtenir des gains rapidement et facilement pour pouvoir ensuite aller vers d’autres problématiques (gestion des polices mais surtout sobriété).
Notons qu’il s’agit là aussi d’un site Drupal mais où l’optimisation technique n’a pas été aussi poussée que pour d’autres sites vus précédemment.
Villes
Entre 2020 et 2024, on observe l’évolution suivante :
Évolution de l’EcoScore entre 2020 et 2024
Comme pour les métropoles, on constate ici à plusieurs reprises une amélioration de l’EcoScore en 2022 puis une dégradation en 2024. Il sera intéressant d’effectuer les mesures plus régulièrement pour avoir une meilleure vision globale de leur évolution.
Évolution des émissions de GES (gaz à effet de serre) entre 2020 et 2024
Les tendances observées pour l’EcoScore se confirment ici. On observe d’ailleurs quelques fortes diminutions des émissions de GES, notamment pour les sites des villes de Limoges, Annecy et Tours.
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
Moyennes 2020
40,96
3,12
5,64
6,86
116,92
1,45
Moyennes 2022
57,92
1,27
5,59
6,41
92,13
0,88
Moyennes 2024
50,73
1,07
5,58
4,25
77,12
1,01
Evolution des moyennes entre 2020 et 2024
En définitive, si on compare 2020 et 2024, on constate une amélioration de l’Ecoscore mais aussi des autres indicateurs. Si l’on regarde l’EcoScore et les émissions de GES, le contraste est moins prononcé qu’entre 2020 et 2022. Toutefois, ceci souligne bien une tendance globale à l’amélioration.
Précisions
Sur les villes et métropoles (qui sont les seuls sites à avoir été remesurés en 2022), on constate une amélioration entre 2020 et 2022 puis une dégradation forte entre 2022 et 2024.
Plusieurs explications à cela :
En 2020, les mesures ont été effectuées sur Samsung S7. En 2022, nous avons utilisé un Samsung S9. Le fait que ce soit un téléphone plus récent implique souvent une amélioration des métriques (téléphone plus performant).
Entre 2022 et 2024, nous avons introduit un changement dans la méthodologie de mesure Greenspector pour le web. Jusque-là, l’étape de référence était mesurée sur un onglet vide de Chrome (onglet principalement blanc). Depuis, nous avons opté pour une étape de référence mesurée sur un onglet de Chrome contenant un fond entièrement noir. Ainsi, pour un écran OLED (comme celui du Samsung S9), la différence est significative et la note (en particulier pour les mesures liées à la décharge de batterie) diminue. Nous préparons à ce sujet une mise à jour de notre article sur l’impact de la couleur affichée sur la consommation énergétique paru en 2017 : https://greenspector.com/fr/faut-il-changer-son-fond-decran-pour-consommer-moins-de-batterie/ De plus, il n’est pas exclu que certains sites se soient dégradés entre 2022 et 2024 (ajout de contenus et autres aléas de la maintenance d’un site web).
Analyse rapide
Les émissions de GES liées au site de Limoges (https://www.limoges.fr/) ont grandement diminué, même si l’évolution de l’EcoScore est moins marquée.
Ce site est lui aussi réalisé avec Drupal. Si certaines images pourraient être optimisées davantage, le poids le plus important correspond ici… aux polices de caractères ! Sur plus de 100 requêtes en tout pour afficher le site, une vingtaine correspondent à des polices de caractères. On note ici de nombreux doublons. Des subsets (suppression des caractères non-utilisés) pourraient être créés, notamment dans le cas de FontAwesome.
S’il est intéressant de découper les fichiers de code (notamment CSS) pour pouvoir les gérer plus finement, on compte ici plus de 30 fichiers CSS. Il serait préférable d’en avoir moins (ou en tout cas de ne charger que ceux dont l’utilisateur a réellement besoin).
L’ensemble des résultats obtenus lors des mesures et de la projection environnementale pour 2024 sont présentés dans le tableau ci-dessous :
URL
Catégorie
Ecoscore
CPU (%)
Énergie (mAh)
Données (Mo)
Requêtes HTTP
Impact GES (gCO2)
https://www.bas-rhin.fr/
Département
76
0,48
4,84
0,53
22
0,74
https://www.nicecotedazur.org/
Métropole
71
0,61
5,17
0,64
27
0,79
https://www.education.gouv.fr/
Ministère
69
0,54
4,88
2,27
32
0,82
https://www.bpifrance.fr/
Agence d'état
68
0,72
4,73
1,51
45
0,83
https://www.antai.gouv.fr/
Agence d'état
68
0,49
4,79
1,42
47
0,76
https://www.ecologie.gouv.fr/
Ministère
68
0,55
5,09
2,31
40
0,82
https://www.grenoblealpesmetropole.fr/
Métropole
68
0,56
4,93
0,84
32
0,77
https://www.lillemetropole.fr/
Métropole
67
0,45
4,66
2,6
32
0,82
https://www.grandlyon.com
Département
67
0,59
4,76
2,41
71
0,85
https://www.enseignementsup-recherche.gouv.fr/
Ministère
67
0,55
4,69
2,13
30
0,85
https://www.bretagne.bzh/
Région
66
1,29
5,26
3,12
56
0,94
https://www.laregion.fr/
Région
65
0,74
4,75
1,41
26
0,8
https://www.cohesion-territoires.gouv.fr/
Ministère
65
0,53
5,01
2,32
40
0,84
https://www.gironde.fr/
Département
65
0,66
5,18
3,55
34
0,83
https://www.valdemarne.fr/
Département
65
0,5
4,49
2,01
70
0,83
http://www.bordeaux.fr/
Ville
64
0,52
4,53
0,62
32
0,74
https://www.diplomatie.gouv.fr/fr/
Ministère
64
0,55
5,1
1,02
21
0,81
https://www.metropole-rouen-normandie.fr/
Métropole
64
0,7
4,96
2,35
34
0,83
http://www.cstb.fr/
Agence d'état
64
0,52
4,89
2,64
35
0,78
https://metropole.rennes.fr/
Métropole
62
0,8
4,95
2,03
47
0,85
https://www.grandnancy.eu/accueil/
Métropole
62
0,62
4,71
3,09
64
0,84
https://www.toulouse.fr/
Ville
62
0,73
5,25
1,93
49
0,86
https://www.brest.fr/
Ville
62
0,57
4,86
3,19
32
0,85
https://wwz.ifremer.fr/
Agence d'état
62
1,15
4,55
0,69
34
0,78
https://www.metropolegrandparis.fr/fr
Métropole
61
0,64
4,47
1,96
84
0,84
https://www.ifpenergiesnouvelles.fr/
Agence d'état
61
0,65
4,91
2,32
49
0,85
https://www.iledefrance.fr/
Région
60
0,9
4,82
1,41
40
0,79
https://www.seinemaritime.fr/
Département
59
0,57
5,1
2,6
40
0,85
https://www.brest.fr
Métropole
59
0,6
4,98
3,21
32
0,91
https://anr.fr/
Agence d'état
59
0,47
5,05
1,73
54
0,83
http://www.onisep.fr/
Agence d'état
59
0,82
5,33
3,31
44
0,89
https://www.acoss.fr/
Agence d'état
58
0,66
5,23
5,88
55
0,96
http://nice.fr/
Ville
58
0,82
4,94
8,27
64
0,97
https://www.pole-emploi.fr/accueil/
Agence d'état
57
1,71
7,17
2,97
40
0,74
https://www.toulouse-metropole.fr/
Métropole
57
0,79
5,23
1,94
49
0,91
http://www.lemans.fr/
Ville
57
0,66
4,9
3,88
83
0,97
https://www.lyon.fr/
Ville
57
0,82
5,26
1,87
98
0,94
https://www.normandie.fr/
Région
57
0,62
5,29
4,13
67
0,91
https://www.lehavre.fr/
Ville
57
0,71
4,82
4,24
95
0,94
http://www.outre-mer.gouv.fr/
Ministère
57
0,91
5,05
7,66
35
0,92
https://www.centre-valdeloire.fr/
Région
57
0,6
4,76
1,47
145
0,91
https://www.amiens.fr/
Ville
56
0,91
5,33
2,21
60
0,91
https://www.fonction-publique.gouv.fr/
Ministère
56
1,04
4,99
1,99
54
0,83
https://www.auvergnerhonealpes.fr/
Région
56
0,89
5,21
2,92
43
0,88
https://www.grandest.fr/
Région
56
0,72
5,21
2,42
59
0,92
https://www.ecologie.gouv.fr/portail-mer/
Ministère
55
1
5
0,7
34
0,79
https://www.dijon.fr/
Ville
55
1,39
5,5
1,27
64
0,9
https://www.lille.fr/
Ville
55
1
5,96
4,51
80
1,03
https://www.isere.fr/
Département
55
0,96
5,36
4,01
64
0,97
https://www.reims.fr/
Ville
54
0,82
5,45
1,69
62
0,96
http://www.justice.gouv.fr
Ministère
54
1,06
4,77
1,14
41
0,82
https://www.pasdecalais.fr/
Département
54
1,09
5,32
3,36
51
0,89
https://www.mairie-perpignan.fr
Ville
54
0,88
5,27
10,99
140
1,19
https://www.ineris.fr/fr
Agence d'état
54
0,89
5,11
4,38
39
0,92
https://www.culture.gouv.fr/
Ministère
54
0,82
5,88
3,92
54
1,02
https://herault.fr/
Département
54
0,58
5,16
5,34
67
0,92
https://www.paris.fr/
Ville
54
1,51
6,35
3,35
36
1,01
https://ants.gouv.fr/
Agence d'état
53
0,94
5,12
3,34
38
0,89
https://www.rhone.fr/
Département
53
0,65
5,37
5,13
69
0,95
https://agriculture.gouv.fr/
Ministère
53
0,99
4,59
2,24
49
0,85
https://www.valdoise.fr/
Département
53
0,74
5,12
2,82
65
0,89
https://www.bourgognefranchecomte.fr/
Région
53
0,69
4,94
1,89
136
1,03
https://www.villeurbanne.fr/
Ville
52
0,96
4,98
3,48
46
0,92
https://ansm.sante.fr/
Agence d'état
51
1,97
5,2
2,15
41
0,88
https://www.businessfrance.fr/
Agence d'état
51
0,72
5,19
1,7
73
0,91
https://lenord.fr/
Département
51
0,62
4,61
6,69
100
1,01
https://www.yvelines.fr/
Département
51
0,69
5,32
2,5
96
0,94
https://www.montpellier.fr/
Ville
51
0,65
4,8
3,95
70
0,94
https://www.nouvelle-aquitaine.fr
Région
51
0,86
5,24
3,42
51
0,92
https://www.tours.fr/
Ville
51
0,92
5,57
3,76
48
0,93
https://www.orleans-metropole.fr/
Métropole
49
1,84
5,82
2,92
41
0,99
https://www.saint-etienne-metropole.fr/
Métropole
49
0,86
5,46
38,7
115
1,72
https://www.hautsdefrance.fr/
Région
49
0,86
4,91
3
119
1,01
https://www.haute-garonne.fr/
Département
49
0,91
5,41
4,29
53
0,92
https://www.maregionsud.fr/
Région
48
0,86
5,52
3,56
49
0,94
https://www.metropole-dijon.fr/
Métropole
48
1,36
5,77
1,64
67
0,99
https://www.seine-et-marne.fr
Département
48
0,95
5,88
7,17
99
1,01
https://www.clermontmetropole.eu/accueil/
Métropole
47
0,78
5,46
4,8
79
0,99
http://www.angers.fr/
Ville
47
1,4
5,56
2,38
66
0,98
http://www.aixenprovence.fr/
Ville
47
3,11
7,12
2,01
25
1,11
https://www.marseille.fr/
Ville
47
1,2
5,77
8,02
181
1,2
https://metropole.nantes.fr/
Métropole
47
0,9
5,41
8,99
62
1,07
https://nice.fr/
Ville
47
1,56
5,75
16,95
163
1,31
https://www.economie.gouv.fr/
Ministère
46
1,16
5,06
1,25
159
1,02
https://metropoletpm.fr/
Métropole
46
0,68
5,12
3,89
177
1,08
https://www.onf.fr/
Agence d'état
45
2,64
5,73
2,56
60
0,99
https://www.bordeaux-metropole.fr/
Métropole
44
1,33
5,66
2,12
48
0,9
https://www.saintdenis.re/
Ville
44
0,98
5,68
4,1
59
1,03
https://clermont-ferrand.fr/
Ville
44
1,05
5,65
4,94
71
1,06
https://www.ugap.fr/
Agence d'état
43
1,33
6,51
9,92
96
1,25
https://tours-metropole.fr/
Métropole
43
1,17
5,78
4,87
91
1,07
https://www.inc-conso.fr/
Agence d'état
43
1,1
6,36
19,44
97
1,4
https://toulon.fr/
Ville
43
0,74
5,66
5,65
149
1,12
https://seinesaintdenis.fr/
Département
41
1,3
5,52
6,89
92
1,07
https://www.loire-atlantique.fr
Département
41
1,22
5,66
3,63
77
1,11
https://www.departement13.fr/
Département
41
1,32
6,15
6,82
80
1,13
https://www.metzmetropole.fr/
Métropole
40
2,81
7,49
8,28
135
1,46
https://www.grenoble.fr/
Ville
39
1,34
5,58
4,67
70
1
https://meteofrance.com/
Agence d'état
38
2,04
6,93
5,46
82
1,25
https://www.limoges.fr/fr
Ville
38
1,51
8,67
2,46
93
1,43
https://www.annecy.fr/
Ville
37
1,55
5,71
4,64
104
1,07
https://www.hauts-de-seine.fr/
Département
37
2,02
6,88
11,86
175
1,4
https://www.montpellier3m.fr/
Métropole
37
0,92
5,41
20,48
238
1,57
https://www.essonne.fr/
Département
36
1,82
7,11
47,6
96
2,06
https://www.strasbourg.eu/
Métropole
34
2,24
6,97
3,25
91
1,19
https://www.nimes.fr/
Ville
34
1,11
5,93
12,38
128
1,24
http://www.cea.fr/
Agence d'état
32
2,27
7,86
18,59
99
1,62
https://www.departement06.fr/
Département
30
1,39
7,81
27,84
172
1,99
https://www.ampmetropole.fr/
Métropole
24
2,38
7,76
13,59
266
1,75
Pour les résultats antérieurs, se reporter aux articles précédents, identifiés en introduction de cet article.
Perspectives et conclusion
Il reste encore du chemin à parcourir pour rendre moins impactant les sites mesurés ici. Comme souvent dans ce type d’études, certaines recommandations faciles à implémenter pourraient constituer une bonne première étape. Il peut s’agir d’optimiser les images ou les polices, voire de limiter l’usage de certains composants animés. Dans tous les cas, une démarche d’amélioration continue doit être mise en place, notamment via des outils de mesure permettant de suivre l’évolution dans le temps. Ceci requiert de choisir soigneusement ce qui est mesuré, de quelle façon et à quelle fréquence, en s’appuyant si possible sur un budget environnemental. En complément, un référentiel de bonnes pratiques (le plus souvent construit à partir des référentiels existants) peut être d’un grand secours.
Ceci coïncide avec un grand défi qui se profile pour les structures publiques françaises : mettre en œuvre le RGESN afin d’améliorer l’écoconception de leurs services numériques mais aussi plus généralement d’initier ou de renforcer leur démarche d’écoconception. Alors même que les efforts se multiplient autour de l’amélioration de l’accessibilité au regard du RGAA, les deux chantiers ne doivent pas être dissociés. En effet, l’accessibilité et l’écoconception sont deux domaines (parmi d’autres) du Numérique Responsable qui s’avèrent être à l’usage mutuellement bénéfiques.
Si votre site n’apparaît pas dans ce classement ou si vous vous interrogez sur les résultats obtenus ou sur comment les améliorer, n’hésitez pas à nous contacter.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
Quel est le point commun entre des imprimantes, une voiture connectée et un avion de ligne ?
La mise à disposition de terrains de jeux pour l’ingéniosité des cybercriminels qui exploitent les moindres failles de sécurité pour infiltrer les réseaux ou prendre le contrôle de nos systèmes les plus critiques. À l’image d’un baron de la drogue comme El Chapo qui s’échappe de sa prison de haute sécurité par l’endroit le moins sécurisé, les toilettes, un pirate informatique va toujours essayer de chercher la partie la plus vulnérable pour vous attaquer. Ces attaques pouvant être dramatiques pour la personne ou l’entreprise qui en est victime, il est donc nécessaire d’avoir une réflexion profonde sur ce sujet.
Dans cet article, nous allons mentionner quelques histoires d’attaques informatiques étonnantes. Cela permettra de questionner nos choix d’implémentation de nouvelles fonctionnalités. En effet, ces mésaventures ont toutes une cause commune : l’augmentation de la surface d’attaque.
La multiplication des points d’accès est un facteur de risque
Ces dernières années, nous avons tous vu débarquer dans nos salons des objets communiquant avec l’extérieur. De l’assistant vocal connecté au thermostat intelligent, ces objets rendent des services plus ou moins utiles. Le monde de l’entreprise n’échappe pas à cette règle. Que ce soit dans les visions de l’industrie 4.0 ou tout simplement pour faciliter la communication à distance, ces systèmes connectés prennent une place de plus en plus importante.
Malheureusement, certains appareils posent de grands risques. Alliant un faible niveau de sécurité et une connexion au réseau interne des entreprises, les objets connectés sont une mine d’or pour les individus malveillants. Et ils ne s’en privent pas.
La multiplication de ces objets pose un réel problème de société que nous ne pouvons pas ignorer.
D’un point de vue environnemental, la diffusion de ces systèmes provoque également des impacts qui ne sont pas négligeables. De l’extraction des minerais jusqu’à leur distribution, la production des systèmes informatiques provoque des émissions de CO2 importantes, sans oublier bien sûr les autres impacts environnementaux comme la pollution des sols ou l’érosion de la biodiversité.
Pour toutes ces raisons, l’achat d’un nouvel appareil connecté ne doit pas être pris à la légère. Une question s’impose alors : Est-ce que nous en avons vraiment besoin ?
Comment une fonctionnalité annexe peut se transformer en cheval de Troie ?
Les nouveaux objets connectés ne sont pas les seuls systèmes qui peuvent être attaqués, les logiciels existants peuvent tout aussi bien l’être.
Ce n’est pas non plus qu’une question de moyens. L’aviation, l’une des industries les plus puissantes financièrement et qui a mis des moyens importants dans la sécurité a aussi été victime d’actes criminels.
Dans cet article, nous n’allons pas nous questionner sur l’intérêt de prendre l’avion, mais sur le sujet précis du divertissement à bord de ceux-ci.
Les nombreux films et séries disponibles apportent des avantages indéniables pour les usagers : réduction de l’ennui, occupation des enfants, oubli du stress (et du fait que l’on soit dans un appareil qui brûle des milliers de litres de carburant par heure ) …
Néanmoins, l’écran n’est pas un système totalement isolé du reste du monde. Par exemple, la coupure de la vidéo lors d’une communication du personnel implique nécessairement une communication entre le boitier et au moins une partie du reste de l’appareil.
Et ce lien peut tout à fait servir de support à une attaque.
Cette dernière attaque est intéressante. Elle illustre en effet une philosophie bien connue des développeurs : “Pourquoi le faire ? Parce qu’on peut.”
Des hackers ont profité d’une faille de sécurité dans un service du réseau social phare de Meta. La fonctionnalité en question permettait d’avoir un aperçu de la vision de son profil par un autre utilisateur. Certes, cela a un intérêt pour l’utilisateur, mais sans être indispensable en bon fonctionnement du réseau social. Les conséquences d’une attaque sont à l’inverse extrêmement préjudiciables à la fois pour les utilisateurs, mais aussi pour l’entreprise qui voit ainsi son image entachée.
Lorsque le groupe s’est rendu compte de cette faille, ils ont immédiatement supprimé le service. Une question se pose alors : les utilisateurs ont-ils remarqué la disparition de la fonctionnalité ?
D’un point de vue général, nous pouvons lister quelques inconvénients de la multiplication des possibilités offertes par un service numérique :
dispersion des moyens qui auraient pu être alloués à la sécurisation des services clés de l’application ou du site web
mise en place de fonctionnalités peu utilisées qui bénéficient d’une faible attention de la part de l’équipe de développement et donc d’une plus grande vulnérabilité
nécessité de réduire la compatibilité avec les anciennes versions d’Android ou d’iOS. Et par conséquent de diminuer le nombre d’utilisateurs potentiels
augmentation du poids d’une application dû au développement d’un plus grand nombre de code ou de médias embarqués. Augmentant ainsi l’impact environnemental de l’application
En prenant en compte les risques associés, nous devons toujours nous demander : le confort que cela apporte vaut-il réellement les impacts que l’on provoque ?
Il est également bon de rappeler que la cybersécurité fait partie intégrante du numérique responsable. En tant que concepteur de services numériques, il est par conséquent de notre devoir de protéger les utilisateurs. L’implémentation des mécanismes de sécurité est un élément important, mais une réflexion globale englobant l’ensemble des fonctionnalités est nécessaire.
Les individus malveillants vont essayer de chercher dans tous les recoins de votre système pour s’y introduire. En massifiant le nombre de fonctionnalités, vous leur offrez de nouvelles portes qu’ils se feront un plaisir de forcer.
Finalement, toutes ces attaques nous montrent que la sobriété de nos services numériques n’est pas uniquement un outil utile dans le cadre de la transition écologique du numérique, mais cette réflexion est intéressante également dans la lutte contre la cybercriminalité.
Conclusion
En résumé, la sobriété numérique se révèle être notre alliée inattendue dans le combat quotidien pour la sécurité informatique. Avant de se précipiter sur le nouvel objet à la mode ou la conception d’une fonctionnalité posons-nous les 2 questions suivantes :
Est-ce que c’est utile ?
Le risque vaut-il le bénéfice que cela m’apporte ?
Dans certains cas, la réponse va bien évidemment être positive. La ceinture de sécurité alourdie la voiture, et donc augmente sa consommation d’essence, mais elle diminue fortement le nombre de morts sur les routes. La diminution du confort en valait la chandelle.
Dans un grand nombre de cas, la réponse est au contraire négative. De nos jours, les voitures peuvent atteindre des vitesses dépassant largement les 150km/h. Pourtant, il est interdit de dépasser les 130km/h. Cette mesure, prise en 1974 pour lutter contre le choc pétrolier de 1973, a été le résultat de la mise dans la balance entre les libertés individuelles d’une part et d’autre part l’effort collectif a mener contre les conséquences du choc pétrolier. Le risque n’en valait pas la chandelle.
Cette réflexion centrale de toute décision doit être au cœur des questionnements d’une équipe de développement.
Aujourd’hui, uniquement la partie avantage d’une fonctionnalité est mise en avant. Mais est oublié :
La sécurité des utilisateurs
Le coût financier d’une attaque informatique
La dégradation de l’image de l’entreprise qui subit une attaque informatique
L’impact environnemental de cette fonctionnalité
La perte de compatibilité avec certains utilisateurs
Et bien d’autres encore…
33 ans après l’obligation du port de la ceinture de sécurité à l’arrière, la question entre l’inconfort et la sécurité que cela apporte ne se pose plus dans le monde de l’automobile. Il faut que cela devienne également un réflexe des équipes de conception de services numériques dans le monde de l’informatique.
Après une expérience de développeur d’applications mobiles, Julien Gilbert est devenu ingénieur numérique responsable chez Greenspector. Fervent supporter de football, il s’investit activement dans la promotion de pratiques durables pour garantir un avenir durable à la pratique du sport.
Une démarche d’écoconception de services numériques ne peut réussir qu’en impliquant tous les acteurs du projet sur toutes les étapes du cycle de vie de celui-ci. Parfois, malgré tous les efforts mis en œuvre pour appliquer les principes de l’écoconception lors de la réalisation d’un site web, les impacts environnementaux peuvent augmenter à cause d’éléments externes au périmètre défini. En particulier, il est indispensable d’embarquer celles et ceux qui vont produire du contenu sur le site. Pour cela, tout n’est pas si simple. Certaines bonnes pratiques peuvent être automatisées techniquement tandis que d’autres nécessitent de garder en tête l’ensemble des contenus proposés ainsi que leur pérennité.
Cet article propose des bonnes pratiques visant à faciliter la gestion des contenus dans une optique de réduction des impacts (environnementaux et autres) des contenus proposés.
L’agence Rose Primaire propose des checklists à ce sujet, qu’il s’agisse de publier sur un site web, un réseau social ou une newsletter : https://roseprimaire.com/checklists/
Chaque contenu intégré va générer des requêtes et transferts de données. Il est donc important d’en intégrer le moins possible, tout en veillant à maintenir l’attractivité des publications. Une fois qu’il ne reste que les contenus indispensables, il est nécessaire d’intégrer chacun d’entre eux de façon aussi efficiente que possible (voir plus loin).
Le plus souvent, niveau impact : vidéo > podcast > image animée > image statique > texte
Attention, les images animées de type GIF peuvent avoir une taille très conséquente et poser des problèmes d’accessibilité.
Au-delà de la conception de chaque publication, il est important de garder en tête l’ensemble des publications disponibles. L’objectif ici est de garder du contenu pertinent et à jour. L’intérêt est d’éviter que le contenu ne soit noyé dans la masse, ce qui permet au passage d’améliorer le référencement naturel.
Comment ?
S’appuyer sur des indicateurs concrets : nombre de visites, nombre d’arrivées sur le site via cette page, taux de rebond, etc.
Mettre à jour les publications plus anciennes qui restent intéressantes. Éventuellement en profiter pour changer le format : la vidéo devient un article
Combiner les publications proches par leurs thèmes : des articles informatifs sont agrégés en un article de référence
Supprimer les publications qui ne sont plus vues ou plus pertinentes (contenu obsolète ou relatif à des événements passés)
Pour aller plus loin, il est également envisageable de :
Définir une date d’expiration pour les publications créées (exemples : contenu chaud VS contenu froid, date de dépublication pour du contenu temporaire)
Publier le contenu de façon raisonnée et pertinente, notamment pour sa diffusion sur les réseaux sociaux et dans des newsletters. Ces dernières doivent elles-mêmes faire l’objet d’une démarche d’écoconception et de mise en accessibilité. Ce sujet pourrait à lui seul faire l’objet d’un article
Proposer des libellés explicites pour les liens
Contexte
Lors de la navigation dans des contenus, il est fréquent de rencontrer des liens qui viennent enrichir le contenu en question. Afin d’éviter des mauvaises surprises pour les utilisateurs, les libellés de ces liens doivent être aussi explicites que possible. L’intérêt pour l’expérience utilisateur est évident mais il est également question ici d’éviter à l’utilisateur de charger du contenu qui ne lui est pas utile ou que son terminal ou sa connexion internet ne lui permettent pas d’utiliser dans de bonnes conditions.
Les critères pour cette bonne pratique sont pour la plupart issus des règles OPQUAST (OPen QUality STandards). Il convient ici d’insister à nouveau sur la nécessité de proposer des liens (mais aussi plus généralement des contenus) accessibles.
Le libellé de chaque lien décrit sa fonction ou la nature du contenu vers lequel il pointe. De façon plus spécifique, lorsqu’un téléchargement ou l’ouverture d’un document a lieu, il est nécessaire de le signaler à l’utilisateur et de préciser sa taille, son format, son contenu voire sa langue si elle diffère de celle de la page courante (et, si nécessaire, le logiciel nécessaire à son utilisation)
Conclusion
Nous avons évoqué ici ce qui peut être fait pour s’assurer de proposer du contenu aussi léger que possible. Si certaines actions reposent principalement sur les contributeurs, il est important à terme que les outils de gestion de contenu tels que les CMS (Content Management System) intègrent des outils pour assister les contributeurs. Il peut s’agir par exemple d’automatiser certaines optimisations techniques, de visualiser les impacts environnementaux du contenu produit mais aussi de faciliter la mise en place d’une démarche plus globale de gestion de contenu (expiration des documents, visualisation des consultations, etc.). Certains éditeurs ont déjà pris l’initiative d’entamer une telle démarche, il reste à espérer que celle-ci deviendra systématique.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
En France, depuis plusieurs années, l’accessibilité des services numériques dispose d’un cadre législatif (amorcé dans l’article 47 de la loi 2005-102 du 11 février 2005 et précisé dans le décret n° 2019-768 du 24 juillet 2019). Celui-ci s’articule principalement autour du RGAA (Référentiel Général d’Amélioration de l’Accessibilité). L’écoconception de services numériques, discutée en France depuis plus de 15 ans, a pris un essor considérable ces dernières années. Pour autant, le sujet peine encore à s’imposer voire même à se dessiner de façon précise dans les structures. Le cadre législatif se précise depuis 2021 et devrait permettre ces prochaines années à l’écoconception de services numériques de s’imposer. L’objectif de cet article est justement de tâcher d’y voir un peu plus clair.
Petit rappel d’usage
L’ADEME (Agence de l’Environnement et de la Maîtrise de l’Energie) et l’ARCEP (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse) travaillent conjointement sur les impacts environnementaux du numérique. Leurs travaux couvrent notamment l’estimation de ces impacts à l’échelle de la France ainsi que les bonnes pratiques et perspectives. Ces éléments peuvent notamment être trouvés ici : https://www.arcep.fr/nos-sujets/numerique-et-environnement.html
L’écoconception peut se définir comme une démarche d’intégration de la réduction des impacts environnementaux dès la conception d’un service numérique avec une vision globale sur l’ensemble du cycle de vie, via l’amélioration continue.
Un service numérique est un ensemble de ressources humaines, logicielles et matérielles nécessaires à la mise à disposition d’un service.
En conséquence (mais nous y reviendrons dans un article ultérieur), parler d’un site web écoconçu peut être perçu comme un abus de langage. Dans le cadre d’une démarche d’écoconception, il faudrait s’intéresser à l’ensemble des services numériques du site (ou a minima à un échantillon représentatif), via l’amélioration continue et en couvrant toutes les étapes du cycle de vie du projet. Tout ceci va donc bien plus loin que la simple mesure d’un échantillon de pages sur un site déjà en ligne.
Les lois
Pour la France, on distingue aujourd’hui principalement 2 lois : la loi AGEC (Anti-Gaspillage pour une Économie Circulaire) et la loi REEN (Réduction de l’Empreinte Environnementale du Numérique).
Même si certains éléments nécessitent encore d’être précisés, la loi REEN va plus loin en mentionnant (entre autres) :
La nécessité de former à l’écoconception de services numériques les élèves ingénieurs dans des parcours liés au numérique. Mais aussi une sensibilisation à la sobriété numérique dès le plus jeune âge.
La création d’un observatoire des impacts environnementaux du numérique, via l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Énergie) et l’ARCEP (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse).
La lutte contre les différentes formes d’obsolescence ainsi que des actions en faveur du réemploi et de la réutilisation.
Réduire les impacts des centres de données (notamment via le suivi de l’efficacité de la consommation d’énergie et d’eau) et des réseaux. Le décret est aujourd’hui en cours de publication.
Imposer aux communes et groupements de communes de plus de 50 000 habitants d’établir et mettre en place une stratégie Numérique Responsable d’ici 2025. Cette stratégie doit notamment inclure des éléments relatifs à l’écoconception de services numériques. Des guides ont été publiés pour établir cette stratégie, en particulier celui-ci : https://www.interconnectes.com/wp-content/uploads/2023/06/web-Guide-methodologique_V8.pdf
Tout ceci s’accompagne de la mise en place du HCNE (Haut Comité pour le numérique écoresponsable), de différentes feuilles de route ainsi que d’une stratégie d’accélération numérique écoresponsable. Tout ceci est détaillé sur cette page : https://www.ecologie.gouv.fr/numerique-responsable
Et maintenant ?
Une fois tous ces éléments définis se pose la question de ce qu’il reste à faire.
En 2024, la loi REEN imposera aux sites web publics d’être conçus de façon durable. En 2025, les collectivités de plus de 50 000 habitants devront avoir intégré cette dimension dans leur Stratégie Numérique Responsable.
Greenspector est positionné depuis plusieurs années sur le sujet de l’écoconception de services numériques. Cette évolution du cadre législatif coïncide avec notre implication de plus en plus tôt dans les projets, parfois même dès l’expression du besoin. Ceci nécessite forcément de faire évoluer les pratiques, entre autres par la mise en place d’ateliers d’idéation prenant en compte l’empreinte environnementale d’un service. De plus en plus souvent, le RGESN sert de référence pour piloter la démarche tout au long du projet. Ce référentiel est idéal pour ce type d’accompagnement mais cela permet aussi de réunir des éléments permettant de piloter l’écoconception en tant que démarche d’amélioration continue.
Cette façon de repenser l’accompagnement en écoconception de services numériques permet aussi d’aller vers des leviers plus importants de réduction des impacts et d’impliquer davantage de types de profils sur les projets accompagnés.
Alors que la démarche s’amorce auprès d’institutions publiques, il reste à espérer que les entreprises suivront le même chemin. Certaines ont d’ailleurs déjà entamé les démarches de mise en conformité RGESN. Pas seulement par anticipation d’un éventuel changement de cadre législatif les concernant mais aussi parce que ce référentiel fournit un cadre à la démarche d’écoconception qui était attendu depuis longtemps.
Sur l’ensemble des sujets évoqués ici, la France a pris beaucoup d’avance. Il reste à en faire profiter les autres pays qui voudraient à leur tour s’engager dans une telle démarche. Le W3C (World Wide Web Consortium) a sorti en septembre ses WSG (Web Sustainability Guidelines). Elles sont désormais en consultation publique en vue d’avancer encore plus loin sur le sujet et peut-être à terme établir des standards pour le web. Elles s’accompagnent également de réflexions autour de la meilleure façon d’introduire des leviers directement au niveau des institutions. En Europe, certains se fédèrent autour de structures semblables à l’INR, notamment la Belgique et la Suisse. Il reste à espérer que le RGESN et autres éléments actuellement mis en place en France pourront être adaptés à d’autres pays.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
Il y a encore dix ans, le sujet des impacts environnementaux du numérique était limité à une poignée de spécialistes. Depuis quelques années, le sujet a pris beaucoup d’ampleur, notamment en France mais aussi à l’international. Alors que certains s’inquiètent (à juste titre) de la prépondérance des discours autour du net zero et de la neutralité carbone, cette tendance n’est qu’un symptôme d’une approche biaisée du sujet.
Réduire une crise globale à un problème technique
L’urgence climatique est un sujet essentiel qui a pris énormément d’ampleur ces dernières années. Le domaine du numérique n’est pas épargné et des études et outils ont permis à un grand nombre d’en prendre conscience. Le problème est alarmant mais aussi complexe et c’est pour cela que certains aspects se sont perdus en cours de route au profit d’une sensibilisation plus large.
Dans le cas des services numériques, il est entendu qu’une ACV (Analyse de Cycle de Vie) est un excellent moyen d’estimer les impacts environnementaux mais la démarche peut s’avérer lourde et coûteuse. Définir le périmètre, sélectionner les indicateurs, recueillir et analyser les données. La complexité est d’autant plus difficile à prendre en compte quand on veut des résultats rapidement et de préférence qui soient faciles à communiquer. Alors, pour gagner en efficacité, certains font des choix en ne mesurant qu’une partie de leurs services numériques grâce à des outils faciles à prendre en main. En quelques clics, vous avez votre réponse et pouvez la partager.
C’est aussi pour cela que sont développées des solutions qui viennent analyser du code pour proposer des pistes d’amélioration afin de réduire les impacts environnementaux. Certains commencent même à s’appuyer sur de l’intelligence artificielle pour cela.
C’est encore ce qui pousse certains à optimiser à quel endroit va être exécuté leur code pour aller vers une localisation où l’énergie est moins impactante d’un point de vue environnemental (en ne tenant bien sûr compte que des émissions de gaz à effet de serre). Et ce qui ne pourra pas être évité ou réduit pourra toujours être compensé.
Tout ceci est au final très humain. Face à un problème complexe et urgent, on cherche à simplifier et à adopter ou trouver une solution rapide. Ce n’est pas une mauvaise chose pour autant mais il ne faut pas s’arrêter là. D’autant plus quand certains s’appuient sur des affirmations de “net zero” et de neutralité carbone pour dessiner artificiellement une ligne d’arrivée atteignable via des calculs savants et des investissements alors que le problème est systémique par nature.
Le risque ici est d’optimiser un indicateur tout en en dégradant d’autres que l’on n’avait pas en tête (par exemple : solliciter un data centre présenté comme neutre carbone sans tenir compte de son impact sur les ressources en eau). Ainsi, on se demande de plus en plus si un site sobre est nécessairement moche sans se rendre compte qu’il n’est pas toujours accessible. Ni vraiment sobre, d’ailleurs.
Rappel
Les impacts environnementaux du numérique ne se limitent pas aux émissions de gaz à effet de serre. Comme on le voit dans l’ACV, les indicateurs à prendre en compte sont beaucoup plus nombreux et variés. Petit à petit, nous devons aussi prendre en compte la criticité de certaines ressources minières mais aussi celle de l’eau (comme on a pu le voir récemment avec ChatGPT et les data centres de chez Google).
Les impacts environnementaux des services numériques ne viennent pas que du code. A vrai dire, d’après GreenIT.fr, seuls 20% environ des impacts viendraient du code. Ce qui est d’ailleurs tout à fait logique. Via le code, on va chercher à améliorer l’efficience (faire mieux avec moins). Les vrais leviers de réduction sont plutôt à chercher dans les autres étapes du cycle de vie, notamment la conception, la stratégie et la production de contenu. Ainsi, on pourra aller pour de bon vers la sobriété.
Enfin, les impacts du numérique ne sont pas qu’environnementaux et c’est bien là le cœur du Numérique Responsable. Il faut garder en tête les impacts sur l’individu (via l’accessibilité, la sécurité, la gestion de données personnelles, l’économie de l’attention, l’éthique et l’inclusion). Ainsi, la gestion de l’urgence climatique ne peut se faire qu’avec une approche intersectionnelle.
Comment faire ?
L’approche technique n’est pas forcément mauvaise en soi. C’est une bonne chose d’avoir des solutions efficaces pour améliorer l’efficience des services numériques (pour peu que l’on garde en tête les éventuels effets de bord). Parfois, c’est même un excellent point de départ pour mener de premières actions, amorcer une démarche d’amélioration continue et débroussailler le sujet.
Comme nous avons déjà pu l’évoquer en étudiant les offres des hébergeurs web, la réalité des impacts environnementaux du numérique est plus complexe qu’en apparence. Le problème ne se résoudra pas en un clic et c’est peut-être tant mieux. En effet, c’est l’occasion de repenser le numérique, la façon dont on l’utilise et dont on le conçoit. De ces contraintes naîtra peut-être un numérique plus respectueux de l’environnement mais aussi des individus.
Laurent Devernay Satyagraha est consultant expert chez Greenspector depuis 2021. Il intervient également en tant que formateur, conférencier mais aussi contributeur sur les Web Sustainability Guidelines du W3C, le GR491 de l’INR, les 115 bonnes pratiques de greenit.fr et divers groupes de travail notamment autour du RGESN.
Greenspector may use cookies to improve your experience. We are careful to only collect essential information to better understand your use of our website.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.