Auteur/autrice : Olivier PHILIPPOT

Expert Sobriété Numérique Auteur des livres «Green Patterns», «Green IT - Gérer la consommation d’énergie de vos systèmes informatiques», ... Conférencier (VOXXED Luxembourg, EGG Berlin, ICT4S Stockholm, ...) Fondateur du Green Code Lab, association nationale de l’écoconception des logiciels

Optimiser l’énergie des smartphones pour réduire l’impact du numérique et éviter l’épuisement des ressources naturelles

Reading Time: 6 minutes

Introduction

La durée de vie d’un smartphone est en moyenne de 33 mois à l’échelle mondiale. Sachant qu’un smartphone contient plus de 60 matériaux, dont des terres rares et que son empreinte carbone est située entre 27 et 38 kg eqCO2, le rythme actuel de remplacement des smartphones est trop rapide.

Différentes raisons peuvent expliquer ce rythme de renouvellement. La perte d’autonomie et les problèmes batterie en sont les raisons principales (smartphone : un changement sur trois à cause de la batterie). Augmenter la capacité des batteries est une solution qui semble intéressante mais qui ne résoudrait pas le problème. En effet, les données échangées continuent à augmenter et cela a un impact sur la puissance des smartphones. Les sites web sont toujours aussi lourds, voir de plus en plus lourds… Alors est-ce un problème irrésolvable ? Quel est le lien entre l’autonomie concrète que nous vivons à titre personnel et ce constat sur l’impact du numérique ?  

Méthodologie

Nous sommes partis d’une analyse via le biais de la consommation web. En effet, les mobinautes passent en moyenne 4,2h par jour à naviguer sur le web.

Lors d’une précédente étude sur l’impact des navigateurs web Android, nous avons mesuré la consommation de 7 sites web différents sur plusieurs applications de navigation web et ce depuis un smartphone milieu de gamme, un Samsung Galaxy S7. Cela nous permet de projeter cette consommation sur une consommation mondiale et d’appliquer des hypothèses d’optimisation pour identifier les marges de manœuvre. 

Même si les incertitudes sont élevées (diversité de mobile, diversité d’usage…), cette action nous permet d’identifier les marges de manœuvre pour améliorer le cycle de vie des smartphones. Le choix du Galaxy S7 permet d’avoir un smartphone proche (à 1 an près) de l’âge moyen des smartphones mondiaux (18 mois).

Quelle est la consommation annuelle de la navigation web sur mobile ? 

Voici nos hypothèses de départ : 

La consommation annuelle des smartphones estimée est de 2 774 milliards d’ampères-heures. Pas très concret ? Si l’on considère qu’une batterie moyenne de 3000 mAh peut effectuer 500 cycles de charges/décharges complets avant de commencer à être inutilisable et que1 850 millions de batterie sont utilisées chaque année pour naviguer sur le web. Ce chiffre vous parait exagéré ? Il y a 5,66 milliards de smartphones dans le monde, cela correspondrait à un problème qui toucherait 36% du parc mondial chaque année. Si l’on considère que 39% des utilisateurs vont changer leur smartphone pour des raisons de batterie et qu’uniquement 26% des utilisateurs vont remplacer les batteries en cas d’usure, on obtient le chiffre de 1 200 millions de batteries, ce qui corrobore nos chiffres. Pas incohérent au final, quand on observe les cycles de renouvellement des téléphones et de batterie. 

Est-ce que réduire la consommation des navigateurs aurait un impact ? 

Les navigateurs web sont des moteurs importants dans la consommation du web. Nos mesures montrent des différences importantes de consommation d’énergie entre les navigateurs. Ces différences s’expliquent par des implémentations et des performances hétérogènes. Dans le graphique suivant, la consommation de la navigation sur 7 sites, incluant le lancement du navigateur, l’usage de fonctionnalité comme l’écriture d’URL et la navigation elle-même est visualisée.

Nous partons sur une hypothèse des éditeurs optimisant les navigateurs. En considérant une consommation hypothétique de tous les navigateurs égale à celle du plus sobre (Firefox Focus), on obtient une réduction de la consommation totale annuelle qui permet, avec les mêmes hypothèses sur la durée de vie, d’économiser 400 millions de batteries par an. Sachant qu’il se vend 1 500 millions de smartphones par an, en prenant les mêmes hypothèses que précédemment sur les taux de remplacement et de réparation, cela ferait une économie de 7% du parc de téléphone vendu chaque année.  

Est-ce que réduire la consommation des sites aurait un impact ? 

Il est également possible que les sites web soient beaucoup plus sobres. Nous avons pris l’hypothèse d’une consommation proche de celle de Wikipédia. De notre point de vue, pour avoir audité et mesuré de nombreux sites, c’est possible mais en engageant des actions importantes : optimisation des fonctionnalités, réduction des publicités et du tracking, optimisation technique…    

Voici pour exemple la représentation de la consommation d’énergie du site l’Equipe. On voit que le chargement va consommer jusqu’à 3 fois la consommation de référence. La marge d’optimisation est énorme dans ce cas précis sachant que de nombreux sites arrivent à un facteur inférieur à x2. 

Dans le cas d’une sobriété des sites web, en prenant les mêmes hypothèses et méthodes de calcul que pour la sobriété des navigateurs, on pourrait économiser 294 millions de batteries par an, soit réduire le renouvellement du parc annuellement de 5%

Est-ce que réduire la consommation de l’OS est possible et aurait un impact ? 

La question sur l’impact du matériel et de l’OS se pose souvent. Pour prendre en compte cet impact nous avons plusieurs données à notre disposition. Une donnée importante est la consommation de référence du smartphone. C’est la consommation du matériel et de l’OS. Pour le Galaxy S7, cette consommation est de 50µAh/s.  

En prenant les mêmes hypothèses que celles prises pour calculer la consommation totale (2 774 Milliard Ah), la consommation annuelle attribuée à la part matérielle et OS serait de 1 268 milliards d’ampère-heure soit 45% de la consommation totale.  

Est-ce donc le plateau de verre de l’optimisation ? Non pas vraiment car il existe beaucoup de pistes d’optimisation envisageables : Android lui-même par exemple. Nous avons réalisé une expérimentation qui montre qu’il est possible de réduire de façon importante la consommation des fonctionnalités Android. Les surcouches des constructeurs sont aussi une piste de réduction de la consommation. 

Selon notre expérience, nous estimons qu’une réduction de 5% de la consommation est totalement possible. Ceci permettrait d’économiser 350 millions de batteries soit 6% du parc

Quels gains environnementaux espérer ? 

L’application de la sobriété numérique à différents niveaux permettrait de réduire de plus de la moitié le nombre mondial de batteries usées par an

Même dans l’hypothèse où les utilisateurs ne renouvellent pas systématiquement leurs smartphones pour des raisons de perte d’autonomie ou remplacent uniquement leur batterie usée, on pourrait réduire de 17% le renouvellement annuel de smartphone

Dans le meilleur des cas, si l’on projette que la plupart des utilisateurs remplaceront leur batterie, les gains potentiels seraient de 2 millions de T eqCO2. Mais les gains pourraient être beaucoup plus importants si l’on considère que les pratiques de remplacement ne changent pas assez vite et que les utilisateurs changent les smartphones plutôt que les batteries : 47 millions de TeqCO2

En étant optimiste sur une augmentation des capacités des batteries, une non-augmentation de l’impact des logiciels, et un impact non augmenté des plus grosses batteries, le nombre de batteries utilisées pourrait être divisé par deux, de la même manière l’impact environnemental par deux. Mais est-ce encore suffisant ? Plutôt aller sur une augmentation de la capacité des batteries et une diminution de la consommation d’énergie et alors obtenir un gain de 4 sur l’impact en multipliant la capacité par deux ! 

L’énergie sur smartphone, des petites gouttes mais un impact au final énorme 

Nous avons l’impression que l’énergie est illimitée, il suffit juste de recharger notre smartphone. Néanmoins, même si l’énergie était illimitée et sans impact, les batteries elles, sont des consommables. Plus nous les utilisons, plus nous les usons et plus nous utilisons des ressources non-renouvelables comme des terres rares, sans compter les autres coûts environnementaux, sociaux et géopolitiques. Nous pouvons attendre des évolutions technologiques pour améliorer les capacités et améliorer la remplaçabilité des batteries, cependant les puits d’économies sont gigantesques. Le remplacement des batteries n’est en effet pas la solution miracle car même si on prolonge la durée de vie du smartphone, la batterie est à jeter ou à recycler, et le recyclage du Lithium n’est pas encore assuré (P.57). Gigantesque car nous utilisons nos smartphones de nombreuses heures. Gigantesques car nous sommes des milliards d’utilisateurs.  

L’exercice que nous avons réalisé est totalement prospectif, il faudrait que tous les éditeurs de navigateurs intègrent la sobriété, que tous les sites soient éco-conçus. Cela montre cependant que l’optimisation de l’énergie des applications et des sites web a un sens dans l’empreinte environnementale du numérique. Certains voyant uniquement l’énergie du rechargement négligent cet aspect. Cependant on le voit dans cette projection, les gains environnementaux sont beaucoup plus importants. 

Ce chiffre est important et en même temps faible : 47 Millions de Teq CO2 pour le monde, c’est 6% de l’empreinte française. Cependant, le CO2 n’est pas l’unique métrique à regarder. Autre problématique par exemple non négligeable : la pénurie de Lithium en 2025 mais aussi l’eau.

A tout cela, il faudrait ajouter des problématiques associées aux nouvelles pratiques et nouveaux matériaux : 

… la filière évolue sans cesse, pour répondre à des enjeux tantôt commerciaux, tantôt économiques, tantôt réglementaires. L’exemple de la batterie illustre bien cette tendance. Alors que l’on s’était familiarisé avec les batteries lithium-ion “classiques” qui contiennent principalement du lithium, du carbone, du fluor, du phosphore, du cobalt, du manganèse et de l’aluminium, de nouveaux modèles sont apparus, d’abord les batteries lithium-ion-polymère puis les batteries lithium-métal-polymère. Le cortège métallique possible, déjà conséquent, a donc été considérablement augmenté ; avec le fer, le vanadium, le manganèse, le nickel mais aussi des terres rares (cérium, lanthane, néodyme et praséodyme).

Association SystExt (Systèmes extractifs et Environnements)  https://www.systext.org/node/968 

En prenant en compte les problématiques environnementales, sociales et géopolitiques qu’impliquent les batteries, la division par 2 du nombre de batteries utilisées n’est vraiment pas suffisante ! Cela veut dire que les puits d’optimisations doivent maintenant être activés. Et si l’on veut atteindre des objectifs ambitieux, tous les acteurs, constructeurs, éditeurs d’OS et de navigateurs, acteurs du numérique… ont leur part de travail. Continuer à incanter des réductions magiques issues des technologies, à dire que l’énergie ne doit pas être optimisée, à reporter la faute à d’autres acteurs ou d’autres secteurs, expliquer que se focaliser sur les usages est une erreur… ne fait que décaler le problème. Il est nécessaire de tous se retrousser les manches et de résoudre le problème dès maintenant ! 

 

1 heure de visualisation Netflix équivaut à 100 gEqCO2. Et alors ?

Reading Time: 8 minutes

Netflix, ainsi que d’autres acteurs comme la BBC, a étudié avec l’appui de l’Université de Bristol : l’impact de son service. Les chiffres précis et la méthodologie seront publiés prochainement mais il en ressort qu’une heure de visualisation de Netflix, est équivalent à 100 gEqCO2.

À la sortie de cette communication, plusieurs acteurs du numérique ont repris ce chiffre, mais, à mon avis, pas pour de bonnes raisons. La communication de l’impact de la vidéo par le Shift Project ressort comme un point systématique de débat. En mars 2020, la publication du Shift avait été largement diffusée dans les médias avec une erreur importante d’évaluation. Cette erreur avait été corrigée en Juin 2020 mais le mal était fait.

L’IEA avait dans ce cadre réalisé une analyse contradictoire sur le sujet. Au final, de nombreuses études sur l’impact de la vidéo sont sorties (IEA, le ministère Allemand de l’environnement, nous même avec notre étude sur l’impact de la lecture d’une vidéo Canal+). Il est toujours difficile mais pas impossible de comparer les chiffres (par exemple, la prise en compte ou non de l’étape de fabrication, la représentativité des terminaux, les différentes infrastructures et optimisations entre acteurs…), cependant, si on prend des choses comparables, toutes les études ont des ordres de grandeur proches. En prenant la correction de l’erreur du Shift Project (Ratio 8 issus d’une erreur entre Byte et Bit), les chiffres sont aussi proches.

Que disent-les études ?

Mais au-delà des discussions sur les chiffres, si on examine en détail les études, les conclusions vont dans le même sens :

  • Indépendamment du coût unitaire, il y a une croissance importante des usages et de l’impact global.


Set against all this is the fact that consumption of streaming media is growing rapidly. Netflix subscriptions grew 20% last year to 167m, while electricity consumption rose 84%.

“Les abonnements Netflix ont augmenté de 20% l’an dernier pour atteindre 167 millions, tandis que la consommation d’électricité a augmenté de 84%.” (IEA)

  • L’impact des services numériques est relativement faible par rapport à l’impact d’autres activités. Il est cependant nécessaire de continuer à étudier et surveiller cet impact.

What is indisputable is the need to keep a close eye on the explosive growth of Netflix and other digital technologies and services to ensure society is receiving maximum benefits, while minimising the negative consequences – including on electricity use and carbon emissions.”

“Ce qui est incontestable, c’est la nécessité de surveiller de près la croissance explosive de Netflix et d’autres technologies et services numériques pour s’assurer que la société en profite au maximum, tout en minimisant les conséquences négatives – y compris sur la consommation d’électricité et les émissions de carbone.” (IEA)

  • Les entreprises concernées ont pour but de mieux mesurer leur impact et d’identifier les vrais axes d’optimisation.

“Netflix isn’t the only company using DIMPACT right now, either. The BBC, ITV and Sky are also involved. A spokesperson from ITV says that, like Netflix, the tool will help it to find and target hot spots and reduce emissions. Making such decisions based on accurate data is crucial if digital media companies are to get a grip on their carbon footprints.”

Netflix n’est pas non plus la seule entreprise à utiliser DIMPACT à l’heure actuelle. La BBC, ITV et Sky sont également impliquées. Un porte-parole d’ITV a déclaré que, comme Netflix, l’outil l’aidera à trouver et à cibler les points chauds et à réduire les émissions. Prendre de telles décisions sur la base de données précises est crucial si les entreprises de médias numériques veulent maîtriser leur empreinte carbone.” (Projet DIMPACT)

“Ces travaux nous permettent tout d’abord d’identifier les projets techniques à prioriser pour minimiser le plus fortement le bilan carbone de la consommation vidéo de myCANAL. En parallèle, les enseignements nous orientent sur les messages de sensibilisation à relayer auprès de nos utilisateur·rices, au long de nos prochaines évolutions. Cet engagement de coopération entre nos développements techniques et nos utilisateur·rices est la clé pour une consommation moins impactante pour l’environnement. “ (Témoignage du CDO de Canal+, étude Greenspector de l’impact de la lecture d’une vidéo)

  • L’impact de la vidéo peut être faible mais il est nécessaire de bien le mesurer (point précédent).

The most recent findings now show us that it is possible to stream data without negatively impacting the climate if you do it right and choose the right method for data transmission”.

Les découvertes les plus récentes nous montrent maintenant qu’il est possible de diffuser des données sans impact négatif sur le climat si vous le faites correctement en choisissant la bonne méthode de transmission des données.”

Est-ce que les discussions vont dans le bon sens ?

Les erreurs de certaines études n’ont pas aidé à l’apaisement des discussions. La médiatisation de ces chiffres non plus. Cependant, il ne faut pas être dupe, dire que le numérique a un impact n’est pas forcément bien accepté par tous les acteurs. Cela peut être une gêne pour un domaine qui depuis 30 ans est habitué à un paradigme de développement sans très peu de contrainte et surtout très peu d’intérêt pour les problématiques environnementales internes. Rappelons que la loi de Moore qui dirige beaucoup ce monde numérique est une prophétie-autoréalisatrice et pas une loi scientifique : l’industrie met en place des moyens financiers et techniques pour que la puissance des processeurs augmente régulièrement. Il ne faut pas être dupe car se focaliser sur certaines erreurs permet de ne pas prendre en compte les problématiques. J’ai observé uniquement des citations de l’erreur Shift Project dans l’annonce DIMPACT de Netflix mais aucunement des citations sur le souhait de Netflix de mesurer et réduire son impact. Nous devons accepter les erreurs du passé si nous souhaitons avancer sur ce sujet. L’étude du Shift a le mérite d’avoir mis au-devant de la scène une problématique qui avait du mal à être visible. Et aussi accepter ces propres erreurs, combien de promesses du numérique n’ont pas été (encore) prouvées ? Est-ce que les externalités positives du numérique ont été chiffrées scientifiquement par un nombre suffisant d’étude ? Cette dernière analyse montre que les quelques études existantes (Principalement 2 études Carbon Trust et la GSMA) méritent beaucoup plus de travail pour affirmer le bénéfice énorme annoncé du numérique.

L’étude des affirmations d’impacts positifs du numérique sur le climat permet de conclure que celles-ci ne peuvent pas être utilisées pour informer les décisions politiques ou la recherche. Elles reposent sur des données extrêmement parcellaires et des hypothèses trop optimistes pour extrapoler des estimations globales. De plus, les deux rapports étudiés ne voient pas les évitements dans les mêmes secteurs, voire se contredisent

Il est même dommage de se focaliser sur un aspect de l’impact en écartant la problématique globale. C’est le cas sur la discussion de l’impact du réseau sur la partie énergétique. La méthode de calcul basée sur la métrique kWh/Gb même si partagée par la quasi-totalité des études et des équipes internes des opérateurs, est critiquée par certains. Cette méthode est en effet perfectible mais il faut remettre l’église au milieu du village : l’impact du réseau est dans tous les cas plus faible que la partie Terminal, la partie fabrication du matériel n’est jamais discutée dans ces débats alors que c’est la problématique principale de l’impact du numérique. D’autant plus que l’amélioration énergétique du réseau et des datacenters se base sur un principe contraire à l’impact du matériel : le renouvellement régulier du matériel pour mettre en place de nouvelles technologies plus efficaces.

Google a été critiqué pour la politique de déchet de ses serveurs. Les pratiques ont été améliorées mais on peut se poser des questions sur cette gestion : même si les serveurs sont revendus et le coût environnemental est amorti pour l’acheteur, cela ne change rien dans le cycle trop important de renouvellement

“We’re also working to design out waste, embedding circular economy principles into our server management by reusing materials multiple times.In 2018, 19% of components used for machine upgrades were refurbished inventory. When we can’t find a new use for our equipment, we completely erase any components that stored data and then resell them. In 2018, we resold nearly 3.5 million units into the secondary market for reuse byother organizations.”

“En 2018, nous avons revendu près de 3,5 millions d’unités sur le marché secondaire pour réutilisation par d’autres organisations.” (Google Environmental Report 2019).

Une des premières explications de ces discussions tranchées vient souvent du manque de sensibilisation aux problématiques environnementales du numérique. Mais derrière cela il existe une explication aussi plus sociologique : On reproche des croyances “écologiques” à certaines organisations. Cependant on peut aussi parler de croyance chez certains acteurs du numérique quand on idolâtre sans critique les bénéfices du numérique. Dans ce cas, pas sûr que ces discussions aillent dans le bon sens. “Technophobe” contre “Techno-béa”, les raisonnés ont du mal à prendre leur place au milieu. Plusieurs pistes sont cependant utiles pour avancer sereinement sur l’impact du numérique!

Limitons les comparaisons entre domaine

Les comparaisons de l’impact environnemental du numérique avec d’autres domaines est un piège. Il est nécessaire pour comprendre un impact CO2 abstrait. Nous l’utilisons nous-même pour effectuer cette sensibilisation. Cependant cela amène à des conclusions parfois biaisées.

Voici le chapeau utilisé par les Echos ! “Netflix affirme qu’une heure de streaming sur sa plate-forme génère moins de 100gCO2e. Soit l’équivalent de l’utilisation d’un ventilateur de 75 W pendant 6 heures en Europe, ou d’un climatiseur de 1.000 W fonctionnant pendant 40 minutes.”

Donc une heure de streaming c’est faible ? Oui et non. Car il faut le voir d’un niveau “macro” : les heures de visionnage mondiales explosent. Et Netflix n’est pas le seul service numérique qu’on utilise. Est-ce possible de le comparer à du temps de ventilateur ? Un foyer va pouvoir visualiser 4 flux en même temps pendant plusieurs heures, on n’est pas sur les mêmes importances d’usage avec un ventilateur (Peut-être que si avec le réchauffement climatique…).

Ce qui est important c’est que cette métrique va permettre aux concepteurs de service de suivre leur amélioration. Avec le détail de cet impact, ils vont pouvoir identifier les hotspots. Elle va permettre de se comparer à un concurrent et de se positionner.

Utiliser ces chiffres pour dire que l’impact du numérique est énorme ou est nul ne sert pas à grand-chose dans le débat. Tous les domaines doivent réduire leurs impacts, les challenges à venir sont énormes et ce type de comparaison n’aide pas forcément dans la dynamique d’amélioration. Par contre, plus ce type d’étude sortira, plus on aura une cartographie précise de l’impact du numérique.

Collaborons

Les modèles ACV sont critiqués pour leur manque de fiabilité. Ok, est-ce une raison pour abandonner l’analyse de l’impact du numérique ? Cela en arrangerait bien certains !

Il est surtout nécessaire de les améliorer. Et cela viendra par plus de transparence : des ACV publiques des constructeurs de matériel, des métriques de consommation de l’énergie remontées par les hébergeurs et même plus d’informations sur le renouvellement des parcs… Certains acteurs jouent le jeu, c’est ce que nous avons pu faire par exemple avec Canal+ et cela a permis d’avoir des données fiables sur les parties datacenters, CDN et terminaux. Le manque de transparence est cependant important dans ce secteur quand il s’agit du domaine de l’impact environnemental.

Il est de plus nécessaire d’éviter de toujours rejeter la faute sur les autres secteurs. Dans ces discussions sur l’impact de la vidéo, et plus globalement du numérique, je vois continuellement des arguments “c’est pas moi c’est lui”. Par exemple, c’est sur le matériel qu’il faut agir, sous-entendu le logiciel n’est pas responsable de l’impact. Encore une fois, le contexte environnemental est critique, il n’y a pas de solution miracle et tout le monde doit agir. S’affranchir des actions en pointant du doigt d’autres acteurs n’est pas sérieux. L’idée de la mesure de l’impact du numérique n’est pas de faire du “numérique bashing” mais bien de l’améliorer. Donc il n’y a aucune raison de ne pas prendre en compte ces problématiques, à moins d’aller dans une démarche de lobbying et vouloir aller vers une libéralisation totale du numérique.

Pour avoir vu ce domaine évoluer depuis 10 ans, je peux dire qu’il y a une réelle prise de conscience de certains acteurs. Il est possible de nier encore l’impact du numérique, mais c’est un risque dangereux. Dangereux car il est clair que les objectifs environnementaux vont être de plus en plus contraignants, que cela plaise ou non. Ne pas prendre en main cette problématique, c’est la laisser à d’autres personnes. C’est ce que l’on voit aujourd’hui : certains se plaignent des législations sur le numérique. Mais qu’ont-ils fait ces 10 dernières années alors que cette problématique était connue ? Par crainte que cela ne freine le développement du numérique français par rapport à d’autres pays? Et pourquoi ne pas plutôt voir la sobriété numérique comme un facteur concurrentiel de notre industrie ? On voit d’ailleurs que la sobriété est prise en compte par de nombreux pays (Le projet DIMPACT en est un exemple). La France a une avance avec de nombreux acteurs qui traitent de la sobriété. Il est temps d’agir, de collaborer sur ces sujets, de critiquer les méthodes pour les améliorer, de se mesurer, que chacun agisse sur son domaine d’expertise.

C’est cela qui guide notre stratégie R&D, fournir un outil de mesure précis de la consommation d’énergie et de l’impact des terminaux. Nous travaillons à améliorer la fiabilité des mesures dans ce domaine, pour tenter d’apporter des éléments de réflexions et des métriques. En espérant que les débats soient non manichéens et plus constructifs et que le domaine du numérique prenne pleinement en compte la problématique environnementale

Quelles ressources réduire dans le cadre de bonnes pratiques d’éco-conception logicielle : Traitements côté serveurs ou côté utilisateurs ?

Reading Time: 3 minutes

Une des premières réponses à la question “quelles ressources” est : toutes ! Mais il est nécessaire d’avoir une réponse plus précise car certaines pratiques vont privilégier une économie côté serveurs, d’autres côté mémoire plutôt que CPU. Il y a des optimisations gagnantes pour tous les domaines mais malheureusement, le comportement des systèmes informatiques est plus capricieux !  

La piste directrice est la prolongation de la durée de vie du matériel, que ce soit pour le terminal ou pour les serveurs. On verra que pour des gains environnementaux, la diminution de l’énergie sera elle aussi une piste. 

Dans un précédent article, nous traitions de la nécessité d’optimiser l’énergie dans le cas des appareils mobiles. Aujourd’hui nous tentons de répondre à la question : quelle architecture mettre en place, et en particulier mettre les traitements côté utilisateurs ou côté serveurs ? 

La réponse est : traitement côté serveur à privilégier…

La réponse est plutôt simple : chargeons les serveurs ! En effet, lorsqu’on prend les ACV et les analyses d’impact, on observe un impact beaucoup plus fort côté utilisateurs (Exemple avec notre étude sur l’impact de la lecture d’une vidéo). Les serveurs sont mutualisés et sont optimisés pour absorber une charge. Le gestionnaire pourra de plus gérer des fluctuations de charge avec du Power Capping (absorption de pic de charge en maintenant une consommation d’énergie maîtrisée). La durée de vie des serveurs pourra elle aussi être gérée (du matériel pouvant aller jusqu’à 10 ans de durée de vie). Le respect d’une politique Green IT pourra aussi être mieux suivi et partagé.

Les terminaux quant à eux, malgré des processeurs puissants, n’ont pas ces avantages. Très peu de maîtrise de la durée de vie, pas de gestion de la santé du système, une fragmentation des puissances et donc des comportements…

…mais attention aux ressources et à la scalabilité

S’il est préférable de placer les calculs côté serveurs, cela n’est pas une excuse pour ne pas optimiser l’impact côté serveurs. La scalabilité et la montée en charge est possible mais à surveiller. Car rajouter une instance virtuelle aura un impact sur le futur besoin d’ajout de machine physique et donc viendra alourdir l’impact environnemental.

De plus, limiter la consommation d’énergie sera nécessaire car une forte demande en énergie se transférera en une augmentation de la puissance consommée sur la baie de serveurs et des besoins de refroidissement plus forts.

Et le coût des allers retours des allers-retours réseau dans ce cas ?

La question se pose sur les échanges réseaux si l’on déplace des calculs côté serveurs. Il s’agit actuellement d’un faux problème car les échanges sont trop nombreux. La ressource réseau et serveurs étant vue comme “gratuite” et les architectures allant de plus en plus vers du service / micro service, les traitements côté utilisateurs appellent trop les datacenters. Il faudra plutôt maîtriser le nombre d’échanges réseau, quel que soit le choix d’architecture.

Est-ce le cas actuellement dans les pratiques d’architecture ?

Cela n’a pas été la tendance de ces dernières années. En effet, l’arrivée de plateformes utilisateurs puissantes, i.e. avec des processeurs multicœurs et des connexions réseaux performantes, ont poussé à déplacer beaucoup de traitements côté utilisateur. Les Frameworks de développement, en particulier les Frameworks JavaScript, ont permis cela.

Cependant, la tendance commence à s’inverser. On peut notamment citer le Server-Side Rendering (SSR) avec par exemple next.js ou la génération de blogs statiques avec Hugo. On peut aussi voir les techniques maximisant l’usage des éléments déjà présents sur le terminal de l’utilisateur comme le moteur du navigateur web en utilisant plutôt du CSS que du JS.

Nous tenterons de répondre dans les prochains articles : quelles ressources (CPU, mémoire…) doit-on optimiser en priorité ?

Smartphones utilisateurs : tout savoir sur l’impact environnemental et l’usure des batteries

Reading Time: 4 minutes

Terminaux utilisateurs : l’impact environnemental élevé de la phase de fabrication

Les terminaux utilisateurs sont désormais les plus gros contributeurs à l’impact environnemental du numérique et ce phénomène est amené à se renforcer. Cette tendance s’explique principalement par un équipement de plus en plus important des foyers en smartphones, par une durée de vie réduite de ces équipements et par le fait que ces derniers ont un impact environnemental important. Impact qui est principalement dû à la phase de fabrication du smartphone. La marque Ericson annonce par exemple un impact en usage (i.e. lié à la recharge en énergie de la batterie du smartphone) de 7 kg eqCO2 sur un impact total de 57 kg eqCO2, soit seulement 12% de l’impact total. L’impact total prend en compte les différentes phases du cycle de vie du smartphone : fabrication, distribution, usage, traitement du smartphone en fin de vie.

D’où l’intéret que les constructeurs travaillent sur cette énergie grise en éco-concevant mais aussi en améliorant la possibilité d’augmenter la durée de vie du matériel via la réparabilité mais aussi la durabilité.

Au regard de tous ces constats, il pourrait paraître non-productif du point de vue environnemental de réduire la consommation d’énergie des smartphones. En tout cas, l’approche simpliste serait de mettre cet impact de côté. Mais la réalité est tout autre et les flux électriques qui sont mis en jeu dans la phase d’usage des appareils mobiles sont beaucoup plus complexes que l’on ne pourrait le croire.

Explication du fonctionnement des batteries

Les smartphones actuels sont alimentés par des batteries avec la technologie Lithium-ion. En moyenne les capacités des batteries du marché sont de 3000 mAh. La tendance est à l’augmentation de cette capacité. La batterie peut être considérée comme un consommable, tout comme une cartouche d’imprimante. Elle s’use avec le temps et la capacité initiale que vous possédiez lors de l’achat du smartphone n’est plus totalement disponible. C’est-à-dire que le 100 % indiqué par le téléphone ne correspond plus aux 3000 mAh mais à une capacité moindre. Et cette capacité initiale ne peut alors pas être récupérée.

L’usure de la batterie est principalement créée par les cycles de recharges et décharges complets. Un cycle de recharge/décharge correspond à une batterie vide que l’on rechargerait à 100 %. Je pars de chez moi le matin avec un téléphone chargé à 100 %, la batterie se vide, je recharge mon téléphone le soir à 100 %. Un cycle complet en une journée donc !

Si vous rechargez plus souvent votre téléphone, vous pourrez faire plus de cycles (plusieurs cycles incomplets sont au final équivalents à un cycle complet).

Plus le nombre de cycles croît, plus la capacité restante diminue. Cette usure amène à la fin de vie de la batterie. Les technologies actuelles permettent d’aller environ jusqu’à 500 cycles.

Arrivée en fin de cycle, la capacité de la batterie n’est plus que de 70 % de la capacité initiale. Au-delà de cette perte gênante d’autonomie, la batterie subit certaines anomalies, comme par exemple le passage rapide d’un niveau de batterie de 10 % à 0 %.

À noter que cet effet va être renforcé par l’intensité de la décharge de la batterie : si le téléphone consomme énormément (par exemple lors d’une lecture de vidéo), alors l’usure de la batterie va être plus importante.

Impact sur l’obsolescence

La perte d’autonomie est une cause de renouvellement par les utilisateurs : 39% en 2018. Phénomène renforcé par le fait que les batteries sont de plus en plus non amovibles, ce qui engendre un remplacement complet du smartphone par l’utilisateur. De plus, même si la baisse de l’autonomie n’est pas l’unique critère de remplacement, il s’additionnera aux autres causes pour créer un ensemble de signes indiquant à l’utilisateur qu’il doit changer son smartphone (effet marketing, puissance, nouvelles fonctionnalités…).

On peut donc facilement faire le lien entre les mAh consommées par les applications et le CO2 dû à la fabrication. En réduisant ces mAh, on réduirait largement l’usure de la batterie, la durée de vie des smartphone serait élargie en moyenne et donc le coût CO2 initial serait davantage rentabilisé. Le mAh du smartphone présente un coût beaucoup plus important sur l’énergie grise du smartphone (fabrication) que sur l’impact de l’énergie pour le recharger.

Par exemple pour un smartphone classique, l’impact en tenant compte  de la fabrication est de 14 mgCO2/mAh, contre seulement 0,22 mgCo2/mAh si on ne considère que l’énergie nécessaire à la recharge ! C’est ce facteur d’émissions (14 mgCO2/mAh) que nous utilisons dans nos évaluations d’impact. Nous vous encourageons à l’utiliser également.

Solution technologique

Résoudre cette problématique peut toujours se voir au travers de l’axe technologique : augmentation des capacités, chargement rapide… Si l’on prend le cas du chargement rapide, cela ne va pas changer le problème, bien au contraire, cela va l’aggraver en augmentant potentiellement les cycles. Ce n’est pas en augmentant le réservoir des voitures que l’on va réduire l’impact de l’automobile. Améliorer les technologies batterie est bénéfique, cependant une diminution de la consommation des smartphones serait encore plus bénéfique pour l’environnement et l’utilisateur.

À noter que l’impact CO2 n’est pas le seul indicateur à prendre en compte, en effet la fabrication des batterie est globalement très couteuse en termes environnemental et social. Sans compter les ressources stratégiques avec des impacts géopolitiques comme le cobalt ou le lithium. Prolonger la durée de vie des batterie est critique.

Sobriété numérique partout, sobriété numérique nulle part ? 7 erreurs à éviter !

Reading Time: 4 minutes

Tout le monde parle de sobriété numérique. Des agences web aux politiques, en passant par les ESN, tous communiquent sur le sujet, sur l’explication de l’impact, sur des bonnes pratiques, sur la volonté d’y aller. Mais qu’en est-il réellement ? 

Nous travaillons sur le sujet au sein de Greenspector depuis 10 ans et nous pouvons en toute modestie donner notre avis sur la réelle situation des acteurs et surtout sur les barrières qu’il va falloir passer pour réellement faire de l’éco-conception et de la sobriété. 

Nous avons sensibilisé des développeurs, des étudiants et des dirigeants. Nous avons accompagné des équipes, appliqué des bonnes pratiques. Nous avons mesuré des applications et sites web. Il en fallait de la motivation pour garder le cap. Car le contexte est différent, et nous sommes heureux de voir autant de communication et d’acteurs concernés. Nous pensons cependant que tout n’est pas gagné ! Voici quelques conseils et analyses d’anciens du domaine, regroupés en 7 erreurs à éviter !  

Associer la sobriété numérique uniquement à un métier

Dans de nombreuses actions que nous avons menées, une composante importante était nécessaire : la prise en compte du problème à toutes les étapes. Développeur, designer, Product Owner, décideur. Et Client.. Sans cela, le projet n’ira pas loin. Un projet non financé, des besoins de recherche d’optimisation non voulus par les devs, des améliorations techniques non acceptées par les Product Owners… Au mieux, les améliorations seront faites mais avec peu de gain. 

La solution, engager une démarche partagée. Cela prend un peu plus de temps (et encore !) mais permet au projet d’être compris par tous et accepté. 

Se focaliser uniquement sur les pratiques de codage 

La solution miracle quand on pense sobriété numérique est de se dire que si les développeurs respectent les bonnes pratiques, tout ira bien. On peut en parler, on a débuté un projet de R&D (Code Vert), il y a plus de 8 ans sur cet axe. C’était nécessaire mais pas suffisant. En effet, il faut également travailler sur les fonctionnalités, le design, les contenus, l’infra…  

La mise en place d’un référentiel sera un axe important mais plus dans un premier temps pour initier une démarche de sensibilisation. Il ne faut surtout pas se dire qu’il faudra appliquer 115 bonnes pratiques sur la quasi-totalité d’un site car l’effort sera énorme et les résultats ne seront pas forcément au rendez-vous.

Ne pas utiliser d’outils professionnels

De nombreux outils ont vu le jour pour évaluer les sites web. En effet, il est assez simple dans le web de surveiller certaines métriques techniques comme la taille des données échangées sur le réseau ou la taille du DOM et de modéliser un impact environnemental. C’est très bien pour sensibiliser et pour identifier des sites beaucoup trop lourds. Par contre le système sur lequel fonctionne le logiciel n’est pas si simple et l’impact peut venir de beaucoup plus d’éléments : Un script JS qui consomme, une animation…  

Passer à l’action avec ce type d’outil permet de lancer la démarche mais dire que le logiciel est sobre par ce qu’on a réduit la taille de données et la taille du DOM est à la limite du greenwashing. 

Nous ne disons pas cela parce que nous sommes éditeurs mais parce que nous sommes convaincus qu’il est nécessaire de professionnaliser les actions.

Se battre sur les définitions et les principes

Nous l’avons vécu ! Nous avons été critiqués pour notre approche sur l’énergie. La naissance d’un domaine amène à la mise en place de nouveaux principes, de nouveaux domaines, de nouvelles définitions… C’est normal et cela nécessite souvent de longues discussions. Mais avons-nous réellement le temps de débattre ? Sont-elles nécessaires quand on s’est mis d’accord sur le fait que nous devons tous réduire l’impact de nos activités ? La complexité du numérique et de l’obésiciel est bien là et se ressent à tous les niveaux. Il est temps d’améliorer globalement nos pratiques, toutes les volontés sont bonnes, tous les axes sont à explorer. 

Chercher les gros consommateurs 

Les constats sur l’impact du numérique sont de plus en plus partagés. Cependant les équipes peuvent être amenées à chercher des excuses ou des responsables et ne pas faire des corrections qui leur semblent plus mineures. Pourquoi optimiser sa solution alors que le bitcoin est un gouffre de consommation ? Pourquoi réduire l’impact du front alors que les éditeurs de librairies ou dépendances ne font rien ?  La priorisation est importante mais elle est souvent une mauvaise excuse pour ne pas rechercher les gains sur son domaine.  

TOUTES les solutions sont beaucoup trop lourdes. Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes, … c’est bien. 3 secondes ? Avec les multicœurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…), c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent. Et cela convient à tout le monde (du moins, en apparence : Le monde du logiciel est en train de se détruire, manifeste pour un développement plus durable.)

Débutons maintenant les optimisations en ne cherchant pas des coupables ! 

Penser uniquement évolution technologique 

Nous sommes des techniciens, nous cherchons des solutions techniques pour résoudre nos problèmes. Et donc dans le domaine du numérique, nous recherchons des nouvelles pratiques, des nouveaux frameworks. Et les nouveaux frameworks sont plein de promesses en termes de performance, nous les croyons ! Par contre c’est une course à l’armement qui nous coûte des ressources. Cette évolution est surement nécessaire dans certains cas mais il ne faut pas uniquement se focaliser sur cela. Il faut aussi investir les domaines transversaux : accessibilité, test, sobriété, qualité…  Et sur l’humain, car ce sont les équipes qui trouveront les solutions pour des services numériques sobres.   

Ne pas investir  

Les bonnes volontés et les prises de conscience sont nécessaires, par contre il faut financer le changement. Car la sobriété numérique est un changement. Nos organisations, nos outils ne sont nativement pas faits pour la sobriété. Sinon nous n’aurions actuellement pas ce constat sur l’impact du numérique. Il est donc nécessaire d’investir un minimum pour former les gens, pour s’outiller, pour prévoir du temps pour les équipes sur le domaine. Faire un webinar et une formation ne suffisent pas ! 

Ayons des engagements liés au niveau de l’enjeu et des impacts du numérique sur l’environnement ! 

Quels sont les meilleurs navigateurs web Android à utiliser en 2021 ?

Reading Time: 8 minutes

Le navigateur internet est l’outil primordial sur un appareil mobile. Il est le moteur pour naviguer sur internet. Plus uniquement pour les sites web mais aussi maintenant pour les nouveaux types d’applications basées sur les technologies web (progressive web app, jeux…).

Pour cette nouvelle édition de notre classement, réalisé en 2018 et en 2020, nous avons choisi de comparer 16 applications mobiles : Brave, DuckDuckGo, Chrome, Ecosia, Edge, Firefox, Firefox Focus, Firefox Nightly (anciennement Preview), Kiwi, Mint, Opera, Opera Mini, Qwant, Samsung, Vivaldi et Yandex.

L’objectif de ces mesures est de voir comment les solutions se situent en termes d’impact environnemental (émission Carbone) les unes par rapport aux autres sur des scénarios utilisateurs courants mais aussi de donner des repères sur nos usages des navigateurs.

Pour chacune de ces applications mesurées sur un smartphone Galaxy S7 (Android 8), les scénarios intégrant le lancement du navigateur, la navigation sur 7 sites web différents, les périodes d’inactivité etc. ont été réalisés au travers de notre Greenspector Test Runner, permettant la réalisation de tests automatisés.

En savoir plus sur la méthodologie

Consommation d’énergie tous parcours confondus (en mAh)

La moyenne de consommation d’énergie est de 49 mAh (pour rappel, la moyenne du classement 2020 était de 47mAh, soit +4,2% en 2021).

Voici l’évolution par rapport à l’année dernière.

Classement 2021Classement 2020Évolution
Firefox Focus1109
Vivaldi242
DuckDuckGo352
Firefox Nighly4106
Yandex53-2
Kiwi682
Opéra72-5
Brave87-1
Ecosia91-8
Chrome106-4
Samsung119-2
Firefox12131
Edge1311-2
Qwant1413-1
Opera Mini1514-1
Mint1612-4

Firefox Focus et la meilleure solution en termes de consommation énergétique de notre comparatif. La version évaluée en 2020 était une des premières versions et il semble que les équipes Firefox ont travaillé sur l’optimisation de la consommation d’énergie de leur navigateur depuis. Ecosia perd sa place de leader sur cet indicateur et se retrouve en milieu de classement. Du côté des navigateurs les plus énergivores on retrouve Mint et Opera Mini. À noter que les navigateurs les plus répandus : Edge, Firefox, Chrome et Samsung, sont assez mal classés.

Cette consommation totale d’énergie peut être évaluée et analysée en 2 domaines : la consommation d’énergie de la navigation pure et la consommation d’énergie liée aux fonctionnalités du navigateur. 

Consommation d’énergie de la navigation (en mAh)

La navigation est la consommation uniquement associée à la visualisation de la page (pas de prise en compte du lancement du navigateur, des fonctionnalités…).

La plupart des navigateurs ont une consommation d’énergie sur la navigation “pure” qui est assez proche. Ceci s’explique principalement sur l’usage des moteurs de visualisation. La plupart des navigateurs utilisent le moteur de visualisation Chromium.

Par rapport au classement 2020, il semble que le moteur Firefox se soit amélioré. Qwant, utilisant ce moteur aussi.

Consommation d’énergie des fonctionnalités (en mAh)

Les fonctionnalités intègrent les états du navigateur comme les périodes d’inactivités (idle), le lancement du navigateur, l’écriture des URLs dans la barre de navigation.

En gardant le même classement que pour l’énergie totale, on voit que les fonctionnalités hors navigation (écriture d’URL, inactivité du navigateur…) ont un impact non négligeable sur la consommation totale.

Autonomie (heures)

L’autonomie est le nombre d’heures pendant lesquelles l’utilisateur peut surfer avant que la batterie ne soit complètement déchargée. Le classement ne change pas par rapport à celui de l’énergie, l’autonomie étant directement liée à l’énergie.

On observe que l’autonomie peut doubler de 5h à 10h entre le navigateur le plus consommateur (Mint) et le moins consommateur (Firefox Focus).

Données (Volume de données échangées) (Mo)

Certaines applications ne gèrent pas du tout le cache pour des raisons de protection et de confidentialité des données, utilisent des proxy qui optimisent les données, ont une différence d’implémentation de la gestion du cache. De plus, si un navigateur est performant, la contrepartie est que beaucoup plus de données sont potentiellement chargées en arrière-plan. Dans notre méthodologie, on le constate pour le site New York Times plus volumineux en termes de données.

Voici un exemple des itérations de mesure sur le site Amazon (Amazon.com) qui montre la différence de traitement des données entre différents navigateurs.

Mémoire consommée (RAM) par le processus navigateur (Mo)

La consommation de mémoire est importante à prendre en compte dans un service numérique car même la variation de la consommation de mémoire n’influe pas sur l’impact énergétique, elle reste très importante à intégrer car des effets de surconsommations sur des smartphones déjà bien encombrés en mémoire, ou plus anciens, moins puissants, cela peut créer des instabilités ou des applications qui ne peuvent pas fonctionner simultanément car en concurrence. En terme écologique, cela peut bien sûr procurer un changement de smartphone prématuré côté utilisateur pour un modèle plus puissant pour satisfaire à un bon confort d’usage.

La variation va de 400 Mo à 1,8Go (soit environ la moitié de la RAM du Samsung Galaxy S7).

Observons plus précisément le comportement de la mémoire suite à la séquence :

1. Lancement navigateur
2. Inactivité Navigateur
3. Navigation (Moyenne de la consommation mémoire)
4. Inactivité suite à la navigation
5. Système après fermeture navigateur

Au lancement des navigateurs, on a une médiane d’utilisation de la mémoire de 413Mo. Edge consomme beaucoup plus avec 834Mo.

Si on laisse le navigateur inactif, la consommation mémoire de la plupart des navigateurs reste assez stable. Ce qui est plutôt bon et normal. Par contre, on voit que Edge et Ecosia ont une forte augmentation de la mémoire.

Ensuite, avec la navigation, la mémoire consommée augmente de façon importante. Cela s’explique par la consommation des moteurs de navigation pour analyser et stocker les éléments. La gestion des onglets va aussi jouer. Si le navigateur déleste la mémoire pour les onglets non actifs, alors la consommation sera plus faible.

On peut noter que Firefox Focus, Mint, Duck Duck go, Opéra Mini et Qwant consomment globalement peu de mémoire.

À la fermeture du navigateur, presque tous les onglets ne sont plus en mémoire. Firefox reste cependant avec 1Go ainsi que Chrome et Mint avec 100Mo environ. Probablement un bug mais qui est gênant car des éléments occupent encore la mémoire et des traitements peuvent aussi exister : les traitements sont confirmés sur Firefox et Mint avec le taux de CPU consommé par le processus du navigateur qui reste élevé.

On peut aussi regarder l’impact mémoire de la consultation de Wikipédia (La consommation de base du navigateur est ici soustraite).

On comprend bien la différence de gestion mémoire entre navigateurs et la potentielle entropie sur des sites plus lourds.

Performance

Nous avons mesuré le temps d’écriture de l’URL dans la barre d’adresse.

Cette différence de performance s’explique par plusieurs facteurs : échanges réseau lors de la saisie (auto-complétions), traitement lors de la saisie, recherche en base des adresses connues… Au final, pour l’utilisateur le temps pour avoir accès au site va être plus ou moins long. Exemple sur l’entrée de l’url Wikipédia sur Duck Duck Go: beaucoup d’échanges réseau et de traitements CPU (pic à 22% de CPU).

Contrairement à Edge plus rapide qui a des traitements plus faible en terme de CPU.

Au passage, on pourrait avoir une optimisation de tous les navigateurs en limitant ses traitements (par exemple en regroupant et espaçant les traitements).

Impact environnemental

L’impact environnemental est calculé en fonction des facteurs d’émission Greenspector prenant en compte l’énergie consommée et l’usure de la batterie (impact sur la fabrication). L’impact du réseau et du data center est pris en compte avec l’intensité internet.

Cet impact est ramené à la consultation d’une page.

Firefox Focus par sa faible consommation est premier. Samsung qui a une consommation d’énergie dans la moyenne est à la deuxième place grâce à bonne gestion des données.

Les navigateurs les plus impactants (Esosia, Edge, Mint et Opera Mini) ont une consommation d’énergie élevée et une mauvaise gestion des données.

Navigateurs évalués

Versions mesurées : Brave (1.18.75), Chrome (87.0.4280.101), DuckDuckGo (5.72.1), Ecosia (4.1.3), Edge (45.12.4.5121), Firefox (84.1.2), Firefox Focus (8.11.2), Firefox Nightly 201228), Kiwi (Git201216Gen426127039), Opera (61.2.3076.56749), Opera Mini (52.2.2254.54723), Qwant (3.5.0), Vivaldi (3.5.2115.80), Yandex (20.11.3.88), Mint (3.7.2), Samsung (13.0.2.9).

Scénario

Pour chacune de ses applications, mesurées sur un smartphone S7 (Android 8), les scénarios utilisateurs ont été réalisés au travers de notre Greenspector Test Runner, permettant la réalisation de tests automatisés.

Une fois l’application téléchargée et installée, nous exécutons nos mesures sur les paramètres de base et d’origine de l’application. Aucune modification n’est réalisée (même si certaines options permettent de réduire la consommation d’énergie ou ressources : mode économie de données, thème sombre etc.

Cependant nous vous encourageons à vérifier les paramètres de votre application favorite afin d’en optimiser l’impact. Voici le scénario évalué :

· Évaluation des fonctionnalités
o Lancement du navigateur
o Ajout d’un onglet
o Écriture d’une URL dans la barre de recherche
o Suppression des onglets et nettoyage du cache

· Navigation
o Lancement de 7 sites et attente pendant 30 secondes pour être représentatif d’un parcours utilisateur

· Benchmark navigateur
o Le benchmark Mozilla Kraken permet de tester la performance JavaScript

· Évaluation des périodes d’inactivité du navigateur
o Au lancement (cela permet d’évaluer la page d’accueil du navigateur)
o Après navigation
o Après fermeture du navigateur (pour identifier des problèmes de fermeture)

Pour chaque itération, on réalise les tests suivants :
· Suppression du cache et des onglets (sans mesure)
· Première mesure
· Deuxième mesure pour mesurer le comportement avec cache
· Suppression du cache et des onglets (avec mesure)
· Fermeture système du navigateur (et pas uniquement une fermeture par l’utilisateur pour s’assurer une réelle fermeture du navigateur)

La moyenne de mesure prend donc en compte une navigation avec et sans cache.

Les métriques principales analysées sont les suivantes : performance d’affichage, consommation d’énergie, échange de données. D’autres métriques telles la consommation CPU, la consommation mémoire, des données systèmes… sont mesurées mais ne seront pas affichées dans ce rapport. Contactez Greenspector pour en savoir plus.

Afin d’améliorer la stabilité des mesures, le protocole est totalement automatisé. Nous utilisons un langage abstrait de description de test Greenspector qui nous permet une automatisation poussée de ce protocole. Les configurations des navigateurs sont celles par défaut. Nous n’avons changé aucun paramètre du navigateur ou de son moteur de recherche.

Chaque mesure est la moyenne de 5 mesures homogènes (avec un écart-type faible).=

Évaluation de l’impact

Pour évaluer les impacts des infrastructures (datacenter, réseau) dans les calculs de projection carbone, nous nous sommes appuyés sur notre base de facteur d’émission (issus de notre R&D, comme par exemple l‘Étude d’impact de la lecture d’une vidéo Canal+ – Greenspector) avec en entrée les données réelles mesurées du volume de données échangées. Comme c’est une approche très macroscopique, elle est soumise à une incertitude et pourrait être affinée pour s’adapter à un contexte, à un outil donné. Pour la projection Carbone, nous avons pris l’hypothèse d’une projection 50% via un réseau Wi-Fi et 50% via un réseau mobile.

Pour évaluer les impacts du mobile dans les calculs de projections carbone, nous mesurons sur appareil réel, la consommation d’énergie du scénario utilisateur et afin d’intégrer la quote-part d’impact matériel, nous nous appuyons sur le taux d’usure théorique généré par le scénario utilisateur sur la batterie, première pièce d’usure d’un smartphone. 500 cycles de charges et de décharges complètes occasionnent donc dans notre modèle un changement de smartphone. Cette méthodologie et mode de calcul ont été validés par le cabinet de conseil spécialiste de l’éco-conception Evea.

Dans une démarche de progrès continu, nous sommes vigilants à améliorer sans cesse la cohérence de nos mesures ainsi que notre méthodologie de projections des données en impact CO2. De ce fait, il est difficilement possible de comparer une étude publiée un an plus tôt avec une étude récente.

Étude d’impact de la lecture d’une vidéo Canal+

Reading Time: 16 minutes

Introduction

Cette étude a été réalisée par Greenspector, société spécialisée dans l’impact du numérique, et EVEA, spécialisée dans les analyses de l’impact environnemental de produit. Cette étude se base sur :

  • une méthodologie de calcul initiée dans le cadre du projet CONVINcE sur la consommation d’énergie de la vidéo. Projet ayant impliqué plusieurs acteurs tels que Orange, Sony…
  • des mesures d’énergie et de consommation de ressource réalisée sur l’application myCANAL pour étayer des hypothèses
  • une collecte de données sur l’usage et l’infrastructure de Canal+
  • une étude bibliographique pour identifier et corréler des facteurs d’émission et des consommations d’énergie

Sommaire de l’étude :
Méthodologie
Résultats : consommations, impact global et projection
Axes d’améliorations
Conclusion – points à retenir
Témoignage du Chief Digital Officer de Canal+

Méthodologie

L’unité fonctionnelle de cette étude est définie telle que suit : “Visionner 1h de vidéo, en live ou en replay, sur les interfaces de Canal+”.

Disclaimer : Cette étude a pour but d’estimer, par des ordres de grandeur, l’impact carbone de la lecture d’une vidéo sur les interfaces de Canal+. À date, elle s’appuie sur des sources fiables et robustes et se veut représentative de la réalité de l’infrastructure de Canal+. Cependant, ce n’est pas une Analyse du Cycle de Vie (ACV) complète. Nous nous appuyons sur les méthodologies ACV mais nous n’avons par exemple pas effectué d’analyse de sensibilité qui permettrait d’avoir des écarts min-max sur les valeurs. Cependant, cette étude a permis de formaliser un référentiel d’analyse pour l’empreinte carbone d’un service de vidéo, et il pourra servir pour suivre l’évolution de l’empreinte carbone dans le temps. Et tout ceci n’enlève en rien à la cohérence des données pour son utilisation principale.

Moyen d’accès aux services

Nous avons listé les différentes manières d’accéder aux services vidéo de myCANAL. En fonction de ce type d’accès, il est nécessaire d’avoir plus ou moins de matériel(s). Cet inventaire est nécessaire pour évaluer l’impact de l’accès aux services de vidéo. Nous avons classé les moyens par catégorie :

  • Décodeur Canal+
  • Box TV FAI
  • Box TNT
  • Console de jeux
  • TV IP (TV Android, Samsung TV)
  • Passerelle Multimédia PC/Mac avec Box Internet FAI
  • Smartphone/Tablette avec Box Internet FAI ou accès GSM

Pour les accès Décodeur, Box TV/TNT, Console et Passerelle Multimedia il est nécessaire d’ajouter une TV. Nous avons écarté tous les cas particuliers de visualisation considérés comme anecdotiques par rapport aux autres accès tels que :

  • L’affichage du flux PC sur une TV,
  • La visualisation multiroom

Concernant le lien entre les terminaux et les Box, nous considérerons que la connexion Wifi et la connexion filaire (Ethernet) n’ont pas d’impact sur la consommation des terminaux (PC et TV).

Définition de la visualisation

La qualité de visualisation influence la consommation d’énergie de bout en bout. Nous avons pris les 3 principales définitions suivantes :

  • SD (Simple Définition)
  • HD (Haute Définition)
  • UHD/4K (Ultra Haute Définition)

La définition dépend de 3 facteurs :

  • la disponibilité de programme compatible
  • la compatibilité du matériel en termes de qualité
  • la qualité de la connexion (la qualité des vidéos myCANAL est adaptée en fonction de la vitesse de connexion).

Les mesures exploratoires de Greenspector sur myCanal permettent de montrer l’impact de la consommation d’une vidéo SD, HD ou UHD sur smartphone puis sur PC portable :

Impact de la consommation d’une vidéo sur smartphone et PC portable suivant la qualité
Impact de la consommation d’une vidéo SD, HD ou UHD sur smartphone et PC portable

Des sources bibliographiques ont été utilisées pour les consommations des autres plateformes comme les Consoles (Source 1), les TV (Sources 1 et 2), les Set-Top-Box (Sources 1 et 2). Les consommations des décodeurs Canal+ fournies par Canal+ ont été aussi utilisées.

Selon les différentes configurations d’équipement, nous obtenons des consommations d’énergie qui varient de 1,3 à 108 Wh/h soit un ratio de 1 à 80 :

Consommations d'énergie selon les configurations d'équipements

Technologies

Plusieurs paramètres ont été pris en compte dans les calculs car ils influent sur la consommation :

  • Technologie de streaming : IPTV (Technologie chez les FAI), OTT (Over the Top) et Peer To Peer
  • Signal Linéaire (Live) ou Non linéaire (Replay/VOD)
  • Diffusion (Hertzien, Satellite, IP)

Moyens de connexion au réseau

Pour accéder aux services, l’infrastructure considérée prend en compte : le matériel chez l’utilisateur (Box entre autres), l’accès aux réseaux (GSM, Fibre…) et le cœur du réseau IP.

Nous avons utilisé des méthodes de calculs répandues dans la littérature scientifique et standardisées par l’ETSI. Le principe est de prendre un ratio “énergie/usage type” en Wh/Go. Bien que l’infrastructure du réseau ait une consommation assez fixe et ne dépendant pas de l’usage, ce mode de calcul permet d’affecter un impact global à un usage (ici une heure de vidéo). De plus, il permet d’étudier l’amélioration des réseaux en termes d’efficience. Au-delà de la recherche d’amélioration de l’efficacité énergétique, il permet aussi d’évaluer une pression sur le réseau et de prendre en compte l’amélioration capacitaire de l’infrastructure.

Ainsi expliqué dans le rapport CONVINcE :

“As we are looking for an order of magnitude in energy saving, we suppose that decreasing by 30% the traffic volume in the core network induces a decrease of same ratio in network dimensioning and consequently a decrease of 30% in energy consumption in the core IP network.”

Nous avons étudié la littérature et répertorié des métriques allant de 1,3Wh/Go (chiffre pour la fibre FTTH) à 600Wh/Go. Ces facteurs fluctuent en fonction de la date d’évaluation de l’infrastructure, de la méthode (Top Down ou Bottom Up) et de la technologie. Il est clair cependant que l’efficacité s’améliore au cours des années.

Nous avons pris :

  • 13 Wh/Go pour le cœur réseau (source CONVINcE)
  • 30 à 40 Wh/Go pour le réseau Fixe
  • 150 Wh/Go pour le réseau GSM (source CONVINcE)

Pour la TNT et le satellite, il existe peu de données. Nous nous sommes cependant basés sur une étude BBC pour la TNT.

Content Delivery Network

Les Content Delivery Network (CDN) sont des serveurs utilisés pour limiter la charge des serveurs “Haut de Têtes” (servant les vidéos) et pour fournir un flux au plus proche de l’utilisateur. Canal+ passe par des fournisseurs CDN du marché mais utilise aussi ses propres infrastructures.

La méthodologie pour estimer l’intensité d’énergie par GB est de ramener la consommation estimée du data center au débit en période de pics. Canal+ connaît en effet le nombre de serveurs physiques, leurs types ainsi que leurs débits. Les serveurs étant hébergés chez un hébergeur, certaines hypothèses ont été faites pour estimer la consommation réelle : entre autres, une hypothèse de PUE (Power Usage Effectiveness) de 2, une consommation par serveur de 250W, une charge serveur de 50%. La consommation des routeurs et du stockage sont considérées négligeables par rapport à la consommation des serveurs. (Sources 1, 2 et 3)

L’intensité d’énergie obtenue est de 0,13 Wh/Go, avec une valeur différente entre la VOD et le Live. A noter que cette valeur est calculée en cas de pic (match de foot par exemple). Elle peut être plus faible (usage de la capacité totale du datacenter) ou plus forte (en période de faible affluence).

Faute de données, l’hypothèse d’une même intensité d’énergie (Wh/Go) a été prise pour les CDN extérieurs à Canal+ (50%). Pour comparaison et vérification, les études listées affichent des valeurs de 0,04 à 1 Wh/Go. Ces différences s’expliquent par différents facteurs :

– Amélioration de l’efficience des data centers, les études anciennes amènent donc à des chiffres plus élevés,

– Approches Top-Down qui ont une estimation plus élevée que les études Bottom-Up (comme la présente estimation sur les CDN).

Serveurs applicatifs AWS Hors vidéo : l’utilisation Mycanal (présentation du catalogue, authentification…) et le visionnage des vidéos impliquent la sollicitation de services hébergés sur des serveurs (gestion des droits, etc). Les API utilisées sont hébergées sur des instances AWS.

Canal+ loue des instances AWS et connaît le nombre de VMs. Une partie de ces VMs est purement dédiée à fournir les services annexes à la vidéo.

Il est difficile de connaître la consommation d’énergie des instances AWS car aucune communication ou information n’est fournie par Amazon. À dire d’expert, nous avons pris une valeur de 20W (en prenant en compte un PUE de 2) (Source : Interview des experts sur la virtualisation de la société Easyvirt).

Nous avons pris l’hypothèse d’une répartition uniforme de la consommation par rapport au nombre d’heures visualisées et nous obtenons une valeur de 0,14 Wh/h.

Serveurs d’encodage Vidéo

Les serveurs “Tête de réseau” permettent de mettre en forme les vidéos, de les “paquetiser” au format de l’utilisateur… Pour l’OTT, jusqu’à 150 paquets peuvent être disponibles pour une même vidéo. Voici le workflow pour l’OTT.

Les parties les plus consommatrices sont l’encodage et le décodage vidéo. Le workflow se répartit sur des serveurs spécifiques (pour l’encodage) et des serveurs classiques (pour la mise en forme et le packaging).

Nous avons pris les chiffres issus du projet CONVINcE (considérant des serveurs Harmony identiques à ceux utilisés par Canal+) pour estimer l’énergie, ainsi que les données serveurs de Canal+ :

  • Pour l’IPTV : 0,09 Wh pour une heure de vidéo
  • Pour l’OTT: 0,30 Wh pour une heure de vidéo

Cette différence s’explique par le fait que l’OTT est encodé en plusieurs formats contrairement à l’IPTV qui est encodé en un format haute définition.

Facteurs d’émission CO²

Pour l’énergie nous avons utilisé les valeurs fournies par la base Open Data Réseaux Energies (Travail des distributeurs tels RTE ainsi que l’ADEME). Nous avons utilisé l‘usage intermittent qui correspond davantage à l‘usage vidéo en termes de période (le soir) soit 60g CO2eq/kWh. Une partie d’émissions pour le reste du monde a été ajoutée en prenant en compte le fait que certains utilisateurs sont hors de France.

Pour les facteurs d’émission de la fabrication des terminaux et des serveurs, nous avons utilisé les facteurs fournis par Shift Project / IEA.

Ces facteurs ont été ramenés à l’heure de visualisation en prenant en compte des durées de vie associées à chaque matériel.

Note : Concernant les impacts de la TNT et du satellite, il manque des données sur l’infrastructure et les facteurs d’émission. Nous avons intégré cependant cette partie pour comprendre les ordres de grandeur des impacts. Certaines analyses ont été réalisées uniquement sur la partie IP dans certains cas (pour comparaison avec les autres études par exemple).

De la même manière, l’impact de la phase de fabrication du data center en dehors des serveurs et de l’infrastructure réseau n’a pas été prise en compte car considérée comme mutualisée et faible compte tenu de la durée de vie des bâtiments.

Résultats – projection globale

L’alimentation en énergie renouvelable des infrastructures AWS et des CDN Canal+ hébergées par Interxion n’a pas été prise en compte.

En une heure, en moyenne, voici les flux qui transitent sur le réseau :

500 000 heures de vidéo
900 To de données
3,6 Go/h de débit moyen

Le nombre d’heures de visualisation des abonnés Canal+ a été réparti en fonction des paramètres listés précédemment.

Les données unitaires obtenues précédemment sont alors projetées sur ces usages pour avoir la consommation globale. En prenant ces résultats, nous pouvons obtenir des intensités d’usage de chaque partie (Terminal, Réseau, Serveur) pour vérifier la cohérence de la consommation globale.

Analyse des intensités

Les intensités d’usage obtenues peuvent être comparées aux études Shift Project et IEA. Cette intensité est calculée en prenant la répartition des devices, l’usage de Canal+ et en ne gardant que la partie transfert IP (sans Satellite ni TNT).

Il est clair (et partagé par l’IEA) que l’étude du Shift Project surestime la consommation du réseau. Pour les serveurs, nous avons une valeur assez faible mais sommes assez confiants compte tenu du fait qu’elle se base sur les données d’une infrastructure connue (avec l’incertitude issue des serveurs Amazon et des CDN tiers). L’estimation de la partie terminale du Shift Project nous semble avoir été sous-estimée (partagé par IEA). Il semble que l’IEA ait aussi sous-estimé de nombreux paramètres et semble ne pas avoir été pris en compte l’influence de la définition sur la consommation du terminal, certains éléments comme les box et la consommation des nouvelles TV plus consommatrices. L’étude CONVINcE et l’analyse Sauber/Koomey permettent aussi de valider la cohérence de notre étude.

Impact de la lecture d’une heure de vidéo

Sur l’ensemble du parc Canal+, la moyenne de consommation de bout en bout est de 214 Wh par heure de vidéo. Pour comparaison, l’étude IEA annonce une consommation entre 120 et 240Wh par heure. La répartition est la suivante :

L’impact en équivalent CO2 moyen par type d’accès est le suivant (avec les hypothèses précisées dans le paragraphe Facteurs d’émission CO2 où la fabrication des infrastructures Satellite, TNT, réseau et d’hébergement des serveurs n’a pas été prise en compte)

En prenant le type de connexion :

L‘impact va de 20 à 66g EqCO2, il dépend de plusieurs paramètres :

  • la consommation plus ou moins importante en énergie du device (par exemple Smartphone vs TV),
  • l’énergie grise et la durée de vie du matériel,
  • le moyen d’accès au réseau (par exemple un accès GSM est plus impactant qu’un accès filaire),
  • la qualité de visionnage qui va influer surtout sur la part du réseau (fonction d’un coût au Wh/Go),
  • le nombre de matériels pour accéder au service.

En prenant les usages réels (voir fin du document), on arrive à une moyenne de 28g CO2eq. Si l’on prend uniquement la partie IP, nous arrivons à une valeur moyenne de 37g CO2eq.

Pour comparaison, l’étude IEA (2020) annonce 8g CO2eq pour la France (sur la phase d’usage uniquement). Une autre étude pour les US (2014) annonce 360g CO2eq sur la phase d’usage (et 420g CO2eq avec la fabrication). Si l’on prend un mix énergétique US, nous obtenons 202g ce qui nous rapproche de cette étude. La valeur plus faible peut s’expliquer par les différences d’hypothèses, en particulier sur l’intensité énergétique du réseau. Par exemple, si on prend pour notre étude une TV avec réception 4K, IEA annonce 20g CO2eq alors que nous estimons plutôt 14g (37g avec la phase de fabrication).

Si on regarde le ratio usage/fabrication, dans certains cas, l’usage a plus d’impact (UHD en particulier), alors que dans d’autres c’est la fabrication (TV IP ou PC en HD par exemple).

Sur cette même étude, l’estimation de l’achat d’un DVD est de 400g EqCO2, ce qui amène donc à l’impact d’un visionnage d’une vidéo de 2 heures. 5 fois moindre que celle de l’achat d’un DVD en France et équivalent aux US.

Consommation et impact global

Le résultat de la consommation totale d’énergie du visionnage des vidéos Canal+ par IP est de 900 GWh par an avec un impact en gaz à effet de serre de 159000 tonnes CO2eq.

Pour comparaison, la consommation annuelle française est de 473 TWh par an (Source RTE) et l’empreinte carbone 2017 de la France (émissions nationales + imports) de 749 Mt eq CO2 (source : Haut Conseil pour le Climat – rapport 2019). La consommation du parc Canal+ par IP est donc de 0,18% de la consommation d’énergie et 0,016% de l’empreinte carbone française.

La répartition de bout en bout est la suivante :

Le plus gros de la consommation est chez l’utilisateur (terminal et une partie de l’accès réseau). En effet, il est nécessaire d’avoir du matériel (TV, Box, Smartphone…) qui n’est pas mutualisé comme les serveurs.

Pour validation de la cohérence de cette projection, nous avons pris la consommation des CDN propres à CANAL ainsi que des fournisseurs. Nous avons une consommation des CDN Canal+ de 2,6 GWh (et estimée à 7GWh pour les fournisseurs) hors head-end vidéo qui ne sont pas chez Interxion. Nous obtenons 12 GWh avec la projection, ce qui valide le modèle.

Si on regarde la répartition de l’impact en gaz à effet de serre, nous avons la répartition suivante :

répartition de l’impact en gaz à effet de serre

Une grosse partie de l’impact provient de la fabrication des terminaux utilisateurs. Sur la partie réseau, la fabrication des Box (FAI, Satellite…) a, elle aussi, un impact non négligeable.

Axes d’améliorations pour limiter l’impact des services

Stratégie générale

Nous l’avons vu dans la partie réseau, l’efficience s’améliore. Il en est de même pour les terminaux. Mais d’autre part, la 4K va se généraliser, les réseaux vont continuer d’augmenter leur capacité et donc augmenter l’impact global de la consommation. En prenant une des hypothèses d’amélioration de 30% de l’efficience du réseau (Selon les tendances énoncées dans les études listées dans la partie  Réseaux de ce rapport) et d’une augmentation du débit moyen de 20% sur 3 ans ainsi que de 20% des heures visionnées, ainsi qu’un transfert de 75% des heures visionnées de toutes les interfaces vers celle de l’OTT, nous estimons une augmentation de l’énergie consommée de 39% et de l’impact des gaz à effet de serre de 23%. Cette projection simpliste permet de s’approcher d’une consommation plus réaliste dans 3 ans.

Pour compenser cette augmentation, et optimiser l’impact de la lecture vidéo, nous avons examiné l’impact des chantiers suivants menés par Canal+ :

  1. Passage d’un encodage H264 à HEVC
  2. Passage au multicast pour le live
  3. Passer l’encodage audio AAC en AC4
  4. Renforcer le downsizing du bitrate
  5. Améliorer l’interface et la couche logicielle
  6. Aider l’utilisateur sur son impact numérique

Ces chantiers ne sont pas exhaustifs. D’autres axes de progression possibles ont été identifiés qui pourront être lancés ultérieurement par Canal+.

Les mesures, estimations et modélisations qui nous ont permis d’obtenir l’impact global ont été utilisées pour chiffrer les gains estimés.

Note sur l’optimisation des serveurs vidéo :

La consommation d’énergie des serveurs vidéo est très faible, leur impact aussi, le matériel ayant une durée de vie élevée (10 ans). Plusieurs optimisations sont en cours d’études (passage en vidéo Just-in-Time entre autres). Cependant ces optimisations n’apportent que très peu de gain de bout en bout. Elles sont cependant nécessaires pour optimiser la gestion et réduire la taille de stockage (impact non pris en compte dans cette étude car faible). Des optimisations comme le passage en HEVC ont en effet un impact plus fort (ceci est confirmé par l’étude CONVINcE).

“The “Just In Time Transcoding” approach will allow to reduce the number of video representations stored in the CDN and thus its power consumption. This is an end-to-end approach to be compared to the global abovementioned one consisting in reducing the bandwidth of the network by using a most efficient encoding technology (HEVC/AVC).

Sur les CDN de la même manière, même si l’impact est faible, certaines actions comme l’augmentation du taux d’usage des infrastructures Canal+ (via un transfert des flux des CDN fournisseurs vers les CDN propres) va permettre d’améliorer l’efficience.

Passage d’un encodage H264 à HEVC

Le codec vidéo HEVC est environ 20% plus efficace que le H264, et de très nombreux équipements sont maintenant compatibles. Pour une projection à 3 ans des consommations, nous avons pris une augmentation de la part de marché des devices (Box, Smartphone…) compatibles HEVC.

Pour les utilisateurs qui sont sur le 1080p 5Mbits à date (34% des utilisateurs actuellement) comme pour les utilisateurs bridés à 720p pour raison technique (par exemple une limitation du réseau), une baisse de 20% de la consommation est attendue. Pour les autres utilisateurs compatibles 1080p, il n’y a pas de baisse de consommation, mais une augmentation de qualité avec une accroche de qualité supérieure.

Un nouveau format encore plus efficace commence à apparaitre (AV1), faisant gagner 20% supplémentaire. Cependant, de très rares équipements sont compatibles : la transition est largement prématurée, on ne gagnerait quasiment rien à date car le parc est quasi nul.

Passage au multicast pour le live

La diffusion en adaptative streaming hybride multicast/unicast pour l’OTT permettra de réduire très fortement l’utilisation de bande passante, et donc la consommation électrique.

Utilisable uniquement pour le live, elle permet de s’assurer qu’un unique stream est envoyé pour l’ensemble des clients jusqu’au point de livraison final. Ce chantier sera accompagné d’autres chantiers annexes comme le passage en packaging CMAF. Le format de packaging audio/vidéo CMAF permet d’avoir exactement les mêmes fichiers vidéo pour l’ensemble des plateformes.

Passer l’encodage audio AAC en AC4

Actuellement nous utilisons principalement de l’audio AAC, de 96kbits à 128kbits.

Le EAC3+ est à date largement compatible, et améliore la qualité audio à débit équivalent, tout en permettant le 5.1. Le passage en EAC3+ serait à débit fixe, sans espérer économiser de la bande passante (alors que 20% plus efficace que EAC3+).

En revanche le nouveau format AC4 est 50% plus efficace que le EAC3+, et permettrait de diviser par 2 le débit audio. Même si la part de vidéo est plus importante, les gains au niveau global ne sont pas négligeables.

Renforcer le downsizing du bitrate

À date, hormis en Afrique, ou en réseau cellulaire (pour ne pas vider l’abonnement du client), la qualité de la vidéo est adaptée. Sur PC, l’adaptation de la qualité est possible mais l’accès n’est pas forcément simple.

Rendre plus accessible la possibilité de réduire la taille par différents moyens (amélioration de l’interface, communication…) permettrait de rediriger une partie des utilisateurs vers une qualité moindre mais suffisante.

Compte tenu de l’augmentation des qualités vidéo et de celle de la performance des réseaux, le caping de la qualité par les utilisateurs des services Canal+ devrait représenter dans 3 ans un gain de 20% du débit moyen par rapport à celui qui est généré par un usage déplafonné.

Dans cet axe, plusieurs éléments n’ont pas été mis dans la projection de gain mais sont possibles pour aider l’utilisateur dans son impact. Par exemple les mesures Greenspector sur mobile montrent qu’il est préférable (dans des conditions favorables comme le wifi) d’utiliser le téléchargement plutôt que le streaming. En effet, voici la comparaison pour une vidéo de 45mn (avec 5mn de téléchargement) :

Consommation d'énergie d'un streaming vidéo vs d'un téléchargement et lecture vidéo

Ceci s’explique en partie par le fait que lors de la visualisation de la vidéo téléchargée, la cellule radio n’est pas sollicitée alors qu’elle l’est beaucoup plus lors du streaming.

Améliorer l’interface et la couche logicielle

Une partie de l’impact de la visualisation d’une heure de vidéo provient de l’interface. En effet, visualiser le catalogue, gérer les abonnements (via des API), traiter les playlists… sont des fonctions nécessaires. Les mesures Greenspector ont montrées que cela pouvait représenter 10% de la consommation des terminaux :

Améliorer l’interface sur toutes les plateformes (smartphone, PC…) permettrait donc d’obtenir des gains non négligeables. Il permettrait aussi au-delà de la réduction de l’impact de limiter l’exclusion de certaines personnes ainsi que l’obsolescence des plateformes.

Parmi les actions identifiées :

  • Passage en dark mode
  • Réduire l’impact globalement de la couche logicielle
  • Améliorer l’UX
  • Limiter l’intégration de librairies tierces

Aider l’utilisateur sur son impact numérique

Une grosse part de l’impact de la lecture de la vidéo n’est pas liée directement à la lecture de la vidéo. Canal+, par son auditoire large, peut agir en sensibilisant les utilisateurs à l’impact du numérique. Si une part des utilisateurs prend en compte ces actions, l’impact peut être réduit. Parmi ces actions :

  • Prolongation de la durée de vie du matériel de l’utilisateur,
  • Usage Ethernet plutôt que Wifi, plutôt que 4G,
  • Extinction du matériel hors usage.

Résultats

Voici la projection des différents gains sur l’énergie :

Les améliorations compensent l’augmentation de la consommation d’énergie et permettent même un gain de 14% par rapport à la situation actuelle.

Pour l’impact en gaz à effet de serre, nous obtenons un gain de 8%.

Pour réduire de 30% l’impact Carbone des activités de streaming pour Canal+, les pistes sont nombreuses, ainsi les actions mises en place permettront de faire un gain de 26% sur l’empreinte environnementale des services et en particulier -31% pour la consommation en OTT seule.

Conclusion – à retenir

Cette étude possède des incertitudes sur l’usage futur, sur les facteurs d’émissions de chaque élément ainsi que sur les gains potentiels. Cependant l’objectif est de challenger les choix, ou même d’en écarter (certaines actions non listées dans ce document ont par exemple été déjà écartées), s’ils n’avaient pas de gain. Une des premières actions est de pouvoir se mesurer pour s’améliorer. C’est le but de cette phase. Maintenant vient celle de l’amélioration.

L’intérêt environnemental des chantiers identifiés par Canal+ a été confirmé. Leur mise en œuvre permettra de compenser les effets de la croissance des usages, voire même davantage, dans les années qui viennent.

Les conclusions de cette évaluation évolueront avec de nombreux paramètres technologiques mais en synthèse :

  • Travailler sur les formats de compression vidéo et audio dans le respect de la prise en compte de nouveaux formats optimisés par les constructeurs.
  • Optimiser la consommation des fonctionnalités utilisateur pour accéder aux contenus.
  • Impliquer / orienter les utilisateurs dans les choix en fonction du contexte d’usage (streaming, type de réseau, format d’écran du device, …) et les amener à prolonger la durée de vie du matériel pour réduire l’impact.
  • Mettre en œuvre la diffusion en adaptative streaming hybride multicast/unicast pour l’OTT pour réduire très fortement l’utilisation de bande passante et de consommation d’énergie.
  • Poursuivre les mesures de bout-en-bout pour éviter des décisions futures qui déplacent l’impact sans le réduire.

Pierre-Emmanuel Ferrand, Chief Digital Officer chez CANAL+

Témoignage

– Comment cette démarche d’évaluation et d’amélioration s’inscrit-elle dans la stratégie du Groupe ?
CANAL+ est ancré dans son époque. Nous avons décidé de nous engager davantage sur un enjeu majeur de notre époque, cher à nos abonné·es et utilisateur·rices de myCANAL : la protection de notre environnement.CANAL+ a très tôt été précurseur dans des démarches écoresponsables.Au niveau des décodeurs tout d’abord. En plus du modèle locatif des décodeurs très vertueux du point de vue de l’économie circulaire, Canal+ a organisé dès 1988 la récupération des anciens décodeurs afin d’assurer leur remise en service ou leur recyclage.Par ailleurs, en tant qu’éditeur, nous avons réalisé des productions éco-responsables dont des séries qui ont été exemplaires sur ce sujet, Baron Noir, L’Effondrement et plus récemment OVNI(S).

– Quels principaux enseignements/apports tire-t-on de ces travaux (sur la conception des services) ?
Ces travaux nous permettent tout d’abord d’identifier les projets techniques à prioriser pour minimiser le plus fortement le bilan carbone de la consommation vidéo de myCANAL. En parallèle, les enseignements nous orientent sur les messages de sensibilisation à relayer auprès de nos utilisateur·rices, au long de nos prochaines évolutions. Cet engagement de coopération entre nos développements techniques et nos utilisateur·rices est la clé pour une consommation moins impactante pour l’environnement.

– Quel rôle tiennent les utilisateurs et utilisatrices ?
La protection de l’environnement est pour elles et eux une priorité. Leur rôle est central dans notre approche. Notre enjeu est de leur proposer une plateforme offrant les meilleurs contenus et la meilleure qualité vidéo, adaptée à leur matériel et leurs capacités de réception afin de réduire les effets sur l’environnement. En les sensibilisant et les accompagnant dans les gestes responsables, ils pourront eux aussi s’engager, comme ils le font dans d’autres domaines pour une société plus éco-responsable.

Intégrer un service tiers : est-ce dangereux pour la vie privée de vos visiteurs, quel impact pour l’environnement ? Le cas Youtube

Reading Time: 5 minutes

L’intégration de service tiers permet d’ajouter rapidement une fonctionnalité sur un site comme une vidéo ou l’intégration d’un réseau social (voir le cas de l’intégration Twitter). Les fournisseurs de ces outils ont travaillé pour que l’intégration technique soit simple et rapide. Et la technique est au rendez-vous. Mais à quel prix ?


Consommation d’énergie du service tiers Youtube

Nous observons sur nos mesures une augmentation de ce type de service tiers et des surconsommations anormales. C’est le cas de nombreux sites voire même de sites gouvernementaux.  

L’intégration de YouTube est un bon cas d’étude pour expliciter cet effet. En seulement quelques lignes, il est possible d’afficher une vidéo sur n’importe quel site : 

<iframe width=”560″ height=”315″ src=”https://www.youtube.com/embed/WoQHxxxxxxx-E?rel=0″ frameborder=”0″ allow=”autoplay; encrypted-media” allowfullscreen></iframe>

Mais quel est le résultat en termes d’impact chez l’utilisateur ? Voici le résultat que nous obtenons en termes de consommation d’énergie sur un smartphone Nexus 6 :

Consommation d'énergie du services tiers Youtube

Référence : Vitesse de décharge en uAh/s du téléphone (OS, Navigateur…)
Loading : Vitesse des 20ères secondes de chargement
Idle Foreground : Vitesse du site inactive en premier plan
Scroll : Vitesse lors que l’utilisateur scroll / défile en bas de page
Idle Background : vitesse de décharge quand le navigateur (et donc le site) est en tâche de fond

Il s’agit d’un site gouvernemental. Les vitesses de décharge dépassent nos seuils pour beaucoup d’étapes. Pour le chargement, la vitesse est plus de 2 fois celle de référence. Pour l’idle foreground ou phase d’inactivité en premier-plan, la consommation devrait être identique à celle de référence. Cette consommation est anormale pour un site qui semble assez léger.

Process CPU du services tiers Youtube

On voit que le process CPU de Chrome monte à 10% toutes les secondes. Cela explique la surconsommation d’énergie. En profilant les appels JavaScript dans les outils de développement, nous observons des traitements issus de base.js qui sont issus du framework YouTube :

Javascript framework Youtube

À noter que ce traitement impacte aussi le scroll et le chargement. Est-ce un fonctionnement attendu ? Un bug ou une mauvaise implémentation ? Nous n’avons pas été jusque-là dans l’analyse.

Quand on regarde le chargement de la page, sur 1,2Mo, près de 600 ko sont utilisés pour le plugin YouTube. 50ko de CSS et 550ko de Javascript. Au traitement nécessaire, il faut ajouter l’usage important de CPU pour parser et exécuter les scripts.

Point notable : Aucune vidéo n’apparait sur cette page. L’intégration du plugin est surement nécessaire pour une autre page. Cela rend le gaspillage encore plus critique, cela est d’autant plus embêtant que le site testé est public et largement utilisé : Impots.gouv !


Bonnes pratiques d’intégration d’une vidéo

1 – Intégrer directement la vidéo sans services tiers

Il est possible d’utiliser des solutions libres et sans plugin. L’intégration via HTML5 est native : Introduction à la balise vidéo de HTML5.

2 – Intégrer une image

Afficher une image avec le même rendu que la vidéo permet de réduire à 1 requête. Si l’utilisateur clique sur la vidéo, alors les scripts seront chargés et la vidéo lancée, du lazy loading en fin de compte.

Nous avons par ailleurs fait l’exercice sur une page de notre site web Greenspector :

Sur l’une de nos pages “Étude de cas” était intégrée une vidéo YouTube. Nous avons remplacé cette intégration par l’affichage d’une image (ci-contre) représentant l’ancienne vidéo intégrée. Cette modification nous a permis de passer d’un écoscore Greenspector de 59/100 à 75/100 caractérisé par un gain en énergie de -12% en étape de chargement, de -10% en Idle et -15% en scroll.

Page avec vidéo intégrée
Page avec image

3 – Intégrer le plugin uniquement sur la page voulue

Une solution pas idéale mais préférable à l’existant, est de faire appel uniquement aux scripts que lorsque la page nécessite une vidéo.

Que cela va-t-il permettre de gagner ?

Tout d’abord la performance. Une grosse partie des traitements liés aux temps d’attente des sites est dédiée aux services tiers. C’est encore plus vrai pour le plugin YouTube. Sur le site audité, la taille peut être diminuée par 2 et le temps de chargement réduit d’au moins 30%.

La consommation d’énergie sera aussi réduite et d’une manière encore plus importante que la taille des données ou la performance. En effet, en plus de l’économie d’énergie du chargement, la consommation en idle ou phase d’inactivité sera réduite.

Bonus : vie privée de l’utilisateur

L’autre problème de ce type de projet est l’usage de tracker et de récupération de données utilisateur. Ne pas intégrer un services tiers permet de résoudre des potentiels problèmes de fuite de données et de non-respect RGPD. Au passage, le plugin YouTube permet une version a priori sans cookie via l’appel à l’URL : https://www.youtube-nocookie.com.

Comme tout service tiers, cela n’est pas si simple. Même avec cette intégration de no-cookie, des données utilisateurs sont stockées :

Données utilisateurs cookies Youtube

Le site audité n’est donc pas compatible RGPD ! Pour gérer cela, il faut demander le consentement à l’utilisateur explicitement :

Fenêtre de consentement

La solution de la vidéo hébergée ou de l’image statique permettra aussi de gérer cela.


Conclusion

Si l’intégration d’une vidéo est nécessaire, réfléchissez-y tranquillement et prenez en compte les impacts sur la consommation de ressources et la RGPD. Il existe des solutions techniques plus respectueuses de l’utilisateur, elles sont dans un premier temps peut-être un peu plus complexes à mettre en place, cependant les solutions vont naturellement devenir plus simples et répandues.

Faut-il limiter les données qui transitent sur internet pour réduire l’impact du numérique ?

Reading Time: 11 minutes

TL;DR

Le débat fait rage actuellement sur l’intérêt ou non de limiter la consommation de données des utilisateurs web. Et derrière cette question, celle de la nécessité de passer ou non à la 5G, celle-ci amenant à des débits plus importants. 

Les défenseurs d’une limitation argumentent que cela réduirait la consommation d’énergie et l’impact du numérique, les défenseurs pour la poursuite des évolutions technologiques (et généralement aussi de la non limitation de la bande passante) argumentent que l’amélioration constante des technologies compenserait les effets négatifs du numérique. 

Comme dans tout débat, les deux parties ont des arguments valides. Tentons d’analyser en quoi la réponse n’est pas si simple ! 

Disclaimer : En tant que professionnel de l’IT et de la sobriété numérique, notre objectif est de fournir des données claires et factuelles sur l’impact du numérique et son évolution. Le numérique sert à aider la société sur d’autres domaines mais ce n’est pas une raison pour ne pas optimiser et réduire l’impact du numérique. Plusieurs études montrent qu’il est nécessaire d’agir, sans quoi la tendance pourrait être encore plus néfaste. 

Empreinte carbone de l’électricité des technologies de communication 2010 - 2030

La question n’est pas de savoir si telle ou telle projection est bonne mais comment agir pour être dans le meilleur des cas. 


1. Amélioration des datacenters

Il est prouvé que l’efficacité globale des infrastructures s’est améliorée ces dernières années.

L’étude IEA a été reprise de nombreuses fois sur les réseaux en argumentant que la consommation d’énergie des centre de données est faible et s’est améliorée énormément ce qui a permis d’absorber l’augmentation du trafic. 

Tendances mondiales du trafic Internet, des charges de travail des centres de données et de la consommation d'énergie des centres de données, 2010-2019

Il y a en effet eu énormément d’amélioration de l’efficacité par différentes actions : consolidation et virtualisation, amélioration des flux d’air… Les coûts énergétiques étant fixes, la consommation d’énergie et aussi l’impact de ces infrastructures n’ont pas augmenté. 

Une nouvelle étude confirme cette tendance à l’amélioration mais montre aussi l’augmentation importante en termes de consommation d’énergie qui s’est produit avant 2010 (la fenêtre utilisée par l’IEA) : augmentation de 4% entre 2010 et 2014 mais après une augmentation de 24% les 5 années précédentes et 90% entre 2000 et 2005. 

On peut voir aussi cela sur le cas des US

Consommation d'électricité par composante d'utilisation finale, 2000 à 2006

On peut cependant moduler ce constat car on partait de loin : plus de serveur physique, aucune gestion des flux… Le plus gros des gains a donc été fait ces dernières années. L’amélioration de la capacité ne va pas aller au même rythme et il va certainement y avoir une augmentation nécessaire de la capacité des Datas center. Un exemple, la stagnation du PUE

Les gains d'efficacité énergétique des datacenters se sont stabilisés

Les opérateurs le prennent même en compte via une diminution du rythme d’optimisation plus faible.

evolutions et previsions des consommations d'électricite des data centers orange Gwh

Les projections des études scientifiques montrent des explosions de la consommation des Data center. Même si elles se basent sur des projections qui peuvent être discutées, l’augmentation est bien présente : 

Consommation d'énergie des centres de données dans le monde en milliards de kWh par an

Au final, on peut effectivement dire qu’il y a eu beaucoup d’améliorations mais on a tout à fait le droit de se poser des questions sur certains éléments : 

  • À quel coût CO2 s’est faite cette amélioration ? En effet, la construction de nouveaux Data center et le remplacement des anciens par de nouveaux serveurs plus efficients a eu un coût en termes de fabrication. Les études n’en parlent pas 
  • Il n’y a aucune métrique sur l’efficience des traitements. Quelle est l’évolution de coût côté Data center de l’affichage d’une page web, d’un traitement… ?
  • Ces courbes sont à mettre en face de la consommation de bout en bout (jusqu’à l’utilisateur). C’est ce que nous allons tenter de faire en partie dans la suite de l’article. 

2. Amélioration des réseaux

Il en va de même pour les infrastructures réseaux. Le ratio kWh/Go a largement diminué. Exemple du cas sur le réseau en Finlande.

Réseau Finlande

Il existe des critiques cependant sur ce mode de présentation de l’efficience (les Wh/Go) car la consommation de ces infrastructures est fixe. Consommer plus de données sur le réseau serait gratuit. C’est faux car, pour piloter l’efficience, cette métrique est utile en permettant d’affecter cette consommation à un usage. Et effectivement, plus on va consommer, plus cette métrique va diminuer. Deux conclusions s’imposent sur la base de cette analyse : 

1/ Oui l’efficience du réseau s’améliore 

2/ Oui, plus on utilise le réseau, plus on “rentabilise” la consommation fixe et les impacts environnementaux du matériel. 

Cependant cela pose le problème de la capacité du réseau. Lorsque le réseau est saturé, il est nécessaire d’ajouter des infrastructures. C’est ce qui se passe actuellement sur le réseau 4G. A certaines heures et dans certains lieux, les utilisateurs sont redirigés vers les réseaux 3G. La solution choisie est donc de passer à une autre génération de réseau qui va permettre d’absorber cette charge. 

Donc au final si l’efficience du réseau est vraie, elle ne doit pas être la seule métrique pour analyser le problème. Il est nécessaire de prendre aussi le paramètre de la capacité du réseau (mais aussi de la capacité de chaque réseau unitaire). Car sans cela le bénéfice de l’amélioration de l’efficacité des réseaux est annulé par l’impact du renouvellement trop fréquent de l’infrastructure du réseau. 


“Comme nous recherchons un ordre de grandeur en économie d’énergie, nous supposons que la diminution de 30% du volume de trafic dans le cœur de réseau induit une diminution du même ratio dans le dimensionnement du réseau et par conséquent une diminution de 30% de la consommation d’énergie dans le cœur du réseau IP.” 


Vous pouvez trouver ce raisonnement entre autres dans le projet de recherche Européen CONVINcE sur lequel Greenspector a travaillé avec des acteurs de l’infra et de la vidéo.   

“As we are looking for an order of magnitude in energysaving, we suppose thatdecreasing by 30% the traffic volume in the core network induces a decrease of same ratio in network dimensioning and consequently a decrease of 30% in energyconsumption in the core IP network.” 

Quant à l’impact environnemental du réseau, de la même manière que pour l’étude IEA, une courbe d’une étude ARCEP a été utilisée de nombreuses fois : 

ARCEP Emissions GES des opérateurs francais

C’est positif mais encore une fois, il manque certaines données pour bien analyser cette tendance et surtout elle ne prend pas en compte la tendance où une partie de l’impact environnemental est passée chez l’utilisateur avec l’usage des box internet. 

Car, comme on le verra plus loin, on observe un déplacement des traitements informatiques vers les utilisateurs. 


3. Amélioration des terminaux

De la même manière, les terminaux (PC, Smartphone, TV…) améliorent leur efficacité énergétique. La loi de Koomey le démontre.

Koomeys low graph made by Koomey

Cependant il y a un ralentissement notable (voir paragraphe suivant). Nous l’avons-nous-même constaté sur les smartphones sur la moyenne des sites que nous avons mesurés (6000 mesures depuis 2017). D’une part par ce ralentissement de l’efficience énergétique des processeurs mais aussi par une certaine lourdeur des logiciels. Un exemple dans l’évolution des benchs de processeur (qu’on peut aussi voir sur de nombreux autres types de bench).


4. Limitation de l’amélioration de l’efficience

« En 2016, la société Intel mentionne un ralentissement du rythme de miniaturisation des processeurs et, en conséquence, un écart à la loi de Moore »

L’amélioration de l’efficience qui est formulée par Koomey a une limite. Elle est liée en partie au ralentissement de la loi de Moore. 

« En 2016, la société Intel mentionne un ralentissement du rythme de miniaturisation des processeurs et, en conséquence, un écart à la loi de Moore » écrit le chercheur Jean-Gabriel Ganascia 

Cette limitation est aussi formulée par la loi de Laudauer : il est impossible physiquement d’atteindre une certaine efficience. Nous avons encore relativement une marge mais la tendance au ralentissement est déjà visible. Les tendances annoncées par les opérateurs de Data center (voir plus haut) le montrent bien. 

On voit déjà des limites sur certains composants : 

Cette même étude (issue de l’industrie des semi-conducteurs) annonce une explosion de la consommation d’énergie et une nécessité de continuer cette recherche d’efficience. On le voit cependant même avec cette efficience, la consommation totale due à l’informatique sera relativement importante par rapport à la production d’énergie mondiale. Discours différents par rapport aux personnes qui annoncent une consommation nulle de l’informatique !

L’approche optimiste est de dire que la R&D permettra de trouver des nouvelles approches. Cependant, à quel coût ? Et cela n’empêche pas de réfléchir à rentabiliser les technologies actuelles pour gérer ce futur plateau.  


5. Technologie logicielle

« Les programmes ralentissent plus vite que le matériel accélère » 

L’évolution de la technologie logicielle n’est pas souvent prise en compte dans les approches d’évaluation et de prospection. Le matériel étant le consommateur de ressource. Cependant le lien est faible entre les deux. 

Le logiciel ne suit généralement pas l’évolution du matériel, ou en tout cas, il le suit moins rapidement. C’est ce qu’énonce la loi de Wirth.

On peut le voir sur de nombreuses métriques des logiciels, sur des mesures empiriques mais il existe cependant peu d’étude qui démontre cette loi. Si on prend l’évolution de la taille des pages web ainsi que de la performance depuis 10 ans

Il y a effectivement une tendance à la surcharge. Tendance qu’on pourrait atténuer par rapport à l’amélioration du réseau cité plus haut. Pour calculer l’efficience, nous allons prendre le ratio d’énergie consommée pour transporter 1Mo de data. Nous allons aussi comparer ce ratio avec l’hypothèse de la médiane des pages des sites qui serait restée stable en volume de données par rapport à 2011 (soit 200Ko). Sachant que 200k est assez réaliste pour un site complet et utilisable. On peut même aller plus loin : voir le challenge 10k. On obtient alors : 

L’efficience réelle (matériel + logiciel) ne suit pas l’efficience du matériel. Si les tendances se poursuivent (>2020) alors on pourrait même avoir une efficience énergétique qui commence à se dégrader. 

En prenant la performance des processeurs vu plus haut (Single Threaded Integer Performance), l’évolution du chargement des pages web, et en considérant que la performance des pages web reste à 5 secondes en moyenne), les conclusions sont les mêmes : l’efficience est constante.

Ces analyses sont partielles, il serait nécessaire de prendre des indicateurs plus adaptés mais cela montre en partie que l’amélioration de l’efficience n’est pas si claire. 

La loi de Wirth semble confirmée dans de nombreux cas. Dans certains domaines spécifiques comme le calcul scientifique, la performance des traitements est proche du matériel, cependant dans de nombreux logiciels, on observe un écart. Une des raisons est bien souvent la non-prise en compte de la plateforme matériel lors du développement et le paradigme que les bytes n’ont pas d’impact. C’est faux ! Par exemple, la tendance du web a été d’utiliser énormément de JavaScript pour afficher les pages web. Or ces bytes transférées ont une part importante dans le poids des pages mais aussi dans l’efficience des traitements côté utilisateur. Le JavaScript devient en effet un des goulots d’étranglement de la performance sur mobile. Les CPU même si surpuissant, passent leur temps à charger, parser et exécuter le JavaScript.

JSS Processing for CNN.com

Ce phénomène est très bien expliqué dans l’article The Cost of Javascript. Le résultat est une explosion de l’énergie par un usage intensif de cycle CPU ainsi qu’un ralentissement des performances et un sentiment d’obsolescence de la plateforme par l’utilisateur.


Effet rebond

Nous ne traiterons pas ici de l’effet rebond en termes d’usage. C’est un aspect en effet très discuté qui prend en compte du social, des analyses prospectives… Cependant nous pouvons, d’un point de vue technique, observer un effet rebond issu de l’amélioration des technologies : celle de l’ajout d’informations annexes aux services qui sont purement nécessaire à l’utilisateur. Par exemple, on peut citer : l’ajout de services annexes tels que la publicité, les trackers…  

Effet rebond

La part de JavaScript pris par les services “annexes” est importante et dépasse celle du JavaScript utilisé pour le service primaire. Ceci a été rendu possible, entre autres, par certaines capacités techniques : intégration de script facilitée, bande passante le permettant…

Et alors ?

Afin de prendre les bonnes décisions, il est important de prendre du recul et surtout de regarder les tendances. Il est clair que ces dernières années en informatique ont vu arriver une amélioration notable des infrastructures matérielles, des Data center aux terminaux. Cela a permis de nouveaux usages mais aussi de nouvelles pratiques de développement. La frénésie de développement de solution ne s’est pas forcément accompagnée d’une optimisation, les technologies, offrant de génération en génération plus de puissance, plus de bande passante, l’optimisation semblait pour certains un surcoût inutile. Cette optimisation s’est cependant faite dans beaucoup de cas pour des raisons économiques : réduire la facture électrique du Data center, optimiser l’usage d’une infrastructure réseau. Cette optimisation n’a pas été systémique mais plutôt unitaire, au détriment souvent de certaines parties comme les terminaux.  

Cela a amené un retard entre l’efficience réelle des plateformes et leurs capacités. L’affichage des sites en 5 secondes avec 8 CPU et de la 4G sur des téléphones en est l’exemple. Ce n’est qu’une accélération de la loi de Wirth en fait. Les plus optimistes et je dirais technophiles ont comme position que les évolutions technologiques, associées à des meilleurs outils logiciels permettront de garder une performance suffisante. Cela pourrait être une solution cependant elle a des contreparties : elle va dans le sens d’un renouvellement assez rapide des plateformes, en particulier, côté utilisateur, et donc d’un impact environnemental plus important. Elle ne va pas de plus dans le sens de pratiques vertueuses : les tailles des sites et des logiciels vont continuer de grossir. La performance sera constante voire améliorée sur les nouvelles plateformes et cela exclura les utilisateurs qui veulent garder des anciennes plateformes. A moins de le gérer dans les logiciels (comme par exemple l’apparition de version lite), approche peu probable car coûteuse et applicable uniquement par les Big Tech. L’approche optimiste se base sur des évolutions technologiques futures. Or on le voit avec la loi de Laudaeur, il y a une limite. Nous avons encore peut-être quelques années, mais la dette grandit. 

Dans ce cadre, la 5G ne va pas forcément dans le bon sens car elle va permettre de charger plus de données, plus rapidement et donc de ne pas avoir à optimiser les logiciels et même de rajouter des services tiers. Il est pourtant clair que la 5G a des avantages technologiques qui permettraient en partie d’améliorer l’efficience du système global. Mais sans garde-fou, nous allons continuer comme nous l’avons toujours fait avec les différentes technologies : toujours plus sans penser à l’optimisation

Dans ce cadre, la mise en place d’incitation ou de contrainte est nécessaire pour freiner cette course à l’armement. La limitation de la bande passante est une approche intéressante car elle va permettre d’avoir un budget data qui pourrait être répartie. En limitant la taille des sites web par exemple, il sera nécessaire d’optimiser des choses : optimisation technique des librairies, suppression de services tiers, suppression du superflu… La limitation des données est dans ce cadre un axe qui permettra de limiter la consommation d’énergie (en particulier chez l’utilisateur) mais sera surtout un axe pour éviter une obsolescence des plateformes, et au final un axe pour maitriser, voire réduire l’impact du numérique. 

Nous travaillons depuis longtemps avec certains de nos clients dans le sens de l’optimisation en leur offrant des moyens de mesure et d’amélioration sur la réduction de la consommation d’énergie mais aussi de données, de traitement CPU… Cependant la résistance au changement des organisations, l’état de l’art et les pratiques du développement logiciel, les priorisations business… font que ces optimisations ne seront à long terme pas suffisantes pour rattraper le retard que l’on prend au niveau global de l’industrie IT. Les acteurs engagés sont des précurseurs, cependant pour que tout le secteur s’améliore réellement, la contrainte semble inévitable…à moins que la prise de conscience et le passage à l’action arrivent demain