Auteur/autrice : Olivier PHILIPPOT

Expert Sobriété Numérique Auteur des livres «Green Patterns», «Green IT - Gérer la consommation d’énergie de vos systèmes informatiques», ... Conférencier (VOXXED Luxembourg, EGG Berlin, ICT4S Stockholm, ...) Fondateur du Green Code Lab, association nationale de l’écoconception des logiciels

Quelles ressources réduire dans le cadre de bonnes pratiques d’éco-conception logicielle : Traitements côté serveurs ou côté utilisateurs ?

Reading Time: 3 minutes

Une des premières réponses à la question “quelles ressources” est : toutes ! Mais il est nécessaire d’avoir une réponse plus précise car certaines pratiques vont privilégier une économie côté serveurs, d’autres côté mémoire plutôt que CPU. Il y a des optimisations gagnantes pour tous les domaines mais malheureusement, le comportement des systèmes informatiques est plus capricieux !  

La piste directrice est la prolongation de la durée de vie du matériel, que ce soit pour le terminal ou pour les serveurs. On verra que pour des gains environnementaux, la diminution de l’énergie sera elle aussi une piste. 

Dans un précédent article, nous traitions de la nécessité d’optimiser l’énergie dans le cas des appareils mobiles. Aujourd’hui nous tentons de répondre à la question : quelle architecture mettre en place, et en particulier mettre les traitements côté utilisateurs ou côté serveurs ? 

La réponse est : traitement côté serveur à privilégier…

La réponse est plutôt simple : chargeons les serveurs ! En effet, lorsqu’on prend les ACV et les analyses d’impact, on observe un impact beaucoup plus fort côté utilisateurs (Exemple avec notre étude sur l’impact de la lecture d’une vidéo). Les serveurs sont mutualisés et sont optimisés pour absorber une charge. Le gestionnaire pourra de plus gérer des fluctuations de charge avec du Power Capping (absorption de pic de charge en maintenant une consommation d’énergie maîtrisée). La durée de vie des serveurs pourra elle aussi être gérée (du matériel pouvant aller jusqu’à 10 ans de durée de vie). Le respect d’une politique Green IT pourra aussi être mieux suivi et partagé.

Les terminaux quant à eux, malgré des processeurs puissants, n’ont pas ces avantages. Très peu de maîtrise de la durée de vie, pas de gestion de la santé du système, une fragmentation des puissances et donc des comportements…

…mais attention aux ressources et à la scalabilité

S’il est préférable de placer les calculs côté serveurs, cela n’est pas une excuse pour ne pas optimiser l’impact côté serveurs. La scalabilité et la montée en charge est possible mais à surveiller. Car rajouter une instance virtuelle aura un impact sur le futur besoin d’ajout de machine physique et donc viendra alourdir l’impact environnemental.

De plus, limiter la consommation d’énergie sera nécessaire car une forte demande en énergie se transférera en une augmentation de la puissance consommée sur la baie de serveurs et des besoins de refroidissement plus forts.

Et le coût des allers retours des allers-retours réseau dans ce cas ?

La question se pose sur les échanges réseaux si l’on déplace des calculs côté serveurs. Il s’agit actuellement d’un faux problème car les échanges sont trop nombreux. La ressource réseau et serveurs étant vue comme “gratuite” et les architectures allant de plus en plus vers du service / micro service, les traitements côté utilisateurs appellent trop les datacenters. Il faudra plutôt maîtriser le nombre d’échanges réseau, quel que soit le choix d’architecture.

Est-ce le cas actuellement dans les pratiques d’architecture ?

Cela n’a pas été la tendance de ces dernières années. En effet, l’arrivée de plateformes utilisateurs puissantes, i.e. avec des processeurs multicœurs et des connexions réseaux performantes, ont poussé à déplacer beaucoup de traitements côté utilisateur. Les Frameworks de développement, en particulier les Frameworks JavaScript, ont permis cela.

Cependant, la tendance commence à s’inverser. On peut notamment citer le Server-Side Rendering (SSR) avec par exemple next.js ou la génération de blogs statiques avec Hugo. On peut aussi voir les techniques maximisant l’usage des éléments déjà présents sur le terminal de l’utilisateur comme le moteur du navigateur web en utilisant plutôt du CSS que du JS.

Nous tenterons de répondre dans les prochains articles : quelles ressources (CPU, mémoire…) doit-on optimiser en priorité ?

Smartphones utilisateurs : tout savoir sur l’impact environnemental et l’usure des batteries

Reading Time: 4 minutes

Terminaux utilisateurs : l’impact environnemental élevé de la phase de fabrication

Les terminaux utilisateurs sont désormais les plus gros contributeurs à l’impact environnemental du numérique et ce phénomène est amené à se renforcer. Cette tendance s’explique principalement par un équipement de plus en plus important des foyers en smartphones, par une durée de vie réduite de ces équipements et par le fait que ces derniers ont un impact environnemental important. Impact qui est principalement dû à la phase de fabrication du smartphone. La marque Ericson annonce par exemple un impact en usage (i.e. lié à la recharge en énergie de la batterie du smartphone) de 7 kg eqCO2 sur un impact total de 57 kg eqCO2, soit seulement 12% de l’impact total. L’impact total prend en compte les différentes phases du cycle de vie du smartphone : fabrication, distribution, usage, traitement du smartphone en fin de vie.

D’où l’intéret que les constructeurs travaillent sur cette énergie grise en éco-concevant mais aussi en améliorant la possibilité d’augmenter la durée de vie du matériel via la réparabilité mais aussi la durabilité.

Au regard de tous ces constats, il pourrait paraître non-productif du point de vue environnemental de réduire la consommation d’énergie des smartphones. En tout cas, l’approche simpliste serait de mettre cet impact de côté. Mais la réalité est tout autre et les flux électriques qui sont mis en jeu dans la phase d’usage des appareils mobiles sont beaucoup plus complexes que l’on ne pourrait le croire.

Explication du fonctionnement des batteries

Les smartphones actuels sont alimentés par des batteries avec la technologie Lithium-ion. En moyenne les capacités des batteries du marché sont de 3000 mAh. La tendance est à l’augmentation de cette capacité. La batterie peut être considérée comme un consommable, tout comme une cartouche d’imprimante. Elle s’use avec le temps et la capacité initiale que vous possédiez lors de l’achat du smartphone n’est plus totalement disponible. C’est-à-dire que le 100 % indiqué par le téléphone ne correspond plus aux 3000 mAh mais à une capacité moindre. Et cette capacité initiale ne peut alors pas être récupérée.

L’usure de la batterie est principalement créée par les cycles de recharges et décharges complets. Un cycle de recharge/décharge correspond à une batterie vide que l’on rechargerait à 100 %. Je pars de chez moi le matin avec un téléphone chargé à 100 %, la batterie se vide, je recharge mon téléphone le soir à 100 %. Un cycle complet en une journée donc !

Si vous rechargez plus souvent votre téléphone, vous pourrez faire plus de cycles (plusieurs cycles incomplets sont au final équivalents à un cycle complet).

Plus le nombre de cycles croît, plus la capacité restante diminue. Cette usure amène à la fin de vie de la batterie. Les technologies actuelles permettent d’aller environ jusqu’à 500 cycles.

Arrivée en fin de cycle, la capacité de la batterie n’est plus que de 70 % de la capacité initiale. Au-delà de cette perte gênante d’autonomie, la batterie subit certaines anomalies, comme par exemple le passage rapide d’un niveau de batterie de 10 % à 0 %.

À noter que cet effet va être renforcé par l’intensité de la décharge de la batterie : si le téléphone consomme énormément (par exemple lors d’une lecture de vidéo), alors l’usure de la batterie va être plus importante.

Impact sur l’obsolescence

La perte d’autonomie est une cause de renouvellement par les utilisateurs : 39% en 2018. Phénomène renforcé par le fait que les batteries sont de plus en plus non amovibles, ce qui engendre un remplacement complet du smartphone par l’utilisateur. De plus, même si la baisse de l’autonomie n’est pas l’unique critère de remplacement, il s’additionnera aux autres causes pour créer un ensemble de signes indiquant à l’utilisateur qu’il doit changer son smartphone (effet marketing, puissance, nouvelles fonctionnalités…).

On peut donc facilement faire le lien entre les mAh consommées par les applications et le CO2 dû à la fabrication. En réduisant ces mAh, on réduirait largement l’usure de la batterie, la durée de vie des smartphone serait élargie en moyenne et donc le coût CO2 initial serait davantage rentabilisé. Le mAh du smartphone présente un coût beaucoup plus important sur l’énergie grise du smartphone (fabrication) que sur l’impact de l’énergie pour le recharger.

Par exemple pour un smartphone classique, l’impact en tenant compte  de la fabrication est de 14 mgCO2/mAh, contre seulement 0,22 mgCo2/mAh si on ne considère que l’énergie nécessaire à la recharge ! C’est ce facteur d’émissions (14 mgCO2/mAh) que nous utilisons dans nos évaluations d’impact. Nous vous encourageons à l’utiliser également.

Solution technologique

Résoudre cette problématique peut toujours se voir au travers de l’axe technologique : augmentation des capacités, chargement rapide… Si l’on prend le cas du chargement rapide, cela ne va pas changer le problème, bien au contraire, cela va l’aggraver en augmentant potentiellement les cycles. Ce n’est pas en augmentant le réservoir des voitures que l’on va réduire l’impact de l’automobile. Améliorer les technologies batterie est bénéfique, cependant une diminution de la consommation des smartphones serait encore plus bénéfique pour l’environnement et l’utilisateur.

À noter que l’impact CO2 n’est pas uniquement a prendre, en effet la fabrication des batterie est globalement très couteuse en termes environnemental et social. Sans compter les ressources stratégiques avec des impacts géopolitiques comme le cobalt ou le lithium. Prolonger la durée de vie des batterie est critique.

Sobriété numérique partout, sobriété numérique nulle part ? 7 erreurs à éviter !

Reading Time: 4 minutes

Tout le monde parle de sobriété numérique. Des agences web aux politiques, en passant par les ESN, tous communiquent sur le sujet, sur l’explication de l’impact, sur des bonnes pratiques, sur la volonté d’y aller. Mais qu’en est-il réellement ? 

Nous travaillons sur le sujet au sein de Greenspector depuis 10 ans et nous pouvons en toute modestie donner notre avis sur la réelle situation des acteurs et surtout sur les barrières qu’il va falloir passer pour réellement faire de l’éco-conception et de la sobriété. 

Nous avons sensibilisé des développeurs, des étudiants et des dirigeants. Nous avons accompagné des équipes, appliqué des bonnes pratiques. Nous avons mesuré des applications et sites web. Il en fallait de la motivation pour garder le cap. Car le contexte est différent, et nous sommes heureux de voir autant de communication et d’acteurs concernés. Nous pensons cependant que tout n’est pas gagné ! Voici quelques conseils et analyses d’anciens du domaine, regroupés en 7 erreurs à éviter !  

Associer la sobriété numérique uniquement à un métier

Dans de nombreuses actions que nous avons menées, une composante importante était nécessaire : la prise en compte du problème à toutes les étapes. Développeur, designer, Product Owner, décideur. Et Client.. Sans cela, le projet n’ira pas loin. Un projet non financé, des besoins de recherche d’optimisation non voulus par les devs, des améliorations techniques non acceptées par les Product Owners… Au mieux, les améliorations seront faites mais avec peu de gain. 

La solution, engager une démarche partagée. Cela prend un peu plus de temps (et encore !) mais permet au projet d’être compris par tous et accepté. 

Se focaliser uniquement sur les pratiques de codage 

La solution miracle quand on pense sobriété numérique est de se dire que si les développeurs respectent les bonnes pratiques, tout ira bien. On peut en parler, on a débuté un projet de R&D (Code Vert), il y a plus de 8 ans sur cet axe. C’était nécessaire mais pas suffisant. En effet, il faut également travailler sur les fonctionnalités, le design, les contenus, l’infra…  

La mise en place d’un référentiel sera un axe important mais plus dans un premier temps pour initier une démarche de sensibilisation. Il ne faut surtout pas se dire qu’il faudra appliquer 115 bonnes pratiques sur la quasi-totalité d’un site car l’effort sera énorme et les résultats ne seront pas forcément au rendez-vous.

Ne pas utiliser d’outils professionnels

De nombreux outils ont vu le jour pour évaluer les sites web. En effet, il est assez simple dans le web de surveiller certaines métriques techniques comme la taille des données échangées sur le réseau ou la taille du DOM et de modéliser un impact environnemental. C’est très bien pour sensibiliser et pour identifier des sites beaucoup trop lourds. Par contre le système sur lequel fonctionne le logiciel n’est pas si simple et l’impact peut venir de beaucoup plus d’éléments : Un script JS qui consomme, une animation…  

Passer à l’action avec ce type d’outil permet de lancer la démarche mais dire que le logiciel est sobre par ce qu’on a réduit la taille de données et la taille du DOM est à la limite du greenwashing. 

Nous ne disons pas cela parce que nous sommes éditeurs mais parce que nous sommes convaincus qu’il est nécessaire de professionnaliser les actions.

Se battre sur les définitions et les principes

Nous l’avons vécu ! Nous avons été critiqués pour notre approche sur l’énergie. La naissance d’un domaine amène à la mise en place de nouveaux principes, de nouveaux domaines, de nouvelles définitions… C’est normal et cela nécessite souvent de longues discussions. Mais avons-nous réellement le temps de débattre ? Sont-elles nécessaires quand on s’est mis d’accord sur le fait que nous devons tous réduire l’impact de nos activités ? La complexité du numérique et de l’obésiciel est bien là et se ressent à tous les niveaux. Il est temps d’améliorer globalement nos pratiques, toutes les volontés sont bonnes, tous les axes sont à explorer. 

Chercher les gros consommateurs 

Les constats sur l’impact du numérique sont de plus en plus partagés. Cependant les équipes peuvent être amenées à chercher des excuses ou des responsables et ne pas faire des corrections qui leur semblent plus mineures. Pourquoi optimiser sa solution alors que le bitcoin est un gouffre de consommation ? Pourquoi réduire l’impact du front alors que les éditeurs de librairies ou dépendances ne font rien ?  La priorisation est importante mais elle est souvent une mauvaise excuse pour ne pas rechercher les gains sur son domaine.  

TOUTES les solutions sont beaucoup trop lourdes. Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes, … c’est bien. 3 secondes ? Avec les multicœurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…), c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent. Et cela convient à tout le monde (du moins, en apparence : Le monde du logiciel est en train de se détruire, manifeste pour un développement plus durable.)

Débutons maintenant les optimisations en ne cherchant pas des coupables ! 

Penser uniquement évolution technologique 

Nous sommes des techniciens, nous cherchons des solutions techniques pour résoudre nos problèmes. Et donc dans le domaine du numérique, nous recherchons des nouvelles pratiques, des nouveaux frameworks. Et les nouveaux frameworks sont plein de promesses en termes de performance, nous les croyons ! Par contre c’est une course à l’armement qui nous coûte des ressources. Cette évolution est surement nécessaire dans certains cas mais il ne faut pas uniquement se focaliser sur cela. Il faut aussi investir les domaines transversaux : accessibilité, test, sobriété, qualité…  Et sur l’humain, car ce sont les équipes qui trouveront les solutions pour des services numériques sobres.   

Ne pas investir  

Les bonnes volontés et les prises de conscience sont nécessaires, par contre il faut financer le changement. Car la sobriété numérique est un changement. Nos organisations, nos outils ne sont nativement pas faits pour la sobriété. Sinon nous n’aurions actuellement pas ce constat sur l’impact du numérique. Il est donc nécessaire d’investir un minimum pour former les gens, pour s’outiller, pour prévoir du temps pour les équipes sur le domaine. Faire un webinar et une formation ne suffisent pas ! 

Ayons des engagements liés au niveau de l’enjeu et des impacts du numérique sur l’environnement ! 

Étude d’impact de la lecture d’une vidéo Canal+

Reading Time: 16 minutes

Introduction

Cette étude a été réalisée par Greenspector, société spécialisée dans l’impact du numérique, et EVEA, spécialisée dans les analyses de l’impact environnemental de produit. Cette étude se base sur :

  • une méthodologie de calcul initiée dans le cadre du projet CONVINcE sur la consommation d’énergie de la vidéo. Projet ayant impliqué plusieurs acteurs tels que Orange, Sony…
  • des mesures d’énergie et de consommation de ressource réalisée sur l’application myCANAL pour étayer des hypothèses
  • une collecte de données sur l’usage et l’infrastructure de Canal+
  • une étude bibliographique pour identifier et corréler des facteurs d’émission et des consommations d’énergie

Sommaire de l’étude :
Méthodologie
Résultats : consommations, impact global et projection
Axes d’améliorations
Conclusion – points à retenir
Témoignage du Chief Digital Officer de Canal+

Méthodologie

L’unité fonctionnelle de cette étude est définie telle que suit : “Visionner 1h de vidéo, en live ou en replay, sur les interfaces de Canal+”.

Disclaimer : Cette étude a pour but d’estimer, par des ordres de grandeur, l’impact carbone de la lecture d’une vidéo sur les interfaces de Canal+. À date, elle s’appuie sur des sources fiables et robustes et se veut représentative de la réalité de l’infrastructure de Canal+. Cependant, ce n’est pas une Analyse du Cycle de Vie (ACV) complète. Nous nous appuyons sur les méthodologies ACV mais nous n’avons par exemple pas effectué d’analyse de sensibilité qui permettrait d’avoir des écarts min-max sur les valeurs. Cependant, cette étude a permis de formaliser un référentiel d’analyse pour l’empreinte carbone d’un service de vidéo, et il pourra servir pour suivre l’évolution de l’empreinte carbone dans le temps. Et tout ceci n’enlève en rien à la cohérence des données pour son utilisation principale.

Moyen d’accès aux services

Nous avons listé les différentes manières d’accéder aux services vidéo de myCANAL. En fonction de ce type d’accès, il est nécessaire d’avoir plus ou moins de matériel(s). Cet inventaire est nécessaire pour évaluer l’impact de l’accès aux services de vidéo. Nous avons classé les moyens par catégorie :

  • Décodeur Canal+
  • Box TV FAI
  • Box TNT
  • Console de jeux
  • TV IP (TV Android, Samsung TV)
  • Passerelle Multimédia PC/Mac avec Box Internet FAI
  • Smartphone/Tablette avec Box Internet FAI ou accès GSM

Pour les accès Décodeur, Box TV/TNT, Console et Passerelle Multimedia il est nécessaire d’ajouter une TV. Nous avons écarté tous les cas particuliers de visualisation considérés comme anecdotiques par rapport aux autres accès tels que :

  • L’affichage du flux PC sur une TV,
  • La visualisation multiroom

Concernant le lien entre les terminaux et les Box, nous considérerons que la connexion Wifi et la connexion filaire (Ethernet) n’ont pas d’impact sur la consommation des terminaux (PC et TV).

Définition de la visualisation

La qualité de visualisation influence la consommation d’énergie de bout en bout. Nous avons pris les 3 principales définitions suivantes :

  • SD (Simple Définition)
  • HD (Haute Définition)
  • UHD/4K (Ultra Haute Définition)

La définition dépend de 3 facteurs :

  • la disponibilité de programme compatible
  • la compatibilité du matériel en termes de qualité
  • la qualité de la connexion (la qualité des vidéos myCANAL est adaptée en fonction de la vitesse de connexion).

Les mesures exploratoires de Greenspector sur myCanal permettent de montrer l’impact de la consommation d’une vidéo SD, HD ou UHD sur smartphone puis sur PC portable :

Impact de la consommation d’une vidéo sur smartphone et PC portable suivant la qualité
Impact de la consommation d’une vidéo SD, HD ou UHD sur smartphone et PC portable

Des sources bibliographiques ont été utilisées pour les consommations des autres plateformes comme les Consoles (Source 1), les TV (Sources 1 et 2), les Set-Top-Box (Sources 1 et 2). Les consommations des décodeurs Canal+ fournies par Canal+ ont été aussi utilisées.

Selon les différentes configurations d’équipement, nous obtenons des consommations d’énergie qui varient de 1,3 à 108 Wh/h soit un ratio de 1 à 80 :

Consommations d'énergie selon les configurations d'équipements

Technologies

Plusieurs paramètres ont été pris en compte dans les calculs car ils influent sur la consommation :

  • Technologie de streaming : IPTV (Technologie chez les FAI), OTT (Over the Top) et Peer To Peer
  • Signal Linéaire (Live) ou Non linéaire (Replay/VOD)
  • Diffusion (Hertzien, Satellite, IP)

Moyens de connexion au réseau

Pour accéder aux services, l’infrastructure considérée prend en compte : le matériel chez l’utilisateur (Box entre autres), l’accès aux réseaux (GSM, Fibre…) et le cœur du réseau IP.

Nous avons utilisé des méthodes de calculs répandues dans la littérature scientifique et standardisées par l’ETSI. Le principe est de prendre un ratio “énergie/usage type” en Wh/Go. Bien que l’infrastructure du réseau ait une consommation assez fixe et ne dépendant pas de l’usage, ce mode de calcul permet d’affecter un impact global à un usage (ici une heure de vidéo). De plus, il permet d’étudier l’amélioration des réseaux en termes d’efficience. Au-delà de la recherche d’amélioration de l’efficacité énergétique, il permet aussi d’évaluer une pression sur le réseau et de prendre en compte l’amélioration capacitaire de l’infrastructure.

Ainsi expliqué dans le rapport CONVINcE :

“As we are looking for an order of magnitude in energy saving, we suppose that decreasing by 30% the traffic volume in the core network induces a decrease of same ratio in network dimensioning and consequently a decrease of 30% in energy consumption in the core IP network.”

Nous avons étudié la littérature et répertorié des métriques allant de 1,3Wh/Go (chiffre pour la fibre FTTH) à 600Wh/Go. Ces facteurs fluctuent en fonction de la date d’évaluation de l’infrastructure, de la méthode (Top Down ou Bottom Up) et de la technologie. Il est clair cependant que l’efficacité s’améliore au cours des années.

Nous avons pris :

  • 13 Wh/Go pour le cœur réseau (source CONVINcE)
  • 30 à 40 Wh/Go pour le réseau Fixe
  • 150 Wh/Go pour le réseau GSM (source CONVINcE)

Pour la TNT et le satellite, il existe peu de données. Nous nous sommes cependant basés sur une étude BBC pour la TNT.

Content Delivery Network

Les Content Delivery Network (CDN) sont des serveurs utilisés pour limiter la charge des serveurs “Haut de Têtes” (servant les vidéos) et pour fournir un flux au plus proche de l’utilisateur. Canal+ passe par des fournisseurs CDN du marché mais utilise aussi ses propres infrastructures.

La méthodologie pour estimer l’intensité d’énergie par GB est de ramener la consommation estimée du data center au débit en période de pics. Canal+ connaît en effet le nombre de serveurs physiques, leurs types ainsi que leurs débits. Les serveurs étant hébergés chez un hébergeur, certaines hypothèses ont été faites pour estimer la consommation réelle : entre autres, une hypothèse de PUE (Power Usage Effectiveness) de 2, une consommation par serveur de 250W, une charge serveur de 50%. La consommation des routeurs et du stockage sont considérées négligeables par rapport à la consommation des serveurs. (Sources 1, 2 et 3)

L’intensité d’énergie obtenue est de 0,13 Wh/Go, avec une valeur différente entre la VOD et le Live. A noter que cette valeur est calculée en cas de pic (match de foot par exemple). Elle peut être plus faible (usage de la capacité totale du datacenter) ou plus forte (en période de faible affluence).

Faute de données, l’hypothèse d’une même intensité d’énergie (Wh/Go) a été prise pour les CDN extérieurs à Canal+ (50%). Pour comparaison et vérification, les études listées affichent des valeurs de 0,04 à 1 Wh/Go. Ces différences s’expliquent par différents facteurs :

– Amélioration de l’efficience des data centers, les études anciennes amènent donc à des chiffres plus élevés,

– Approches Top-Down qui ont une estimation plus élevée que les études Bottom-Up (comme la présente estimation sur les CDN).

Serveurs applicatifs AWS Hors vidéo : l’utilisation Mycanal (présentation du catalogue, authentification…) et le visionnage des vidéos impliquent la sollicitation de services hébergés sur des serveurs (gestion des droits, etc). Les API utilisées sont hébergées sur des instances AWS.

Canal+ loue des instances AWS et connaît le nombre de VMs. Une partie de ces VMs est purement dédiée à fournir les services annexes à la vidéo.

Il est difficile de connaître la consommation d’énergie des instances AWS car aucune communication ou information n’est fournie par Amazon. À dire d’expert, nous avons pris une valeur de 20W (en prenant en compte un PUE de 2) (Source : Interview des experts sur la virtualisation de la société Easyvirt).

Nous avons pris l’hypothèse d’une répartition uniforme de la consommation par rapport au nombre d’heures visualisées et nous obtenons une valeur de 0,14 Wh/h.

Serveurs d’encodage Vidéo

Les serveurs “Tête de réseau” permettent de mettre en forme les vidéos, de les “paquetiser” au format de l’utilisateur… Pour l’OTT, jusqu’à 150 paquets peuvent être disponibles pour une même vidéo. Voici le workflow pour l’OTT.

Les parties les plus consommatrices sont l’encodage et le décodage vidéo. Le workflow se répartit sur des serveurs spécifiques (pour l’encodage) et des serveurs classiques (pour la mise en forme et le packaging).

Nous avons pris les chiffres issus du projet CONVINcE (considérant des serveurs Harmony identiques à ceux utilisés par Canal+) pour estimer l’énergie, ainsi que les données serveurs de Canal+ :

  • Pour l’IPTV : 0,09 Wh pour une heure de vidéo
  • Pour l’OTT: 0,30 Wh pour une heure de vidéo

Cette différence s’explique par le fait que l’OTT est encodé en plusieurs formats contrairement à l’IPTV qui est encodé en un format haute définition.

Facteurs d’émission CO²

Pour l’énergie nous avons utilisé les valeurs fournies par la base Open Data Réseaux Energies (Travail des distributeurs tels RTE ainsi que l’ADEME). Nous avons utilisé l‘usage intermittent qui correspond davantage à l‘usage vidéo en termes de période (le soir) soit 60g CO2eq/kWh. Une partie d’émissions pour le reste du monde a été ajoutée en prenant en compte le fait que certains utilisateurs sont hors de France.

Pour les facteurs d’émission de la fabrication des terminaux et des serveurs, nous avons utilisé les facteurs fournis par Shift Project / IEA.

Ces facteurs ont été ramenés à l’heure de visualisation en prenant en compte des durées de vie associées à chaque matériel.

Note : Concernant les impacts de la TNT et du satellite, il manque des données sur l’infrastructure et les facteurs d’émission. Nous avons intégré cependant cette partie pour comprendre les ordres de grandeur des impacts. Certaines analyses ont été réalisées uniquement sur la partie IP dans certains cas (pour comparaison avec les autres études par exemple).

De la même manière, l’impact de la phase de fabrication du data center en dehors des serveurs et de l’infrastructure réseau n’a pas été prise en compte car considérée comme mutualisée et faible compte tenu de la durée de vie des bâtiments.

Résultats – projection globale

L’alimentation en énergie renouvelable des infrastructures AWS et des CDN Canal+ hébergées par Interxion n’a pas été prise en compte.

En une heure, en moyenne, voici les flux qui transitent sur le réseau :

500 000 heures de vidéo
900 To de données
3,6 Go/h de débit moyen

Le nombre d’heures de visualisation des abonnés Canal+ a été réparti en fonction des paramètres listés précédemment.

Les données unitaires obtenues précédemment sont alors projetées sur ces usages pour avoir la consommation globale. En prenant ces résultats, nous pouvons obtenir des intensités d’usage de chaque partie (Terminal, Réseau, Serveur) pour vérifier la cohérence de la consommation globale.

Analyse des intensités

Les intensités d’usage obtenues peuvent être comparées aux études Shift Project et IEA. Cette intensité est calculée en prenant la répartition des devices, l’usage de Canal+ et en ne gardant que la partie transfert IP (sans Satellite ni TNT).

Il est clair (et partagé par l’IEA) que l’étude du Shift Project surestime la consommation du réseau. Pour les serveurs, nous avons une valeur assez faible mais sommes assez confiants compte tenu du fait qu’elle se base sur les données d’une infrastructure connue (avec l’incertitude issue des serveurs Amazon et des CDN tiers). L’estimation de la partie terminale du Shift Project nous semble avoir été sous-estimée (partagé par IEA). Il semble que l’IEA ait aussi sous-estimé de nombreux paramètres et semble ne pas avoir été pris en compte l’influence de la définition sur la consommation du terminal, certains éléments comme les box et la consommation des nouvelles TV plus consommatrices. L’étude CONVINcE et l’analyse Sauber/Koomey permettent aussi de valider la cohérence de notre étude.

Impact de la lecture d’une heure de vidéo

Sur l’ensemble du parc Canal+, la moyenne de consommation de bout en bout est de 214 Wh par heure de vidéo. Pour comparaison, l’étude IEA annonce une consommation entre 120 et 240Wh par heure. La répartition est la suivante :

L’impact en équivalent CO2 moyen par type d’accès est le suivant (avec les hypothèses précisées dans le paragraphe Facteurs d’émission CO2 où la fabrication des infrastructures Satellite, TNT, réseau et d’hébergement des serveurs n’a pas été prise en compte)

En prenant le type de connexion :

L‘impact va de 20 à 66g EqCO2, il dépend de plusieurs paramètres :

  • la consommation plus ou moins importante en énergie du device (par exemple Smartphone vs TV),
  • l’énergie grise et la durée de vie du matériel,
  • le moyen d’accès au réseau (par exemple un accès GSM est plus impactant qu’un accès filaire),
  • la qualité de visionnage qui va influer surtout sur la part du réseau (fonction d’un coût au Wh/Go),
  • le nombre de matériels pour accéder au service.

En prenant les usages réels (voir fin du document), on arrive à une moyenne de 28g CO2eq. Si l’on prend uniquement la partie IP, nous arrivons à une valeur moyenne de 37g CO2eq.

Pour comparaison, l’étude IEA (2020) annonce 8g CO2eq pour la France (sur la phase d’usage uniquement). Une autre étude pour les US (2014) annonce 360g CO2eq sur la phase d’usage (et 420g CO2eq avec la fabrication). Si l’on prend un mix énergétique US, nous obtenons 202g ce qui nous rapproche de cette étude. La valeur plus faible peut s’expliquer par les différences d’hypothèses, en particulier sur l’intensité énergétique du réseau. Par exemple, si on prend pour notre étude une TV avec réception 4K, IEA annonce 20g CO2eq alors que nous estimons plutôt 14g (37g avec la phase de fabrication).

Si on regarde le ratio usage/fabrication, dans certains cas, l’usage a plus d’impact (UHD en particulier), alors que dans d’autres c’est la fabrication (TV IP ou PC en HD par exemple).

Sur cette même étude, l’estimation de l’achat d’un DVD est de 400g EqCO2, ce qui amène donc à l’impact d’un visionnage d’une vidéo de 2 heures. 5 fois moindre que celle de l’achat d’un DVD en France et équivalent aux US.

Consommation et impact global

Le résultat de la consommation totale d’énergie du visionnage des vidéos Canal+ par IP est de 900 GWh par an avec un impact en gaz à effet de serre de 159000 tonnes CO2eq.

Pour comparaison, la consommation annuelle française est de 473 TWh par an (Source RTE) et l’empreinte carbone 2017 de la France (émissions nationales + imports) de 749 Mt eq CO2 (source : Haut Conseil pour le Climat – rapport 2019). La consommation du parc Canal+ par IP est donc de 0,18% de la consommation d’énergie et 0,016% de l’empreinte carbone française.

La répartition de bout en bout est la suivante :

Le plus gros de la consommation est chez l’utilisateur (terminal et une partie de l’accès réseau). En effet, il est nécessaire d’avoir du matériel (TV, Box, Smartphone…) qui n’est pas mutualisé comme les serveurs.

Pour validation de la cohérence de cette projection, nous avons pris la consommation des CDN propres à CANAL ainsi que des fournisseurs. Nous avons une consommation des CDN Canal+ de 2,6 GWh (et estimée à 7GWh pour les fournisseurs) hors head-end vidéo qui ne sont pas chez Interxion. Nous obtenons 12 GWh avec la projection, ce qui valide le modèle.

Si on regarde la répartition de l’impact en gaz à effet de serre, nous avons la répartition suivante :

répartition de l’impact en gaz à effet de serre

Une grosse partie de l’impact provient de la fabrication des terminaux utilisateurs. Sur la partie réseau, la fabrication des Box (FAI, Satellite…) a, elle aussi, un impact non négligeable.

Axes d’améliorations pour limiter l’impact des services

Stratégie générale

Nous l’avons vu dans la partie réseau, l’efficience s’améliore. Il en est de même pour les terminaux. Mais d’autre part, la 4K va se généraliser, les réseaux vont continuer d’augmenter leur capacité et donc augmenter l’impact global de la consommation. En prenant une des hypothèses d’amélioration de 30% de l’efficience du réseau (Selon les tendances énoncées dans les études listées dans la partie  Réseaux de ce rapport) et d’une augmentation du débit moyen de 20% sur 3 ans ainsi que de 20% des heures visionnées, ainsi qu’un transfert de 75% des heures visionnées de toutes les interfaces vers celle de l’OTT, nous estimons une augmentation de l’énergie consommée de 39% et de l’impact des gaz à effet de serre de 23%. Cette projection simpliste permet de s’approcher d’une consommation plus réaliste dans 3 ans.

Pour compenser cette augmentation, et optimiser l’impact de la lecture vidéo, nous avons examiné l’impact des chantiers suivants menés par Canal+ :

  1. Passage d’un encodage H264 à HEVC
  2. Passage au multicast pour le live
  3. Passer l’encodage audio AAC en AC4
  4. Renforcer le downsizing du bitrate
  5. Améliorer l’interface et la couche logicielle
  6. Aider l’utilisateur sur son impact numérique

Ces chantiers ne sont pas exhaustifs. D’autres axes de progression possibles ont été identifiés qui pourront être lancés ultérieurement par Canal+.

Les mesures, estimations et modélisations qui nous ont permis d’obtenir l’impact global ont été utilisées pour chiffrer les gains estimés.

Note sur l’optimisation des serveurs vidéo :

La consommation d’énergie des serveurs vidéo est très faible, leur impact aussi, le matériel ayant une durée de vie élevée (10 ans). Plusieurs optimisations sont en cours d’études (passage en vidéo Just-in-Time entre autres). Cependant ces optimisations n’apportent que très peu de gain de bout en bout. Elles sont cependant nécessaires pour optimiser la gestion et réduire la taille de stockage (impact non pris en compte dans cette étude car faible). Des optimisations comme le passage en HEVC ont en effet un impact plus fort (ceci est confirmé par l’étude CONVINcE).

“The “Just In Time Transcoding” approach will allow to reduce the number of video representations stored in the CDN and thus its power consumption. This is an end-to-end approach to be compared to the global abovementioned one consisting in reducing the bandwidth of the network by using a most efficient encoding technology (HEVC/AVC).

Sur les CDN de la même manière, même si l’impact est faible, certaines actions comme l’augmentation du taux d’usage des infrastructures Canal+ (via un transfert des flux des CDN fournisseurs vers les CDN propres) va permettre d’améliorer l’efficience.

Passage d’un encodage H264 à HEVC

Le codec vidéo HEVC est environ 20% plus efficace que le H264, et de très nombreux équipements sont maintenant compatibles. Pour une projection à 3 ans des consommations, nous avons pris une augmentation de la part de marché des devices (Box, Smartphone…) compatibles HEVC.

Pour les utilisateurs qui sont sur le 1080p 5Mbits à date (34% des utilisateurs actuellement) comme pour les utilisateurs bridés à 720p pour raison technique (par exemple une limitation du réseau), une baisse de 20% de la consommation est attendue. Pour les autres utilisateurs compatibles 1080p, il n’y a pas de baisse de consommation, mais une augmentation de qualité avec une accroche de qualité supérieure.

Un nouveau format encore plus efficace commence à apparaitre (AV1), faisant gagner 20% supplémentaire. Cependant, de très rares équipements sont compatibles : la transition est largement prématurée, on ne gagnerait quasiment rien à date car le parc est quasi nul.

Passage au multicast pour le live

La diffusion en adaptative streaming hybride multicast/unicast pour l’OTT permettra de réduire très fortement l’utilisation de bande passante, et donc la consommation électrique.

Utilisable uniquement pour le live, elle permet de s’assurer qu’un unique stream est envoyé pour l’ensemble des clients jusqu’au point de livraison final. Ce chantier sera accompagné d’autres chantiers annexes comme le passage en packaging CMAF. Le format de packaging audio/vidéo CMAF permet d’avoir exactement les mêmes fichiers vidéo pour l’ensemble des plateformes.

Passer l’encodage audio AAC en AC4

Actuellement nous utilisons principalement de l’audio AAC, de 96kbits à 128kbits.

Le EAC3+ est à date largement compatible, et améliore la qualité audio à débit équivalent, tout en permettant le 5.1. Le passage en EAC3+ serait à débit fixe, sans espérer économiser de la bande passante (alors que 20% plus efficace que EAC3+).

En revanche le nouveau format AC4 est 50% plus efficace que le EAC3+, et permettrait de diviser par 2 le débit audio. Même si la part de vidéo est plus importante, les gains au niveau global ne sont pas négligeables.

Renforcer le downsizing du bitrate

À date, hormis en Afrique, ou en réseau cellulaire (pour ne pas vider l’abonnement du client), la qualité de la vidéo est adaptée. Sur PC, l’adaptation de la qualité est possible mais l’accès n’est pas forcément simple.

Rendre plus accessible la possibilité de réduire la taille par différents moyens (amélioration de l’interface, communication…) permettrait de rediriger une partie des utilisateurs vers une qualité moindre mais suffisante.

Compte tenu de l’augmentation des qualités vidéo et de celle de la performance des réseaux, le caping de la qualité par les utilisateurs des services Canal+ devrait représenter dans 3 ans un gain de 20% du débit moyen par rapport à celui qui est généré par un usage déplafonné.

Dans cet axe, plusieurs éléments n’ont pas été mis dans la projection de gain mais sont possibles pour aider l’utilisateur dans son impact. Par exemple les mesures Greenspector sur mobile montrent qu’il est préférable (dans des conditions favorables comme le wifi) d’utiliser le téléchargement plutôt que le streaming. En effet, voici la comparaison pour une vidéo de 45mn (avec 5mn de téléchargement) :

Consommation d'énergie d'un streaming vidéo vs d'un téléchargement et lecture vidéo

Ceci s’explique en partie par le fait que lors de la visualisation de la vidéo téléchargée, la cellule radio n’est pas sollicitée alors qu’elle l’est beaucoup plus lors du streaming.

Améliorer l’interface et la couche logicielle

Une partie de l’impact de la visualisation d’une heure de vidéo provient de l’interface. En effet, visualiser le catalogue, gérer les abonnements (via des API), traiter les playlists… sont des fonctions nécessaires. Les mesures Greenspector ont montrées que cela pouvait représenter 10% de la consommation des terminaux :

Améliorer l’interface sur toutes les plateformes (smartphone, PC…) permettrait donc d’obtenir des gains non négligeables. Il permettrait aussi au-delà de la réduction de l’impact de limiter l’exclusion de certaines personnes ainsi que l’obsolescence des plateformes.

Parmi les actions identifiées :

  • Passage en dark mode
  • Réduire l’impact globalement de la couche logicielle
  • Améliorer l’UX
  • Limiter l’intégration de librairies tierces

Aider l’utilisateur sur son impact numérique

Une grosse part de l’impact de la lecture de la vidéo n’est pas liée directement à la lecture de la vidéo. Canal+, par son auditoire large, peut agir en sensibilisant les utilisateurs à l’impact du numérique. Si une part des utilisateurs prend en compte ces actions, l’impact peut être réduit. Parmi ces actions :

  • Prolongation de la durée de vie du matériel de l’utilisateur,
  • Usage Ethernet plutôt que Wifi, plutôt que 4G,
  • Extinction du matériel hors usage.

Résultats

Voici la projection des différents gains sur l’énergie :

Les améliorations compensent l’augmentation de la consommation d’énergie et permettent même un gain de 14% par rapport à la situation actuelle.

Pour l’impact en gaz à effet de serre, nous obtenons un gain de 8%.

Pour réduire de 30% l’impact Carbone des activités de streaming pour Canal+, les pistes sont nombreuses, ainsi les actions mises en place permettront de faire un gain de 26% sur l’empreinte environnementale des services et en particulier -31% pour la consommation en OTT seule.

Conclusion – à retenir

Cette étude possède des incertitudes sur l’usage futur, sur les facteurs d’émissions de chaque élément ainsi que sur les gains potentiels. Cependant l’objectif est de challenger les choix, ou même d’en écarter (certaines actions non listées dans ce document ont par exemple été déjà écartées), s’ils n’avaient pas de gain. Une des premières actions est de pouvoir se mesurer pour s’améliorer. C’est le but de cette phase. Maintenant vient celle de l’amélioration.

L’intérêt environnemental des chantiers identifiés par Canal+ a été confirmé. Leur mise en œuvre permettra de compenser les effets de la croissance des usages, voire même davantage, dans les années qui viennent.

Les conclusions de cette évaluation évolueront avec de nombreux paramètres technologiques mais en synthèse :

  • Travailler sur les formats de compression vidéo et audio dans le respect de la prise en compte de nouveaux formats optimisés par les constructeurs.
  • Optimiser la consommation des fonctionnalités utilisateur pour accéder aux contenus.
  • Impliquer / orienter les utilisateurs dans les choix en fonction du contexte d’usage (streaming, type de réseau, format d’écran du device, …) et les amener à prolonger la durée de vie du matériel pour réduire l’impact.
  • Mettre en œuvre la diffusion en adaptative streaming hybride multicast/unicast pour l’OTT pour réduire très fortement l’utilisation de bande passante et de consommation d’énergie.
  • Poursuivre les mesures de bout-en-bout pour éviter des décisions futures qui déplacent l’impact sans le réduire.

Pierre-Emmanuel Ferrand, Chief Digital Officer chez CANAL+

Témoignage

– Comment cette démarche d’évaluation et d’amélioration s’inscrit-elle dans la stratégie du Groupe ?

CANAL+ est ancré dans son époque. Nous avons décidé de nous engager davantage sur un enjeu majeur de notre époque, cher à nos abonné·es et utilisateur·rices de myCANAL : la protection de notre environnement.CANAL+ a très tôt été précurseur dans des démarches écoresponsables.Au niveau des décodeurs tout d’abord. En plus du modèle locatif des décodeurs très vertueux du point de vue de l’économie circulaire, Canal+ a organisé dès 1988 la récupération des anciens décodeurs afin d’assurer leur remise en service ou leur recyclage.Par ailleurs, en tant qu’éditeur, nous avons réalisé des productions éco-responsables dont des séries qui ont été exemplaires sur ce sujet, Baron Noir, L’Effondrement et plus récemment OVNI(S). 

– Quels principaux enseignements/apports tire-t-on de ces travaux (sur la conception des services) ?

Ces travaux nous permettent tout d’abord d’identifier les projets techniques à prioriser pour minimiser le plus fortement le bilan carbone de la consommation vidéo de myCANAL. En parallèle, les enseignements nous orientent sur les messages de sensibilisation à relayer auprès de nos utilisateur·rices, au long de nos prochaines évolutions. Cet engagement de coopération entre nos développements techniques et nos utilisateur·rices est la clé pour une consommation moins impactante pour l’environnement. 

– Quel rôle tiennent les utilisateurs et utilisatrices ?

La protection de l’environnement est pour elles et eux une priorité. Leur rôle est central dans notre approche. Notre enjeu est de leur proposer une plateforme offrant les meilleurs contenus et la meilleure qualité vidéo, adaptée à leur matériel et leurs capacités de réception afin de réduire les effets sur l’environnement. En les sensibilisant et les accompagnant dans les gestes responsables, ils pourront eux aussi s’engager, comme ils le font dans d’autres domaines pour une société plus éco-responsable.

Intégrer un service tiers : est-ce dangereux pour la vie privée de vos visiteurs, quel impact pour l’environnement ? Le cas Youtube

Reading Time: 5 minutes

L’intégration de service tiers permet d’ajouter rapidement une fonctionnalité sur un site comme une vidéo ou l’intégration d’un réseau social (voir le cas de l’intégration Twitter). Les fournisseurs de ces outils ont travaillé pour que l’intégration technique soit simple et rapide. Et la technique est au rendez-vous. Mais à quel prix ?


Consommation d’énergie du service tiers Youtube

Nous observons sur nos mesures une augmentation de ce type de service tiers et des surconsommations anormales. C’est le cas de nombreux sites voire même de sites gouvernementaux.  

L’intégration de YouTube est un bon cas d’étude pour expliciter cet effet. En seulement quelques lignes, il est possible d’afficher une vidéo sur n’importe quel site : 

<iframe width=”560″ height=”315″ src=”https://www.youtube.com/embed/WoQHxxxxxxx-E?rel=0″ frameborder=”0″ allow=”autoplay; encrypted-media” allowfullscreen></iframe>

Mais quel est le résultat en termes d’impact chez l’utilisateur ? Voici le résultat que nous obtenons en termes de consommation d’énergie sur un smartphone Nexus 6 :

Consommation d'énergie du services tiers Youtube

Référence : Vitesse de décharge en uAh/s du téléphone (OS, Navigateur…)
Loading : Vitesse des 20ères secondes de chargement
Idle Foreground : Vitesse du site inactive en premier plan
Scroll : Vitesse lors que l’utilisateur scroll / défile en bas de page
Idle Background : vitesse de décharge quand le navigateur (et donc le site) est en tâche de fond

Il s’agit d’un site gouvernemental. Les vitesses de décharge dépassent nos seuils pour beaucoup d’étapes. Pour le chargement, la vitesse est plus de 2 fois celle de référence. Pour l’idle foreground ou phase d’inactivité en premier-plan, la consommation devrait être identique à celle de référence. Cette consommation est anormale pour un site qui semble assez léger.

Process CPU du services tiers Youtube

On voit que le process CPU de Chrome monte à 10% toutes les secondes. Cela explique la surconsommation d’énergie. En profilant les appels JavaScript dans les outils de développement, nous observons des traitements issus de base.js qui sont issus du framework YouTube :

Javascript framework Youtube

À noter que ce traitement impacte aussi le scroll et le chargement. Est-ce un fonctionnement attendu ? Un bug ou une mauvaise implémentation ? Nous n’avons pas été jusque-là dans l’analyse.

Quand on regarde le chargement de la page, sur 1,2Mo, près de 600 ko sont utilisés pour le plugin YouTube. 50ko de CSS et 550ko de Javascript. Au traitement nécessaire, il faut ajouter l’usage important de CPU pour parser et exécuter les scripts.

Point notable : Aucune vidéo n’apparait sur cette page. L’intégration du plugin est surement nécessaire pour une autre page. Cela rend le gaspillage encore plus critique, cela est d’autant plus embêtant que le site testé est public et largement utilisé : Impots.gouv !


Bonnes pratiques d’intégration d’une vidéo

1 – Intégrer directement la vidéo sans services tiers

Il est possible d’utiliser des solutions libres et sans plugin. L’intégration via HTML5 est native : Introduction à la balise vidéo de HTML5.

2 – Intégrer une image

Afficher une image avec le même rendu que la vidéo permet de réduire à 1 requête. Si l’utilisateur clique sur la vidéo, alors les scripts seront chargés et la vidéo lancée, du lazy loading en fin de compte.

Nous avons par ailleurs fait l’exercice sur une page de notre site web Greenspector :

Sur l’une de nos pages “Étude de cas” était intégrée une vidéo YouTube. Nous avons remplacé cette intégration par l’affichage d’une image (ci-contre) représentant l’ancienne vidéo intégrée. Cette modification nous a permis de passer d’un écoscore Greenspector de 59/100 à 75/100 caractérisé par un gain en énergie de -12% en étape de chargement, de -10% en Idle et -15% en scroll.

Page avec vidéo intégrée
Page avec image

3 – Intégrer le plugin uniquement sur la page voulue

Une solution pas idéale mais préférable à l’existant, est de faire appel uniquement aux scripts que lorsque la page nécessite une vidéo.

Que cela va-t-il permettre de gagner ?

Tout d’abord la performance. Une grosse partie des traitements liés aux temps d’attente des sites est dédiée aux services tiers. C’est encore plus vrai pour le plugin YouTube. Sur le site audité, la taille peut être diminuée par 2 et le temps de chargement réduit d’au moins 30%.

La consommation d’énergie sera aussi réduite et d’une manière encore plus importante que la taille des données ou la performance. En effet, en plus de l’économie d’énergie du chargement, la consommation en idle ou phase d’inactivité sera réduite.

Bonus : vie privée de l’utilisateur

L’autre problème de ce type de projet est l’usage de tracker et de récupération de données utilisateur. Ne pas intégrer un services tiers permet de résoudre des potentiels problèmes de fuite de données et de non-respect RGPD. Au passage, le plugin YouTube permet une version a priori sans cookie via l’appel à l’URL : https://www.youtube-nocookie.com.

Comme tout service tiers, cela n’est pas si simple. Même avec cette intégration de no-cookie, des données utilisateurs sont stockées :

Données utilisateurs cookies Youtube

Le site audité n’est donc pas compatible RGPD ! Pour gérer cela, il faut demander le consentement à l’utilisateur explicitement :

Fenêtre de consentement

La solution de la vidéo hébergée ou de l’image statique permettra aussi de gérer cela.


Conclusion

Si l’intégration d’une vidéo est nécessaire, réfléchissez-y tranquillement et prenez en compte les impacts sur la consommation de ressources et la RGPD. Il existe des solutions techniques plus respectueuses de l’utilisateur, elles sont dans un premier temps peut-être un peu plus complexes à mettre en place, cependant les solutions vont naturellement devenir plus simples et répandues.

Faut-il limiter les données qui transitent sur internet pour réduire l’impact du numérique ?

Reading Time: 11 minutes

TL;DR

Le débat fait rage actuellement sur l’intérêt ou non de limiter la consommation de données des utilisateurs web. Et derrière cette question, celle de la nécessité de passer ou non à la 5G, celle-ci amenant à des débits plus importants. 

Les défenseurs d’une limitation argumentent que cela réduirait la consommation d’énergie et l’impact du numérique, les défenseurs pour la poursuite des évolutions technologiques (et généralement aussi de la non limitation de la bande passante) argumentent que l’amélioration constante des technologies compenserait les effets négatifs du numérique. 

Comme dans tout débat, les deux parties ont des arguments valides. Tentons d’analyser en quoi la réponse n’est pas si simple ! 

Disclaimer : En tant que professionnel de l’IT et de la sobriété numérique, notre objectif est de fournir des données claires et factuelles sur l’impact du numérique et son évolution. Le numérique sert à aider la société sur d’autres domaines mais ce n’est pas une raison pour ne pas optimiser et réduire l’impact du numérique. Plusieurs études montrent qu’il est nécessaire d’agir, sans quoi la tendance pourrait être encore plus néfaste. 

Empreinte carbone de l’électricité des technologies de communication 2010 - 2030

La question n’est pas de savoir si telle ou telle projection est bonne mais comment agir pour être dans le meilleur des cas. 


1. Amélioration des datacenters

Il est prouvé que l’efficacité globale des infrastructures s’est améliorée ces dernières années.

L’étude IEA a été reprise de nombreuses fois sur les réseaux en argumentant que la consommation d’énergie des centre de données est faible et s’est améliorée énormément ce qui a permis d’absorber l’augmentation du trafic. 

Tendances mondiales du trafic Internet, des charges de travail des centres de données et de la consommation d'énergie des centres de données, 2010-2019

Il y a en effet eu énormément d’amélioration de l’efficacité par différentes actions : consolidation et virtualisation, amélioration des flux d’air… Les coûts énergétiques étant fixes, la consommation d’énergie et aussi l’impact de ces infrastructures n’ont pas augmenté. 

Une nouvelle étude confirme cette tendance à l’amélioration mais montre aussi l’augmentation importante en termes de consommation d’énergie qui s’est produit avant 2010 (la fenêtre utilisée par l’IEA) : augmentation de 4% entre 2010 et 2014 mais après une augmentation de 24% les 5 années précédentes et 90% entre 2000 et 2005. 

On peut voir aussi cela sur le cas des US

Consommation d'électricité par composante d'utilisation finale, 2000 à 2006

On peut cependant moduler ce constat car on partait de loin : plus de serveur physique, aucune gestion des flux… Le plus gros des gains a donc été fait ces dernières années. L’amélioration de la capacité ne va pas aller au même rythme et il va certainement y avoir une augmentation nécessaire de la capacité des Datas center. Un exemple, la stagnation du PUE

Les gains d'efficacité énergétique des datacenters se sont stabilisés

Les opérateurs le prennent même en compte via une diminution du rythme d’optimisation plus faible.

evolutions et previsions des consommations d'électricite des data centers orange Gwh

Les projections des études scientifiques montrent des explosions de la consommation des Data center. Même si elles se basent sur des projections qui peuvent être discutées, l’augmentation est bien présente : 

Consommation d'énergie des centres de données dans le monde en milliards de kWh par an

Au final, on peut effectivement dire qu’il y a eu beaucoup d’améliorations mais on a tout à fait le droit de se poser des questions sur certains éléments : 

  • À quel coût CO2 s’est faite cette amélioration ? En effet, la construction de nouveaux Data center et le remplacement des anciens par de nouveaux serveurs plus efficients a eu un coût en termes de fabrication. Les études n’en parlent pas 
  • Il n’y a aucune métrique sur l’efficience des traitements. Quelle est l’évolution de coût côté Data center de l’affichage d’une page web, d’un traitement… ?
  • Ces courbes sont à mettre en face de la consommation de bout en bout (jusqu’à l’utilisateur). C’est ce que nous allons tenter de faire en partie dans la suite de l’article. 

2. Amélioration des réseaux

Il en va de même pour les infrastructures réseaux. Le ratio kWh/Go a largement diminué. Exemple du cas sur le réseau en Finlande.

Réseau Finlande

Il existe des critiques cependant sur ce mode de présentation de l’efficience (les Wh/Go) car la consommation de ces infrastructures est fixe. Consommer plus de données sur le réseau serait gratuit. C’est faux car, pour piloter l’efficience, cette métrique est utile en permettant d’affecter cette consommation à un usage. Et effectivement, plus on va consommer, plus cette métrique va diminuer. Deux conclusions s’imposent sur la base de cette analyse : 

1/ Oui l’efficience du réseau s’améliore 

2/ Oui, plus on utilise le réseau, plus on “rentabilise” la consommation fixe et les impacts environnementaux du matériel. 

Cependant cela pose le problème de la capacité du réseau. Lorsque le réseau est saturé, il est nécessaire d’ajouter des infrastructures. C’est ce qui se passe actuellement sur le réseau 4G. A certaines heures et dans certains lieux, les utilisateurs sont redirigés vers les réseaux 3G. La solution choisie est donc de passer à une autre génération de réseau qui va permettre d’absorber cette charge. 

Donc au final si l’efficience du réseau est vraie, elle ne doit pas être la seule métrique pour analyser le problème. Il est nécessaire de prendre aussi le paramètre de la capacité du réseau (mais aussi de la capacité de chaque réseau unitaire). Car sans cela le bénéfice de l’amélioration de l’efficacité des réseaux est annulé par l’impact du renouvellement trop fréquent de l’infrastructure du réseau. 


“Comme nous recherchons un ordre de grandeur en économie d’énergie, nous supposons que la diminution de 30% du volume de trafic dans le cœur de réseau induit une diminution du même ratio dans le dimensionnement du réseau et par conséquent une diminution de 30% de la consommation d’énergie dans le cœur du réseau IP.” 


Vous pouvez trouver ce raisonnement entre autres dans le projet de recherche Européen CONVINcE sur lequel Greenspector a travaillé avec des acteurs de l’infra et de la vidéo.   

“As we are looking for an order of magnitude in energysaving, we suppose thatdecreasing by 30% the traffic volume in the core network induces a decrease of same ratio in network dimensioning and consequently a decrease of 30% in energyconsumption in the core IP network.” 

Quant à l’impact environnemental du réseau, de la même manière que pour l’étude IEA, une courbe d’une étude ARCEP a été utilisée de nombreuses fois : 

ARCEP Emissions GES des opérateurs francais

C’est positif mais encore une fois, il manque certaines données pour bien analyser cette tendance et surtout elle ne prend pas en compte la tendance où une partie de l’impact environnemental est passée chez l’utilisateur avec l’usage des box internet. 

Car, comme on le verra plus loin, on observe un déplacement des traitements informatiques vers les utilisateurs. 


3. Amélioration des terminaux

De la même manière, les terminaux (PC, Smartphone, TV…) améliorent leur efficacité énergétique. La loi de Koomey le démontre.

Koomeys low graph made by Koomey

Cependant il y a un ralentissement notable (voir paragraphe suivant). Nous l’avons-nous-même constaté sur les smartphones sur la moyenne des sites que nous avons mesurés (6000 mesures depuis 2017). D’une part par ce ralentissement de l’efficience énergétique des processeurs mais aussi par une certaine lourdeur des logiciels. Un exemple dans l’évolution des benchs de processeur (qu’on peut aussi voir sur de nombreux autres types de bench).


4. Limitation de l’amélioration de l’efficience

« En 2016, la société Intel mentionne un ralentissement du rythme de miniaturisation des processeurs et, en conséquence, un écart à la loi de Moore »

L’amélioration de l’efficience qui est formulée par Koomey a une limite. Elle est liée en partie au ralentissement de la loi de Moore. 

« En 2016, la société Intel mentionne un ralentissement du rythme de miniaturisation des processeurs et, en conséquence, un écart à la loi de Moore » écrit le chercheur Jean-Gabriel Ganascia 

Cette limitation est aussi formulée par la loi de Laudauer : il est impossible physiquement d’atteindre une certaine efficience. Nous avons encore relativement une marge mais la tendance au ralentissement est déjà visible. Les tendances annoncées par les opérateurs de Data center (voir plus haut) le montrent bien. 

On voit déjà des limites sur certains composants : 

Cette même étude (issue de l’industrie des semi-conducteurs) annonce une explosion de la consommation d’énergie et une nécessité de continuer cette recherche d’efficience. On le voit cependant même avec cette efficience, la consommation totale due à l’informatique sera relativement importante par rapport à la production d’énergie mondiale. Discours différents par rapport aux personnes qui annoncent une consommation nulle de l’informatique !

L’approche optimiste est de dire que la R&D permettra de trouver des nouvelles approches. Cependant, à quel coût ? Et cela n’empêche pas de réfléchir à rentabiliser les technologies actuelles pour gérer ce futur plateau.  


5. Technologie logicielle

« Les programmes ralentissent plus vite que le matériel accélère » 

L’évolution de la technologie logicielle n’est pas souvent prise en compte dans les approches d’évaluation et de prospection. Le matériel étant le consommateur de ressource. Cependant le lien est faible entre les deux. 

Le logiciel ne suit généralement pas l’évolution du matériel, ou en tout cas, il le suit moins rapidement. C’est ce qu’énonce la loi de Wirth.

On peut le voir sur de nombreuses métriques des logiciels, sur des mesures empiriques mais il existe cependant peu d’étude qui démontre cette loi. Si on prend l’évolution de la taille des pages web ainsi que de la performance depuis 10 ans

Il y a effectivement une tendance à la surcharge. Tendance qu’on pourrait atténuer par rapport à l’amélioration du réseau cité plus haut. Pour calculer l’efficience, nous allons prendre le ratio d’énergie consommée pour transporter 1Mo de data. Nous allons aussi comparer ce ratio avec l’hypothèse de la médiane des pages des sites qui serait restée stable en volume de données par rapport à 2011 (soit 200Ko). Sachant que 200k est assez réaliste pour un site complet et utilisable. On peut même aller plus loin : voir le challenge 10k. On obtient alors : 

L’efficience réelle (matériel + logiciel) ne suit pas l’efficience du matériel. Si les tendances se poursuivent (>2020) alors on pourrait même avoir une efficience énergétique qui commence à se dégrader. 

En prenant la performance des processeurs vu plus haut (Single Threaded Integer Performance), l’évolution du chargement des pages web, et en considérant que la performance des pages web reste à 5 secondes en moyenne), les conclusions sont les mêmes : l’efficience est constante.

Ces analyses sont partielles, il serait nécessaire de prendre des indicateurs plus adaptés mais cela montre en partie que l’amélioration de l’efficience n’est pas si claire. 

La loi de Wirth semble confirmée dans de nombreux cas. Dans certains domaines spécifiques comme le calcul scientifique, la performance des traitements est proche du matériel, cependant dans de nombreux logiciels, on observe un écart. Une des raisons est bien souvent la non-prise en compte de la plateforme matériel lors du développement et le paradigme que les bytes n’ont pas d’impact. C’est faux ! Par exemple, la tendance du web a été d’utiliser énormément de JavaScript pour afficher les pages web. Or ces bytes transférées ont une part importante dans le poids des pages mais aussi dans l’efficience des traitements côté utilisateur. Le JavaScript devient en effet un des goulots d’étranglement de la performance sur mobile. Les CPU même si surpuissant, passent leur temps à charger, parser et exécuter le JavaScript.

JSS Processing for CNN.com

Ce phénomène est très bien expliqué dans l’article The Cost of Javascript. Le résultat est une explosion de l’énergie par un usage intensif de cycle CPU ainsi qu’un ralentissement des performances et un sentiment d’obsolescence de la plateforme par l’utilisateur.


Effet rebond

Nous ne traiterons pas ici de l’effet rebond en termes d’usage. C’est un aspect en effet très discuté qui prend en compte du social, des analyses prospectives… Cependant nous pouvons, d’un point de vue technique, observer un effet rebond issu de l’amélioration des technologies : celle de l’ajout d’informations annexes aux services qui sont purement nécessaire à l’utilisateur. Par exemple, on peut citer : l’ajout de services annexes tels que la publicité, les trackers…  

Effet rebond

La part de JavaScript pris par les services “annexes” est importante et dépasse celle du JavaScript utilisé pour le service primaire. Ceci a été rendu possible, entre autres, par certaines capacités techniques : intégration de script facilitée, bande passante le permettant…

Et alors ?

Afin de prendre les bonnes décisions, il est important de prendre du recul et surtout de regarder les tendances. Il est clair que ces dernières années en informatique ont vu arriver une amélioration notable des infrastructures matérielles, des Data center aux terminaux. Cela a permis de nouveaux usages mais aussi de nouvelles pratiques de développement. La frénésie de développement de solution ne s’est pas forcément accompagnée d’une optimisation, les technologies, offrant de génération en génération plus de puissance, plus de bande passante, l’optimisation semblait pour certains un surcoût inutile. Cette optimisation s’est cependant faite dans beaucoup de cas pour des raisons économiques : réduire la facture électrique du Data center, optimiser l’usage d’une infrastructure réseau. Cette optimisation n’a pas été systémique mais plutôt unitaire, au détriment souvent de certaines parties comme les terminaux.  

Cela a amené un retard entre l’efficience réelle des plateformes et leurs capacités. L’affichage des sites en 5 secondes avec 8 CPU et de la 4G sur des téléphones en est l’exemple. Ce n’est qu’une accélération de la loi de Wirth en fait. Les plus optimistes et je dirais technophiles ont comme position que les évolutions technologiques, associées à des meilleurs outils logiciels permettront de garder une performance suffisante. Cela pourrait être une solution cependant elle a des contreparties : elle va dans le sens d’un renouvellement assez rapide des plateformes, en particulier, côté utilisateur, et donc d’un impact environnemental plus important. Elle ne va pas de plus dans le sens de pratiques vertueuses : les tailles des sites et des logiciels vont continuer de grossir. La performance sera constante voire améliorée sur les nouvelles plateformes et cela exclura les utilisateurs qui veulent garder des anciennes plateformes. A moins de le gérer dans les logiciels (comme par exemple l’apparition de version lite), approche peu probable car coûteuse et applicable uniquement par les Big Tech. L’approche optimiste se base sur des évolutions technologiques futures. Or on le voit avec la loi de Laudaeur, il y a une limite. Nous avons encore peut-être quelques années, mais la dette grandit. 

Dans ce cadre, la 5G ne va pas forcément dans le bon sens car elle va permettre de charger plus de données, plus rapidement et donc de ne pas avoir à optimiser les logiciels et même de rajouter des services tiers. Il est pourtant clair que la 5G a des avantages technologiques qui permettraient en partie d’améliorer l’efficience du système global. Mais sans garde-fou, nous allons continuer comme nous l’avons toujours fait avec les différentes technologies : toujours plus sans penser à l’optimisation

Dans ce cadre, la mise en place d’incitation ou de contrainte est nécessaire pour freiner cette course à l’armement. La limitation de la bande passante est une approche intéressante car elle va permettre d’avoir un budget data qui pourrait être répartie. En limitant la taille des sites web par exemple, il sera nécessaire d’optimiser des choses : optimisation technique des librairies, suppression de services tiers, suppression du superflu… La limitation des données est dans ce cadre un axe qui permettra de limiter la consommation d’énergie (en particulier chez l’utilisateur) mais sera surtout un axe pour éviter une obsolescence des plateformes, et au final un axe pour maitriser, voire réduire l’impact du numérique. 

Nous travaillons depuis longtemps avec certains de nos clients dans le sens de l’optimisation en leur offrant des moyens de mesure et d’amélioration sur la réduction de la consommation d’énergie mais aussi de données, de traitement CPU… Cependant la résistance au changement des organisations, l’état de l’art et les pratiques du développement logiciel, les priorisations business… font que ces optimisations ne seront à long terme pas suffisantes pour rattraper le retard que l’on prend au niveau global de l’industrie IT. Les acteurs engagés sont des précurseurs, cependant pour que tout le secteur s’améliore réellement, la contrainte semble inévitable…à moins que la prise de conscience et le passage à l’action arrivent demain

Quels sont les meilleurs navigateurs web à utiliser en 2020 ?

Reading Time: 8 minutes

Le navigateur internet est l’outil primordial sur un appareil mobile. Il est le moteur pour naviguer sur internet. Plus uniquement pour les sites web mais aussi maintenant pour les nouveaux types d’applications basées sur les technologies web (progressive web app, jeux,…).

Dans notre classement des 30 applications mobiles les plus populaires, parmi les catégories mails, messageries directes, réseaux sociaux, navigateurs, etc., la navigation web et les réseaux sociaux sont en moyenne plus consommateurs que les jeux ou les applications multimédia. Le rapport serait même de 1 pour 4 entre les applications les moins et les plus énergivores.

Diminuer l’impact environnemental de sa vie numérique ainsi qu’augmenter l’autonomie de son téléphone passent en partie par le choix d’un bon navigateur. Au même titre que si l’on souhaite réduire l’impact de son mode de transport, il est important de prendre le véhicule le plus efficient.

L’année passée nous avions publié le classement 2018 des navigateurs les moins énergivores, nous vous proposons la nouvelle édition pour 2020, plus complète, réalisée à l’aide de notre laboratoire GREENSPECTOR.

Classement global

La note sur 100 des navigateurs est la suivante :

La moyenne des notes est de 36/100 ce qui est assez médiocre. Elle s’explique par des notes basses pour chacune des métriques.
Les trois navigateurs les moins énergivores sont : Vivaldi, Firefox Preview, Duck Duck Go.

Consommation d’énergie globale (en mAh)

La médiane est de 47 mAh et une grande partie des navigateurs se situent dans cette consommation (8/18 sont dans le 2ème quartile).
À noter que les 3 derniers navigateurs dans le classement se différencient par une consommation 75 % plus élevée que la médiane. Firefox, Qwant et Opera Mini sont en effet très énergivores.

Consommation d’énergie de la navigation (en mAh)

Les 3 derniers navigateurs du classement global (Opera Mini, Firefox et Qwant) ainsi que Mint consomment énormément plus que la moyenne des autres navigateurs (entre 20 et 35 mAh contre 16 mAh).

Autant dire que pour la plupart des navigateurs (mise à part les exceptions précédentes), la navigation pure ne va pas être la raison de la différence de consommation globale. Ceci s’explique principalement sur l’usage des moteurs de visualisation. La plupart des navigateurs utilisent le moteur Chromium. Pour Opera Mini, la spécificité est qu’un proxy est utilisé et permet de compresser la taille des sites. Il semble que cela ne soit pas bon pour l’énergie, en effet la décompression sur le téléphone de l’utilisateur consomme de l’énergie.

Pour Firefox, la surconsommation d’énergie est une chose connue et partagée, c’est l’une des raisons pour laquelle Mozilla est en cours de développement d’un nouveau navigateur. Nom de code interne Fenix et public Preview. Les mesures dans ce classement sont plutôt encourageantes sur la consommation (dans la moyenne).
Pour Qwant, ceci s’explique par l’usage du moteur Firefox ! Les mesures entre Qwant et Firefox sont en effet très proches.

Consommation d’énergie des fonctionnalités (en mAh)

La fonctionnalité principale qui est la navigation sur le web nécessite d’autres fonctionnalités toutes aussi importantes : ouvrir un nouvel onglet, entrer une adresse dans la barre des tâches… À cela se rajoute la consommation d’énergie de la page d’accueil du navigateur. En effet, lorsque l’on ouvre un nouvel onglet, chaque navigateur propose des fonctionnalités différentes : sites web principalement utilisés, dernières actualités, …

Là où les navigateurs se différencient globalement peu sur la navigation pure, on observe des différences importantes dans la consommation d’énergie sur les autres fonctionnalités avec un rapport de plus de 3 (entre 4 mAh et 12 mAh).

À noter que les 3 premiers (Firefox Focus, Firefox Preview et Duck Duck Go) ont une page d’accueil simple. La consommation du navigateur en Idle (inactivité) est alors très faible. La sobriété fonctionnelle en paye les conséquences !

Les consommations lors du lancement des navigateurs sont assez similaires entre-elles. On remarque cependant que l’ouverture d’un onglet et l’écriture d’une URL sont des actions qui sont réalisées plusieurs fois. Si l’on prend une projection journalière de 30 nouveaux onglets et 10 écritures d’URL, on observe encore plus la différence entre les navigateurs et la large avance de Firefox Preview et Focus !

Les fonctionnalités de bases ne sont donc pas négligeables dans la consommation globale du parcours.

Projection d’autonomie (en nombre d’heures)

Si l’on prend ces données d’énergie et qu’on les projette pour une navigation de plusieurs sites web, on identifie le temps maximum que l’utilisateur peut naviguer jusqu’à décharge complète de sa batterie :

Consommation de données (en Mo)

La différence de consommation de données entre navigateurs (8 Mo d’écart) s’explique par la navigation pure et par les différentes fonctionnalités.

Sur la navigation, on explique cette différence :

Certaines applications ne gèrent pas du tout le cache pour des raisons de protection et de confidentialité des données (Firefox Focus) l’usage de proxy qui optimise les données (Opera Mini)une différence d’implémentation de la gestion du cache.

Il est en effet possible que certains navigateurs invalident le cache et que des données soient chargées alors qu’elles sont en cache.

Des consommations de données annexes se poursuivent en tâche de fond (idle des onglets, données en arrière-plan non bloquées…) des différences de performance de téléchargement qui viennent augmenter la durée de la mesure. En effet, si un navigateur est performant, la contrepartie est que beaucoup plus de données sont potentiellement chargées en arrière-plan.

La différence de consommation globale s’explique aussi par la consommation de données des fonctionnalités de base :

Beaucoup de navigateurs sont très consommateurs. On note les 3 Mo de Qwant qui semblent anormaux !
On peut considérer que pour les navigateurs, cette consommation doit être proche de 0. En effet, la principale fonctionnalité d’un navigateur est d’afficher une site web, toute fonctionnalité (et consommation associée) peut être considérée comme une « surconsommation ».
Dans ce cadre, beaucoup de navigateurs consomment des données lors de l’écriture de l’URL. Ceci s’explique principalement par les fonctionnalités de proposition d’URL. Il y a en effet des échanges entre le mobile et les serveurs, soit directement par le navigateur, soit par le moteur de recherche associé.

Par exemple, pour le navigateur Yandex ci-dessous, le détail des échanges de données lors de l’écriture d’une URL montre plus 400 Ko de données échangées.

À l’opposé, ci-dessous, les échanges pour Brave sont frugaux avec moins de 2 Ko.

Performance des navigateurs (en seconde)

Les mesures nous permettent d’évaluer la performance des fonctionnalités :

Lancement du navigateur

Ajout d’un onglet

Écriture d’une URL

Suppression du cache

Bench Mozilla Kraken

NB : Cette étude n’évalue pas la performance d’affichage des sites web. Par contre le Bench Mozilla Kraken le permet en partie en évaluant les fonctionnalités des navigateurs.

Efficience des navigateurs (en mAh/s)

Nous pouvons évaluer l’efficience des navigateurs en prenant la performance du bench Mozilla Kraken et l’énergie associée. L’efficience est la consommation d’énergie par unité de temps :

Samsung, Opera Mini et Opera sont les navigateurs les plus efficients. Ce classement est différent de celui de la consommation d’énergie globale. Pour Samsung Internet, cette première place en terme d’efficience sur un matériel Samsung peut s’expliquer par le lien optimisé que peut avoir le constructeur avec un logiciel pré-installé. Le navigateur Opera a un beau positionnement (2ème pour la consommation globale et 3ème pour celle de l’efficience).

Piste d’améliorations

Il est possible d’améliorer la consommation de la navigation.

Pour l’utilisateur :

Choisir un navigateur efficient

Utiliser les marques-pages ou favoris afin d’éviter de passer par la barre de saisie

Configurer les options d’économie d’énergie des navigateurs (mode ou thème sombre, data server…)

Pour les développeurs de sites :

Éco-concevoir leur site

Tester et mesurer sur différents navigateurs pour identifier des comportements différents et les prendre en compte

Pour les éditeurs de navigateurs :

Mesurer la consommation d’énergie et l’efficience

Éco-concevoir les fonctionnalités

Réduire la consommation de ressources des fonctionnalités récurrentes (écriture d’url, nouvel onglet…)

Rendre la page d’accueil la plus sobre possible.

Protocole de mesure

Les mesures ont été réalisées par le laboratoire GREENSPECTOR sur la base d’un protocole standardisé : Smartphone Samsung S7, Android 8, Wi-Fi, luminosité 50%. Entre 4 et 8 itérations ont été réalisées et la valeur retenue est la moyenne de ces mesures. Les campagnes de mesure respectent un scénario permettant d’évaluer les navigateurs dans différentes situations.

Évaluation des fonctionnalités

Lancement du navigateur

Ajout d’un onglet

Écriture d’une URL dans la barre de recherche

Suppression des onglets et nettoyage du cache

Navigation

Lancement de 6 sites et attente pendant 20 secondes pour être représentatif d’un parcours utilisateur

Benchmark navigateur

Le benchmark Mozilla Kraken permet de tester la performance JavaScript

Évaluation des périodes d’inactivité du navigateur

Au lancement (cela permet d’évaluer la page d’accueil du navigateur)

Après navigation

Après fermeture du navigateur (pour identifier des problèmes de fermeture)

Pour chaque itération, on réalise les tests suivants :

Suppression du cache et des onglets (sans mesure)

Première mesure

Deuxième mesure pour mesurer le comportement avec cache

Suppression du cache et des onglets (avec mesure)

Fermeture système du navigateur (et pas uniquement une fermeture par l’utilisateur pour s’assurer une réelle fermeture du navigateur)

La moyenne de mesure prend donc en compte une navigation avec et sans cache.

Les métriques principales analysées sont les suivantes : performance d’affichage, consommation d’énergie, échange de données. D’autres métriques telles la consommation CPU, la consommation mémoire, des données systèmes… sont mesurées mais ne seront pas affichées dans ce rapport. Contactez GREENSPECTOR pour en savoir plus.

Afin d’améliorer la stabilité des mesures, le protocole est totalement automatisé. Nous utilisons un langage abstrait de description de test GREENSPECTOR qui nous permet une automatisation poussée de ce protocole. Les configurations des navigateurs sont celles par défaut. Nous n’avons changé aucun paramètre du navigateur ou de son moteur de recherche.

Notation

Une notation sur 100 permet de classer les navigateurs entre eux. Elle se base sur la notation de 3 métriques principales :

MétriqueDéfinitionUnité
PerformanceDurée nécessaire au déroulement d’une étape de testsecondes (s)
ÉnergieVitesse de décharge de la batterie constatée sur l’appareil pendant le déroulement de l’étape de test, comparée à la vitesse de décharge de la batterie de l’appareil avant que l’application ne soit lancéeMesures en uAh/s, puis classement en multiples de la vitesse de décharge de référence
DonnéesVolume de données total (émises + reçues) pendant le déroulement de l’étape de testkilo-octets (ko)

Un ratio de pondération est appliqué sur les 5 niveaux des steps (de 5 pour les verts foncés à -1 pour les rouges foncés) comme décrit dans le tableau exemple suivant :

Le score de cette application est alors calculé à 61/100 pour la métrique énergie.
Une fois le score de chacune des trois métriques obtenu sur 100 points, le score total de l’application est calculé avec une pondération égale des trois métriques:
Score total = ( Score Performance + Score Énergie + Score Données ) / 3

Navigateurs évalués

Nom du navigateurVersion
Brave1.5.2
Chrome78.0.3904.108
Duck Duck Go5.32.3
Ecosia39632
Edge42.0.4.4052
Firefox68.3.0
Firefox Focus8.0.24
Firefox Preview2.3.0
KiwiQuadea
Lilo1.0.22
Maxthon5.2.3.3241
Mint37290
Opera54.3.2672.502
Opera Mini44.1.2254.143
Qwant37714
Samsung10.1.01.3
Vivaldi2.7.1624.277
Yandex19.10.2.116

Certains navigateurs ont été écartés car ne permettaient pas l’automatisation des tests. Par exemple les navigateurs UC Browser et Dolphin n’ont pas pu être mesurés. Au-delà de l’automatisation, cela est symptomatique d’un problème d’accessibilité de l’application. En effet pour améliorer l’accessibilité des applications pour les personnes avec des déficiences visuelles (entre autres), il est nécessaire de mettre en place des labels pour les boutons. L’automatisation que nous réalisons se base sur ces informations. Au final, ces navigateurs n’apparaissent pas dans le classement, mais on peut considérer que les problèmes d’accessibilité sont dans tous les cas un problème rédhibitoire.

Note : Le classement 2020 est difficilement comparable à celui de 2018. En effet, notre protocole ayant totalement évolué, les tests sont ainsi plus poussés et automatisés.
Découvrez notre dernière étude : le Playstore Efficiency Report 2019!

Les 12 règles à respecter pour le succès de votre application

Reading Time: 4 minutes

Dans un précédent article sur ce blog, nous vous avions présenté les 5 clés de succès d’une application mobile. Nous vous présentons aujourd’hui les 12 règles par indicateur métier à respecter qui feront le succès de votre application.

Inclusion

L’application doit être utilisable dans des conditions de réseau dégradées

L’application ne doit pas nécéssiter une version d’OS récente comme Android pour être utilisée. Certains utilisateurs ne suivent pas les mises à jour, volontairement ou à cause de leur plateforme qui ne leur permet pas. D’après notre “PlayStore Efficiency Report 2019“, seules 70% des applications sur le store sont compatibles avec toutes les versions d’Android.

L’application doit respecter les règles d’accessibilité et ne doit pas exclure des utilisateurs présentant des handicaps.

L’application doit aussi bien fonctionner sur des téléphones d’anciennes générations que sur les modèles récents et dernier-cri. Ce critère sera dégradé si vous ne respectez pas celui de la sobriété. 1/4 des applications du Google PlayStore exluent 10% des mobiles les plus anciens. (Source : PlayStore Efficiency Report 2019)

Sobriété

L’application doit limiter sa consommation d’énergie afin de ne pas vider la batterie de l’utilisateur. De plus en cas de consommation trop importante, le système va notifier l’application comme consommatrice à l’utilisateur. Certaines applications trop gourmandes peuvent réduire à moins de 3 heures l’autonomie des batteries. (Source : PlayStore Efficiency Report 2019)

L’application doit limiter sa consommation de ressources (nombre de CPU, mémoire occupée, données échangées) afin d’éviter toute lenteur ou pollution des autres applications (par exemple à cause de la fuite mémoire). 50% des applications du Google PlayStore continuent à effectuer des traitements après la fermeture de l’application. (Source : PlayStore Efficiency Report 2019)

L’application doit limiser sa consommation réseau afin de n’impliquer aucune charge sur les datacenters et ainsi éviter les surcoûts liés aux encombrements inutiles des serveurs.

Performance

Le premier lancement de l’application doit être rapide : sans cela, il est possible que vos utilisateurs n’aillent pas plus loin, le critère d’inclusion ne sera pas non plus respecté.

Les temps de chargement de l’application doivent être acceptables dans toutes les situations réseaux.

Discrétion

L’application ne demande peu voire aucune permission. Avez-vous réellement besoin de consulter la liste des contacts de votre utilisateur ? C’est d’autant plus important d’optimiser cela puisque plus de permissions il y aura, plus l’application consommera des ressources. Ce qui influencera donc de manière négative le critère de performance.

L’application n’intègre peu voire aucun traqueur. L’intégration d’une quantité importante de traqueurs va impliquer une consommation de ressource plus importante mais peut aussi provoquer des bugs. Ce constat est d’autant plus vrai que la connexion sera dégradée.

D’après notre “PlayStore Efficiency Report 2019“, les traqueurs, analytiques et permissions sont omniprésents (44% des applications en possèdent plus de 5).

Écologie

L’application doit respecter le critère de sobriété, l’impact CO2 lié à l’usage sera plus faible tout comme la pression des ressources sur les composants du matériel de l’utilisateur (usure batterie, perte de performance). De ce fait, l’utilisateur sera moins propice à renouveler son matériel, ce qui diminue le risque d’obsolescence. Notre dernière étude à d’ailleurs montré que les applications sur mobiles contribuent au minimum à 6% des émissions de CO2 du numérique.

Quelques pistes pour l’amélioration de son score GREENSPECTOR App Mark

Améliorer directement l’application

Plusieurs métriques sont évaluées par le GREENSPECTOR App Mark et directement améliorables.

Version minimum du SDK : autoriser des versions plus anciennes d’Android évite l’exclusion des utilisateurs possédant des plateformes d’anciennes générations.

Nombre de traqueurss : moins l’application va posséder de traqueurs, plus elle sera respectueuse des données de l’utilisateur ainsi que de la protection de sa vie privée. De plus, les traqueurs via les traitements et les échanges de données viennent augmenter la consommation de l’application.

Taille de l’APK : plus le binaire de l’application est gros, plus le réseau va être solicité et moins l’application sera efficiente. De plus, une taille d’application importante va utiliser l’espace de stockage limité de certains utilisateurs.

Données chargées : nombre de données chargées tout au long du parcours de test. Limiter ces données va permettre de réduire la consommation de ressources à la fois sur le smartphone et sur le réseau.

Données chargées en tâche de fond : lors que l’application n’est pas utilisée, elle doit limiter son impact et envoyer ou recevoir le moins de données possible.

Métriques plus globales

Certaines métriques sont directement liées à l’impact de l’application et à son efficience. Il est possible d’agir dessus via les métriques précédentes, voir par d’autres axes (optimisation fonctionnelle, amélioration du code source…)

CO2 : plus l’application va consommer de l’énergie, plus la batterie va être solicitée et va s’user. Cela risque de mener à un renouvellement prématuré de la batterie voire même du smartphone et donc à un impact environnemental plus élevé.

Surconsommation d’énergie : si l’application surconsomme, elle va augmenter l’impact environnemental mais aussi créer une gêne pour l’utilisateur en particulier sur la perte d’autonomie.

Performance après la première installation : les applications effectuent parfois des traitements supplémentaires lors du premier lancement, le temps de lancement sera donc parfois réduit. Il est nécessaire de limiter ses traitements car cette perte de performance peut être gênante pour l’utilisateur.

Performance : le temps de lancement de l’application est une donnée importante pour l’utilisateur. Il est nécessaire de le réduire au maximum tout en consommant le moins de ressources possible.

Performance en 3G : dans des conditions de réseau dégradées, il est nécessaire de maîtriser la performance. Il est même possible que certains utilisateurs n’aient pas accès à l’application dans le cas d’une performance dégradée.

Et maintenant ?

Vous vous demandez certainement où se situe votre application sur ces 5 axes. Est-elle plutôt vertueuse ? Court-elle des risques ? Comment est-elle classée par rapport à ses concurents ? Avez-vous des pistes de progrès rapides ? Si vous nous le demandez, nous vous le dirons ! Contactez-nous, et nous viendrons vous présenter notre diagnostic inclusif, sobre, rapide, écologique et discret – tout comme votre application très bientôt.

Mesurer la performance des applications mobiles : monitoring synthétique ou real user monitoring ?

Reading Time: 3 minutes

La “digitalisation” des entreprises et particulièrement l’offre de plus en plus importante d’applications numériques, rendent le critère de qualité des applications mobiles de plus en plus nécessaire. La performance est dans ce cadre un critère de contrôle obligatoire. Sans cela, les risques sont nombreux pour les concepteurs d’applications : désinstallations, taux d’attrition en hausse, échec de projet, chiffre d’affaires en baisse…

Mais le fait de tester la performance des applications mobiles n’est pas aussi simple que de tester une application classique comme en avait l’habitude les équipes des DSI. En effet de plus en plus, les applications mobiles sont d’une part exécutées dans un environnement contraint (en termes de batterie, ressources…) et d’autre part, elles intègrent des services tiers qui sont complexes à maîtriser. Au final, avec des serveurs répondant en moins de 200ms, on arrive très souvent à des temps de réponses des applications malheureusement supérieurs à 3s.

Pour répondre à ce problème, il est important de bien comprendre les méthodes utilisées par les outils de ce marché en constante évolution.

Outils de monitoring vs outils de développement

Tester la performance de son application reste possible et accessible, surtout avec les SDK et les IDE de développement (Xcode, Android Studio…). Pour aller plus loin, de nombreuses solutions sont disponibles en open source. Cependant, cette approche nécessite de lancer des tests manuels sur son téléphone.

Avantages :

  • Mesure de la performance pendant le développement
  • Analyse détaillée possible dès détection d’un problème

Inconvénients :

  • Mesure assez aléatoire et pas forcément reproductible
  • Nécessite un smartphone de test à disposition

Les outils de monitoring permettent d’industrialiser la démarche de mesure de la performance en se basant sur des agents qui prennent la place du développeur.

Outils de monitoring synthétique vs outil de monitoring en usage réel (Real User Monitoring)

Les outils de monitoring synthétique sont des outils qui testent la performance des solutions dans des cas d’usages proches de ceux d’un utilisateur. Pour cela, des agents extérieurs stimulent l’application dans un environnement soit simulé soit réel (Emulateurs ou fermes de devices). L’avantage de cette solution est de surveiller la performance en continu. Cette approche s’applique même avant la mise en production de la solution ou avant que les utilisateurs finaux soient présents.

Avantages :

  • Remontée de la performance avant la mise en production
  • Mesure en continue pour l’identification des problèmes

Inconvénients :

  • Simulation pas nécessairement représentative de l’usage réel de l’application par les utilisateurs finaux
  • Nécessité d’utiliser des devices en continu pour faire tourner le monitoring

Les outils RUM remontent la performance réelle des utilisateurs. Cela nécessite l’intégration d’un agent dans l’application. Cette intégration permet la remontée d’autres métriques : parcours utilisateur, usages de l’application…

Avantage :

  • Vision réelle de la performance des applications

Inconvénients :

  • Impact de l’agent sur la performance de l’application
  • Détection trop tardive des problèmes
  • Trop d’informations lors de l’analyse des problèmes

Tests techniques vs tests fonctionnels pour les outils de monitoring

La simulation de l’application dans les outils de monitoring nécessite des tests automatiques. La solution la plus simple à mettre en œuvre repose sur les tests techniques : Lancement de l’application, ouverture de pages…

Avantages :

  • Mise en œuvre immédiate
  • Tests standards permettent d’identifier facilement des problèmes ou de se comparer avec des applications concurrentes

Inconvénient :

  • Tests pas forcément adaptés aux spécificités et au fonctionnel de l’application
  • Certains outils proposent d’effectuer des tests fonctionnels pour suivre la consommation. Le parcours utilisateur est alors simulé ou réellement effectué. Cela nécessite de scripter les actions de l’utilisateur. Généralement les outils se basent sur des technologies de script standardisés.

Avantages :

  • Simulation proche du parcours réel de l’utilisateur
  • Mutualisation des tests développés pour d’autres usages (tests fonctionnels par exemple)

Inconvénient :

  • Nécessité de développer les tests automatiques au préalable

NB : Des outils permettent de simuler une suite de requête vers les serveurs. Cette pratique issue des technologies serveurs (par exemple Jmeter) permet de tester plus la partie serveur mais est peu adaptée à la mobilité. En effet, elle ne permet pas de prendre en compte la complexité des plateformes mobiles.

Environnement émulé ou physique

Les environnements émulés (ou virtuels) sont identiques aux émulateurs de développement.

Avantage :

  • Mise en place assez rapide

Inconvénient :

  • Performance ne correspondant pas à des devices réels

Les environnements réels sont des téléphones mis à disposition par les outils de monitoring.

Avantage :

  • Performance identique aux devices réels

Inconvénients :

  • Coûts plus importants
  • Difficulté d’être représentatif de l’ensemble des devices des utilisateurs.

Les conseils des experts GREENSPECTOR

La clé est de détecter au plus tôt les problèmes de performance avant qu’ils n’affectent vos utilisateurs finaux. Il est donc nécessaire d’utiliser des outils de monitoring synthétique. Les outils de développement permettront de compléter l’analyse des problèmes de performance. Afin d’être représentatif de l’usage final de l’application, il sera nécessaire de mettre en place la bonne stratégie : tests fonctionnels à minima, exécution sur un échantillon représentatif de devices réels d’utilisateurs, simulation de différentes conditions de communication… Les outils RUM permettront de confirmer et compléter les hypothèses.

Les utilisateurs de GREENSPECTOR ont la possibilité d’appliquer cette stratégie via différents modules :