Question d'origine :
Bonjour, Je cherche des études comparatives entre les réseaux informatiques P2P (peer-to-peer) et les réseaux classiques dits (client-serveur). J'aimerais savoir si pour un service donné (exemple: service VOD), un réseau P2P est-il plus ou moins gourmand en énergie. J'ai trouvé un ou deux pdf avec des thèses universitaires assez techniques mais rien de très parlant/concret. En vous remerciant d'avance. mes meilleures salutations.
Réponse du Guichet
gds_ctp
- Département : Equipe du Guichet du Savoir
Le 18/07/2019 à 15h05
Bonjour,
Malgré de longues recherches, nous n’avons pas trouvé plus d’éléments que vous.
On sait que l'impact environnemental d'internet est énorme. Le CNRS parle même de "gâchis énergétique".
“Environ 30 % de cette consommation électrique est imputable aux équipements terminaux – ordinateurs, téléphones, objets connectés –, 30 % aux data centers qui hébergent nos données et, plus surprenant, 40 % de la consommation est liée aux réseaux, les fameuses « autoroutes de l‘information ». « Beaucoup de gens pensent que les réseaux sont des tuyaux « passifs », mais ils sont constellés d’antennes et de routeurs, les aiguillages de l’Internet », explique Anne-Cécile Orgerie, chercheuse en informatique à l’Irisa (Institut de recherche en informatique et systèmes aléatoires). Tous ces équipements sont très gourmands en énergie : un simple routeur consomme 10 000 watts (10 kW), un très gros data center frise carrément les 100 millions de watts (100 MW), soit un dixième de la production d’une centrale thermique ! « Un processeur, c’est comme une résistance. Presque toute l’électricité qu’il consomme est dissipée en chaleur, détaille la chercheuse. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques. »
Autre particularité du Web, son « hyperdisponibilité » : toutes les infrastructures sont dimensionnées pour absorber les afflux de données liés aux pics d’utilisation, soit quelques heures par jour à peine, et demeurent sous-utilisées le reste du temps. « Si un routeur fonctionne à 60 % de sa capacité, c’est un maximum, estime Anne-Cécile Orgerie. Même chose pour les data centers, qui sont peu sollicités la nuit. Or, même inactifs, ces équipements sont très énergivores. » Ainsi, un serveur allumé mais inactif va consommer 100 W, contre 200 W au maximum s’il est en plein calcul. La différence entre ces deux états pour le routeur sera de quelques pourcents à peine… Pourtant, personne ne songe à éteindre – au moins en partie – ces équipements aux heures creuses. » »
Il existe aujourd'hui un énorme déséquilibre entre la consommation énergétique globale du p2p par rapport au client-serveur, notamment en raison de la place grandissante du streaming vidéo dans les pratiques d’internet :
« L’impact énergétique mondial du numérique est dû, pour plus de la moitié (55 %) au trafic de données, en constante augmentation, et qui est lui-même composé, à 80 %, de flux vidéo (les 20 % restants représentent les sites webs, les mails, la messagerie instantanée, le stockage de photos, mais aussi le peer-to-peer et les jeux vidéo).
L’impact des flux vidéo est donc considérable, et la plus grande partie est regroupée par le Shift Project dans la catégorie « vidéo en ligne » regroupant 4 grands types de contenus : VoD : Netflix, Amazon Prime, etc... (34 %), Pornographie (27 %), Tubes, c’est-à-dire à 95 % YouTube, et d’autres plateformes comme Dailymotion (21 %) et Autres, les vidéos hébergées par Facebook, Instagram, etc, et d’autres vidéos en ligne (18 %). »
(Source : usbeketrica.com)
Aussi, sans pour autant citer de rapports ou de chiffres précis, le site gouvernemental ordi3-0.fr note que le p2p s’inscrit par son histoire et sa philosophie dans le mouvement de l’internet et des logiciels libres, par nature centré sur le besoin de chacun et non sur la course à la performance et à la consommation :
« Il est encore à noter la performance accrue des logiciels qui exigent des machines de plus en plus puissantes et énergivores. Windows et Office de Microsoft excitent à l’excès, sans que cela soit toujours nécessaire, la puissance du processeur, la mémoire vive et l’espace disque en contraignant les consommateurs à acheter des ordinateurs, toujours plus puissants et adaptés à cette cadence de travail et donc, de plus en plus énergivores. Alors que des logiciels libres, plus légers permettent de faire durer les appareils (logiciels libres auxquels recourent habituellement les structures de l’économie sociale et solidaire qui assurent la rénovation des équipements de seconde main (cf. programme Ordi 3.0).
L’esprit dans lequel se développe les logiciels libres va de pair avec des valeurs et une philosophie centrée sur l’humain (et non la technologie) et les biens communs. Le modèle libre contribue au développement d’une informatique plus durable. L’esprit du libre inspire des domaines de la société qui recourent aux technologies du numérique, tels l’open hardware, l’open food, l’open data, l’open seed initiative, les creative commons (entre autre), poussent à la relocalisation de la production, à l’indépendance et à la créativité, tout en se focalisant sur les besoins réels des consommateurs, souvent intégrés dans le circuit de production.
Les logiciels libres permettent de limiter l’impact environnemental et la consommation énergétique du secteur informatique. Ils permettent :
• de meilleures optimisations techniques donc une meilleure efficacité énergétique ;
• de s’approprier une application et de la faire évoluer selon ses propres besoins, ce qui permet par exemple d’avoir une version plus légère d’un système d’exploitation et de faire tourner des applications sur des ordinateurs d’anciennes générations ou d’occasion.
• d’éviter les contraintes imposées par des éditeurs d’applications, qui incitent au renouvellement d’un matériel (qui pourtant fonctionne encore bien). »
Ce qui apparaît également, c’est que certains types de réseaux communautaires sont, par leur structure même, plus adaptés à un contexte de pénurie d’énergie :
« Dans un dernier billet intitulé Comment bâtir un internet low tech, [le journaliste et activiste décroissant Kris de Decker] regarde comment la connectivité est assurée dans les pays les plus pauvres, via des réseaux bien plus asynchrones que les nôtres. En observant comment se fait la connectivité là où elle n’est pas continue, peut-on apprendre à mettre en place une infrastructure de communication plus résiliente ?
Pour lui, les réseaux de basse technologie ont fait leurs preuves, mais n’ont pas reçu beaucoup d’attention, contrairement aux projets de Facebook ou Google visant à connecter le monde entier (voir « En quoi l’internet est-il un progrès ? »). La raison tient notamment du fait qu’ils sont mis en place par de petites organisations voir par les utilisateurs eux-mêmes. « Cela garantit un réseau ouvert qui profite à tous plutôt qu’à une poignée de sociétés ». Leur autre avantage est qu’ils sont très économes en énergie, notamment parce qu’ils sont le plus souvent basés sur le Wi-Fi, dont la portée est relativement courte. Mais il est possible de faire des connexions longues distances si les relais sont en ligne de mire ou via des réseaux maillés. De Decker rappelle que les premiers réseaux Wi-Fi ont été mis en place il y a 10 à 15 ans, à l’image du réseau Akshaya et AirJaldi en Inde, celui de la province de Loreto au Pérou… mais on en trouve aussi au Malawi ou au Ghana. De Decker rappelle aussi l’existence de réseaux communautaires dans les pays développés comme le réseau Guifi.net en Espagne (lancé en 2004, il compterait quelques 30 000 noeuds, et a un débit moyen de 2 Mbps), le réseau métropolitain d’Athènes en Grèce, le Funkfeuer en Autriche et le Freifunk en Allemagne (voir également la liste recensée sur Wikipedia).
Certes, concède de Decker, ces réseaux ne sont pas toujours très performants, souvent intermittents, mais leur tolérance aux retards est aussi une force qui diminue les coûts en consommation d’énergie et les rend adaptés aux énergies alternatives intermittentes comme les panneaux solaires ou les éoliennes. On trouve même parfois des « mules de données », c’est-à-dire des relais de transmission qui passent par des motos ou des voitures, comme c’est le cas des réseaux DakNet et KioskNet qui utilisent des réseaux de bus et de motos itinérants comme noeud de connexions, dans des régions très reculées (voir « Accès collectifs en milieu rural : le « far net » indien). On pourrait d’ailleurs évoquer le projet d’internet interplanétaire porté par Vinton Cerf, qui reposait sur des principes de communication assez proches (intermittence, résilience, asynchronicité, etc.), même s’il n’était pas vraiment le produit d’une pensée post-croissance.
Certes, les réseaux tolérants aux retards sont surtout adapté pour l’e-mail. Mais il existe d’autres applications dédiées pour ce type de réseaux. A l’image de moteurs de recherches qui désynchronisent le processus de recherche d’informations pour économiser la bande passante en proposant des résultats de requêtes similaires qui ont déjà été demandés. Des navigateurs tolérants aux retards permettent de télécharger des pages demandées, mais également des pages liées. D’autres sont optimisés pour retourner des résultats comprimés ou minimaux, à l’image de Loband, qui exclut les images, les vidéos, les publicités et les boutons de médias sociaux. Sans compter le développement de caches locaux stockant des pages déjà téléchargées…
Bien évidemment, les applications temps réels (téléphonie internet, streaming, messageries instantanées, vidéoconférences…) sont impossibles dans ce type de réseaux. Mais limiter ces usages consommateurs de ressource est justement l’effet recherché. Les données volumineuses pourraient être transmises via un sneakernet, c’est-à-dire directement via un support de stockage comme une clé USB ou un disque dur, à l’image des usages d’échange de musique en Afrique de l’Ouest qu’évoquait Christopher Kirkley à Lift 2013. »
(Source : lemonde.fr)
Bonne journée.
Malgré de longues recherches, nous n’avons pas trouvé plus d’éléments que vous.
On sait que l'impact environnemental d'internet est énorme. Le CNRS parle même de "gâchis énergétique".
“Environ 30 % de cette consommation électrique est imputable aux équipements terminaux – ordinateurs, téléphones, objets connectés –, 30 % aux data centers qui hébergent nos données et, plus surprenant, 40 % de la consommation est liée aux réseaux, les fameuses « autoroutes de l‘information ». « Beaucoup de gens pensent que les réseaux sont des tuyaux « passifs », mais ils sont constellés d’antennes et de routeurs, les aiguillages de l’Internet », explique Anne-Cécile Orgerie, chercheuse en informatique à l’Irisa (Institut de recherche en informatique et systèmes aléatoires). Tous ces équipements sont très gourmands en énergie : un simple routeur consomme 10 000 watts (10 kW), un très gros data center frise carrément les 100 millions de watts (100 MW), soit un dixième de la production d’une centrale thermique ! « Un processeur, c’est comme une résistance. Presque toute l’électricité qu’il consomme est dissipée en chaleur, détaille la chercheuse. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques. »
Autre particularité du Web, son « hyperdisponibilité » : toutes les infrastructures sont dimensionnées pour absorber les afflux de données liés aux pics d’utilisation, soit quelques heures par jour à peine, et demeurent sous-utilisées le reste du temps. « Si un routeur fonctionne à 60 % de sa capacité, c’est un maximum, estime Anne-Cécile Orgerie. Même chose pour les data centers, qui sont peu sollicités la nuit. Or, même inactifs, ces équipements sont très énergivores. » Ainsi, un serveur allumé mais inactif va consommer 100 W, contre 200 W au maximum s’il est en plein calcul. La différence entre ces deux états pour le routeur sera de quelques pourcents à peine… Pourtant, personne ne songe à éteindre – au moins en partie – ces équipements aux heures creuses. » »
Il existe aujourd'hui un énorme déséquilibre entre la consommation énergétique globale du p2p par rapport au client-serveur, notamment en raison de la place grandissante du streaming vidéo dans les pratiques d’internet :
« L’impact énergétique mondial du numérique est dû, pour plus de la moitié (55 %) au trafic de données, en constante augmentation, et qui est lui-même composé, à 80 %, de flux vidéo (les 20 % restants représentent les sites webs, les mails, la messagerie instantanée, le stockage de photos, mais aussi le peer-to-peer et les jeux vidéo).
L’impact des flux vidéo est donc considérable, et la plus grande partie est regroupée par le Shift Project dans la catégorie « vidéo en ligne » regroupant 4 grands types de contenus : VoD : Netflix, Amazon Prime, etc... (34 %), Pornographie (27 %), Tubes, c’est-à-dire à 95 % YouTube, et d’autres plateformes comme Dailymotion (21 %) et Autres, les vidéos hébergées par Facebook, Instagram, etc, et d’autres vidéos en ligne (18 %). »
(Source : usbeketrica.com)
Aussi, sans pour autant citer de rapports ou de chiffres précis, le site gouvernemental ordi3-0.fr note que le p2p s’inscrit par son histoire et sa philosophie dans le mouvement de l’internet et des logiciels libres, par nature centré sur le besoin de chacun et non sur la course à la performance et à la consommation :
« Il est encore à noter la performance accrue des logiciels qui exigent des machines de plus en plus puissantes et énergivores. Windows et Office de Microsoft excitent à l’excès, sans que cela soit toujours nécessaire, la puissance du processeur, la mémoire vive et l’espace disque en contraignant les consommateurs à acheter des ordinateurs, toujours plus puissants et adaptés à cette cadence de travail et donc, de plus en plus énergivores. Alors que des logiciels libres, plus légers permettent de faire durer les appareils (logiciels libres auxquels recourent habituellement les structures de l’économie sociale et solidaire qui assurent la rénovation des équipements de seconde main (cf. programme Ordi 3.0).
L’esprit dans lequel se développe les logiciels libres va de pair avec des valeurs et une philosophie centrée sur l’humain (et non la technologie) et les biens communs. Le modèle libre contribue au développement d’une informatique plus durable. L’esprit du libre inspire des domaines de la société qui recourent aux technologies du numérique, tels l’open hardware, l’open food, l’open data, l’open seed initiative, les creative commons (entre autre), poussent à la relocalisation de la production, à l’indépendance et à la créativité, tout en se focalisant sur les besoins réels des consommateurs, souvent intégrés dans le circuit de production.
Les logiciels libres permettent de limiter l’impact environnemental et la consommation énergétique du secteur informatique. Ils permettent :
• de meilleures optimisations techniques donc une meilleure efficacité énergétique ;
• de s’approprier une application et de la faire évoluer selon ses propres besoins, ce qui permet par exemple d’avoir une version plus légère d’un système d’exploitation et de faire tourner des applications sur des ordinateurs d’anciennes générations ou d’occasion.
• d’éviter les contraintes imposées par des éditeurs d’applications, qui incitent au renouvellement d’un matériel (qui pourtant fonctionne encore bien). »
Ce qui apparaît également, c’est que certains types de réseaux communautaires sont, par leur structure même, plus adaptés à un contexte de pénurie d’énergie :
« Dans un dernier billet intitulé Comment bâtir un internet low tech, [le journaliste et activiste décroissant Kris de Decker] regarde comment la connectivité est assurée dans les pays les plus pauvres, via des réseaux bien plus asynchrones que les nôtres. En observant comment se fait la connectivité là où elle n’est pas continue, peut-on apprendre à mettre en place une infrastructure de communication plus résiliente ?
Pour lui, les réseaux de basse technologie ont fait leurs preuves, mais n’ont pas reçu beaucoup d’attention, contrairement aux projets de Facebook ou Google visant à connecter le monde entier (voir « En quoi l’internet est-il un progrès ? »). La raison tient notamment du fait qu’ils sont mis en place par de petites organisations voir par les utilisateurs eux-mêmes. « Cela garantit un réseau ouvert qui profite à tous plutôt qu’à une poignée de sociétés ». Leur autre avantage est qu’ils sont très économes en énergie, notamment parce qu’ils sont le plus souvent basés sur le Wi-Fi, dont la portée est relativement courte. Mais il est possible de faire des connexions longues distances si les relais sont en ligne de mire ou via des réseaux maillés. De Decker rappelle que les premiers réseaux Wi-Fi ont été mis en place il y a 10 à 15 ans, à l’image du réseau Akshaya et AirJaldi en Inde, celui de la province de Loreto au Pérou… mais on en trouve aussi au Malawi ou au Ghana. De Decker rappelle aussi l’existence de réseaux communautaires dans les pays développés comme le réseau Guifi.net en Espagne (lancé en 2004, il compterait quelques 30 000 noeuds, et a un débit moyen de 2 Mbps), le réseau métropolitain d’Athènes en Grèce, le Funkfeuer en Autriche et le Freifunk en Allemagne (voir également la liste recensée sur Wikipedia).
Certes, concède de Decker, ces réseaux ne sont pas toujours très performants, souvent intermittents, mais leur tolérance aux retards est aussi une force qui diminue les coûts en consommation d’énergie et les rend adaptés aux énergies alternatives intermittentes comme les panneaux solaires ou les éoliennes. On trouve même parfois des « mules de données », c’est-à-dire des relais de transmission qui passent par des motos ou des voitures, comme c’est le cas des réseaux DakNet et KioskNet qui utilisent des réseaux de bus et de motos itinérants comme noeud de connexions, dans des régions très reculées (voir « Accès collectifs en milieu rural : le « far net » indien). On pourrait d’ailleurs évoquer le projet d’internet interplanétaire porté par Vinton Cerf, qui reposait sur des principes de communication assez proches (intermittence, résilience, asynchronicité, etc.), même s’il n’était pas vraiment le produit d’une pensée post-croissance.
Certes, les réseaux tolérants aux retards sont surtout adapté pour l’e-mail. Mais il existe d’autres applications dédiées pour ce type de réseaux. A l’image de moteurs de recherches qui désynchronisent le processus de recherche d’informations pour économiser la bande passante en proposant des résultats de requêtes similaires qui ont déjà été demandés. Des navigateurs tolérants aux retards permettent de télécharger des pages demandées, mais également des pages liées. D’autres sont optimisés pour retourner des résultats comprimés ou minimaux, à l’image de Loband, qui exclut les images, les vidéos, les publicités et les boutons de médias sociaux. Sans compter le développement de caches locaux stockant des pages déjà téléchargées…
Bien évidemment, les applications temps réels (téléphonie internet, streaming, messageries instantanées, vidéoconférences…) sont impossibles dans ce type de réseaux. Mais limiter ces usages consommateurs de ressource est justement l’effet recherché. Les données volumineuses pourraient être transmises via un sneakernet, c’est-à-dire directement via un support de stockage comme une clé USB ou un disque dur, à l’image des usages d’échange de musique en Afrique de l’Ouest qu’évoquait Christopher Kirkley à Lift 2013. »
(Source : lemonde.fr)
Bonne journée.
DANS NOS COLLECTIONS :
Commentaires 0
Connectez-vous pour pouvoir commenter.
Se connecter