Accueil > Pour en savoir plus > Intelligence artificielle > "Les perspectives des réseaux informatiques, de la téléphonie mobile 5G et (...)

"Les perspectives des réseaux informatiques, de la téléphonie mobile 5G et bientôt 6G, mais aussi des futurs ordinateurs quantiques" par Jacques Hallard

jeudi 5 décembre 2019, par Hallard Jacques

ISIAS IA

Les perspectives des réseaux informatiques, de la téléphonie mobile 5G et bientôt 6G, mais aussi des futurs ordinateurs quantiques, avec une introduction sur les impacts environnementaux et les champs électromagnétiques émis par tous les équipements numériques et objets connectés aux réseaux

Jacques Hallard , Ingénieur CNAM, site ISIAS et Bastien 05/12/2019

Série : L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle (IA)

Silhouette en code binaire - Crédits : GettyIn]L’intelligence artificielle nous veut-elle du bien ?]

Plan : Résumé Définitions préalables Introduction Sommaire Publications antérieures {{}}Auteurs



Résumé

A – Un point sur l’émergence des réseaux de la téléphonie mobile 5G (et la prochaine 6G), avec les conflits diplomatiques entre les Etats-Unis et la Chine, ainsi que le rappel de l’incertitude sur les effets sanitaires possibles des champs électromagnétiques émis par tous les équipements liés aux nombreux usages croissants du numérique.

B – Une initiation au monde de la physique quantique et des exemples d’applications en cours ou envisagées, comme le microscope à effet tunnel, la boussole quantique et surtout l’ordinateur quantique. Des investissements considérables sont en cours, notamment par le constructeur Volkswagen qui vise le futur marché des voitures autonomes, et principalement les géants de l’Internet états-uniens : Amazon, Alphabet (Nébuleuse Google) et Intel – parmi les données diffusées, celles qui concernent les investissements des groupes chinois sont inconnues et/ou ignorées !

C – Un début de veille scientifique qui a pour but de recenser et d’évaluer les divers impacts environnementaux des technologies numériques, compte-tenu des usages actuels proposés aux utilisateurs et consommateurs par les grands ‘géants’ opérateurs mondiaux, d’une part, et les développements probables qui se profilent à travers les divers investissements colossaux qui sont réalisés au niveau mondial (Volkswagen, Amazon, Alphabet (Google), etc…), d’autre part.

Retour au début du résumé

Retour au début du dossier


Définitions scientifiques préalables (essentiellement empruntées à Wikipédia)

Les notions techniques figurant dans le titre de ce dossier sont reprises à la suite. Vous pouvez aussi passer directement à l’introduction ICI.

Contenu :

Réseau informatique

Réseau de téléphonie mobile

Calculateur quantique et ordinateur quantique

Ordinateurs : différence entre quantique et classique 

L’ubiquité dans le monde quantique 

Champ électromagnétique ou CEM

Numérique et ‘Les clés du Numérique’ (France Inter 19/11/2019)

Connexion au réseau


Réseau informatique - Un réseau informatique (en anglais, data communication network ou DCN) est un ensemble d’équipements reliés entre eux pour échanger des informations. Par analogie avec un filet (un réseau est un « petit rets », c’est-à-dire un petit filet1), on appelle nœud l’extrémité d’une connexion, qui peut être une intersection de plusieurs connexions ou équipements (un ordinateur, un routeur, un concentrateur, un commutateur). Indépendamment de la technologie sous-jacente, on porte généralement une vue matricielle sur ce qu’est un réseau. De façon horizontale, un réseau est une strate de trois couches : les infrastructures, les fonctions de contrôle et de commande, les services rendus à l’utilisateur. De façon verticale, on utilise souvent un découpage géographique : réseau local, réseau d’accès et réseau d’interconnexion… - Photo  : Connecteurs RJ-45 servant à la connexion des réseaux informatiques via Ethernet. – Représentation - Article completici

Retour au début des définitions scientifiques préalables


Réseau de téléphonie mobile - Un réseau de téléphonie mobile est un réseau téléphonique qui permet l’utilisation simultanée de millions de téléphones sans fil, immobiles ou en mouvement, y compris lors de déplacements à grande vitesse et sur une grande distance. Pour atteindre cet objectif, toutes les technologies d’accès radio doivent résoudre un même problème : répartir aussi efficacement que possible, une bande de fréquences hertzienne unique entre de très nombreux utilisateurs. Pour cela, diverses techniques de multiplexage sont utilisées pour la cohabitation et la séparation des utilisateurs et des cellules radio : le multiplexage temporel, le multiplexage en fréquence et le multiplexage par codes, ou le plus souvent une combinaison de ces techniques1. Un réseau de téléphonie mobile a une structure « cellulaire » qui permet de réutiliser de nombreuses fois les mêmes fréquences ; il permet aussi à ses utilisateurs en mouvement de changer de cellule (handover) sans coupure des communications en cours. Dans un même pays, aux heures d’affluence, plusieurs centaines de milliers, voire plusieurs millions d’appareils sont en service avec (dans le cas du GSM) seulement 500 canaux disponibles. – Article completici

Retour au début des définitions scientifiques préalables


Calculateur quantique - Un calculateur quantique (anglais quantum computer, parfois traduit par ordinateur quantique a, ou système informatique quantique 2), utilise les propriétés quantiques de la matière, telle que la superposition et l’intrication afin d’effectuer des opérations sur des données. À la différence d’un ordinateur classique basé sur des transistors travaillant sur des données binaires (codées sur des bits, valant 0 ou 1), le calculateur quantique travaille sur des qubits dont l’état quantique peut posséder une infinité de valeurs. De petits calculateurs quantiques ont été construits à partir des années 1990. Jusqu’en 2008, la difficulté majeure concerne la réalisation physique de l’élément de base : le qubit. Le phénomène de décohérence (perte des effets quantiques en passant à l’échelle macroscopique) freine le développement des calculateurs quantiques. Le premier processeur quantique est créé en 2009 à l’université Yale : il comporte deux qubits composés chacun d’un milliard d’atomes d’aluminium posés sur un support supraconducteur. Ce domaine est soutenu financièrement par plusieurs organisations, entreprises ou gouvernements en raison de l’importance de l’enjeu : au moins un algorithme conçu pour utiliser un circuit quantique, l’algorithme de Shor, rendrait possible de nombreux calculs combinatoires b hors de portée d’un ordinateur classique en l’état actuel des connaissances. La possibilité de casser les méthodes cryptographiques classiques est souvent mise en avant… - Article completici

Retour au début des définitions scientifiques préalables


Quelle différence entre un ordinateur quantique et un ordinateur classique ? – Une vidéo 05:19 de ‘Futura Sciences répond à cette question dans un entretien. Le monde quantique est fascinant : à cette échelle, par exemple, les objets peuvent se trouver simultanément dans plusieurs états. Exploitant ce principe, un ordinateur quantique aurait des possibilités bien plus vastes qu’un modèle classique. Dans le cadre de sa série de vidéos ‘Questions d’experts’, sur la physique et l’astrophysique, l’éditeur De Boeck a interrogé Claude Aslangul, professeur à l’Université Pierre-et-Marie-Curie (UPMC), afin qu’il nous explique le fonctionnement de cette étrange machine…. – A consulterici 

Retour au début des définitions scientifiques préalables


On peut aussi consulter « L’ubiquité dans le monde quantique » une vidéo 15:37 - 03 octobre 2018 - Ideas in Science – « Une expérience du groupe d’électrodynamique quantique en cavité du LKB (Laboratoire Kastler-Brossel) au Collège de France. Présenté par Gautier Depambour (étudiant en Master 2). Avec la participation d’Igor Dotsenko (maître de conférences) et de Valentin Métillon (doctorant). Plus d’informations sur le site du LKB : http://www.lkb.upmc.fr – Source : https://www.youtube.com/watch?v=-OPn4zpKFZg

Retour au début des définitions scientifiques préalables


Champ électromagnétique - Un champ électromagnétique ou CEM (en anglais, electromagnetic field ou EMF) est la représentation dans l’espace de la force électromagnétique qu’exercent des particules chargées. Concept important de l’électromagnétisme, ce champ représente l’ensemble des composantes de la force électromagnétique s’appliquant sur une particule chargée se déplaçant dans un référentiel galiléen. Voir aussi la représentation de l’orientation d’un solénoïde mobile en fonction du champ magnétique terrestre

Le champ électromagnétique est la composition de deux champs vectoriels que l’on peut mesurer indépendamment. Néanmoins ces deux entités sont indissociables :

  • la séparation en composante magnétique et électrique n’est qu’un point de vue dépendant du référentiel d’étude ;
  • les équations de Maxwell régissant les deux composantes électrique et magnétique sont couplées, si bien que toute variation de l’une induit une variation de l’autre.
    Le comportement des champs électromagnétiques est décrit de façon classique par les équations de Maxwell et de manière plus générale par l’électrodynamique quantique. La façon la plus générale de définir le champ électromagnétique est celle du tenseur électromagnétique de la relativité restreinte… - Article completici

Retour au début des définitions scientifiques préalables


Numérique - On appelle numérique une information qui se présente sous forme de nombres associés à une indication de la grandeur à laquelle ils s’appliquent, permettant les calculs, les statistiques, la vérification des modèles mathématiques. Numérique s’oppose à analogique. Les ordinateurs développés depuis la seconde moitié du XXe siècle ont évolué à partir de machines à calculer programmables. Ils traitent désormais des données qu’on a pris l’habitude de désigner comme numériques. Par synecdoque, on dit numérique tout ce qui fait appel à des systèmes électroniques basés sur des fonctions logiques. À la base de l’informatique, on démontre que toute opération arithmétique peut se développer en opérations logiques, en représentant les nombres entiers dans le système binaire, tandis que la plupart des tâches peuvent s’effectuer par des algorithmes qui traitent ces données. La culture numérique désigne les relations sociales dans les circonstances où dominent les médias basés sur ces systèmes. Article completici

Retour au début des définitions scientifiques préalables

Consulter aussi pour une mise à jour :
Les clés du Numérique par France Inter publié le 19 novembre 2019 à 14h29 – « Les Clés du Numérique est une web-série pédagogique d’éducation au numérique pour éveiller un regard critique et une meilleure compréhension de notre consommation des écrans. Pensée pour un public jeune, elle propose un décryptage ludique de nos usages du numérique en 15 vidéos thématiques. Comment reconnaître les ‘fake news’ sur internet ? Quels dangers, comment maîtriser et comprendre l’utilisation de nos données personnelles ? Comment fonctionnent les algorithmes et comment impactent-ils notre vie ? Autant de sujets expliqués à travers le quotidien d’une bande de lycéens, dont les usages numériques offrent des exemples concrets. Pour répondre à ces questions, la collection de vidéos Les Clés du Numérique peut être utilisée comme support pédagogique par le corps enseignant mais aussi par les parents. Ecrite et narrée par Bruno Duvic, réalisée par Mathieu Decarli et Olivier Marquézy, cette série en stop motion est accessible sur le site de France Inter, sur YouTube et sur le site France tv Education. La série Les clés du Numérique est proposée par ‘La Générale de Production’ et coproduite par ‘France tv Education’ et ‘France Inter’.

Les épisodes :

Retour au début des définitions scientifiques préalables


Connexion au réseau - Une connexion au réseau désigne le fait qu’un équipement informatique (au sens ETTD, c’est-à-dire un ordinateur, une imprimante, etc.) soit rattaché à un réseau informatique. Le terme connexion réseau peut être interprété à différents niveaux. En partant des couches basses du Modèle O.S.I. :

Retour au début du résumé

Retour au début du dossier


Introduction

Ce dossier à usage pédagogique regroupe 38 documents sélectionnés : il est l’une des contributions postées sur le site ISIAS dans notre série intitulée « L’ère des technologies numériques (ou digitales) et de l’intelligence artificielle (IA) ».

Les documents choisis ici sont répartis dans 3 rubriques : A, B et C et sont activables à partir du sommaire ci-après.

La rubrique A fait un point sur les réseaux de téléphonie mobile : l’arrivée de la 5G et la 6G qui se profile, déjà en recherche et développement ; leur extension mondiale actuellement, notamment en Afrique ; la 5G est parfois suspectée pour ses possibles effets sanitaires négatifs (voir dans l’article « ISIAS IA Quelques méthodes et techniques aboutissant à l’Intelligence Artificielle (IA) : de l’Histoire des sciences du 17ème siècle, jusqu’aux applications numériques actuelles – Avec une revue rapide des impacts sanitaires », par Jacques Hallard, Ingénieur CNAM, site ISIAS et Bastien 18/11/2019).

Pour certains, « Le déploiement de la 5G, (Capital, 06/06/2019) qui permettra de transmettre beaucoup plus rapidement de très grandes quantités de données, est présenté comme le prochain grand défi en matière de télécoms dans le monde… les réseaux de la 5ème génération (5G) pourraient être jusqu’à 20 fois plus rapides que les technologies actuellement utilisées… ». Voir en particulier une illustration sur l’évolution des réseaux de téléphonie depuis 1950.

Par ailleurs, la technologie émergente 5G se trouve actuellement au centre d’un bras de fer et d’une véritable guerre technologique entre la Chine (très puissante en la matière) et l’administration conservatrice Trump aux Etats-Unis….

La rubrique B constitue une forme d’initiation au monde quantique et énumère les perspectives d’applications, comme le microscope à effet tunnel, la boussole quantique et surtout l’ordinateur quantique qui, d’après David Larousserie et « selon toute vraisemblance, sera la prochaine révolution de l’informatique » - Voir l’article « Ordinateur quantique : nouvel eldorado ou bulle spéculative ?  », publié par ‘Le Monde Idées’ (29 octobre 2019) – « Google a annoncé, le 23 octobre 2019), avoir mis au point un ordinateur au principe de fonctionnement quantique plus performant que les meilleurs calculateurs actuels. En fait, il s’agirait davantage d’une nouvelle mayonnaise technologique que d’une prouesse. Analyse. « Dans le domaine des innovations technologiques, il y a celles qui s’appuient sur l’inventivité des ingénieurs, la créativité de designers ou, tout simplement, un patient labeur. Il y a aussi celles, plus rares, qui, en plus, mettent en jeu des principes physiques fondamentaux. La mécanique quantique, théorie presque centenaire, décrivant le monde des particules, des atomes ou des molécules, a déjà fourni un certain nombre d’exemples : le laser, les disques durs, les LED, les processeurs. Elle promet de continuer, comme le montre l’annonce faite le 23 octobre 2019 par Google, qui a mis au point un ordinateur au principe de fonctionnement quantique prétendant être plus performant que les meilleurs calculateurs actuels. Mais cette prouesse technologique, à saluer, est moins le signe d’une invention sur le point de révolutionner notre quotidien que la confirmation qu’une nouvelle mayonnaise technologique est en train de prendre, comme l’ont été précédemment les biotechnologies, les nanotechnologies ou l’intelligence artificielle. Trois signes ne trompent pas. Premièrement, Google est loin d’être la seule entreprise à investir ce domaine de long terme, qui repose sur des concepts fondamentaux et sur des idées risquées, voire jugées irréalistes. IBM, Intel, Microsoft, Baidu en Chine jouent sur le même terrain. Cet engagement pour la recherche fondamentale rappelle l’époque des célèbres laboratoires privés Bell dont sont sorties d’importantes innovations comme la fibre optique, le laser, le transistor… C’était aussi le cas, dans une moindre proportion, en France, avec les laboratoires du Centre national d’études des télécommunications (CNET) de l’ex-France Télécom… » - Article réservé à nos abonnés.

Lire aussi Google annonce une percée majeure dans le calcul quantique – « L’implication financière et symbolique de ces entreprises en incite d’autres, moins attendues dans ce secteur, à se maintenir en veille afin de ne pas rater le train, comme Airbus, BASF, EDF, Total… C’est aussi un signal envoyé aux Etats pour qu’ils relaient ces efforts. L’Europe, les Etats-Unis et la Chine l’ont bien compris avec divers plans d’investissements. Ils avaient été précédés par des pays comme l’Australie, Singapour ou le Royaume-Uni. Ces engagements, en retour, bénéficient aux chercheurs d’un domaine ardu, en manque de visibilité ou aux créateurs de start-up qui investissent dans de nouveaux marchés. La naissance d’un vaste écosystème mêlant de grandes et de moyennes entreprises, sphères publique et privée, montre que le secteur se consolide… » - La suite est réservée aux abonnés. Déjà abonné ? Se connecter - Abonnez-vous à partir de 1 €—[BLOC_RESTREINT_ABO]] - Source : https://www.lemonde.fr/idees/article/2019/10/29/ordinateur-quantique-nouvel-eldorado-ou-bulle-speculative_6017266_3232.html

La rubrique C amorce un travail de veille scientifique qui a pour but d’identifier, de décrire et de commenter tous les impacts environnementaux des technologies numériques, compte-tenu des usages actuels proposés par les géants mondiaux de l’Internet (surtout états-uniens et chinois qui se livrent une âpre guerre technologique et économique au niveau mondial), d’une part, et en extrapolant les développements probables qui se profilent à travers des investissements colossaux, d’autre part…

Peuvent être cités comme exemples d’investissements massifs dans le numérique :

L’entreprise Volkswagen AG (un constructeur automobile allemand fondé en 1937 et basé en Basse-Saxe en Allemagne), « le 1er constructeur mondial de véhicules en 2018 devant le japonais Toyota, avec 10,8 millions d’unités vendues) : cette société envisage d’utiliser la puissance des ordinateurs quantiques pour améliorer le trafic dans les territoires urbains avec une solution qui serait proposée clé en main aux grandes villes du monde, pour la gestion de leur flotte de véhicules autonomes.

L’entreprise Amazon qui est « une entreprise de commerce électronique américaine basée à Seattle (« la plus grande ville de l’État de Washington et du Nord-Ouest des États-Unis »). Elle est l’un des géants du Web, regroupés sous l’acronyme GAFAM, aux côtés de Google, Apple, Facebook et Microsoft. La spécialité initiale d’Amazon était la vente de livres, mais elle s’est diversifiée vers la vente d’autres produits, d’abord par l’élargissement des produits culturels disponibles à l’achat, puis vers la mise à disposition progressive de produits de tous types. Aujourd’hui, des produits alimentaires peuvent être commandés via Amazon. Créée par Jeff Bezos en juillet 1994, l’entreprise a été introduite en bourse au Nasdaq en mai 1997. La filiale française d’Amazon a été ouverte en 2000. En 2016, Amazon devient le premier distributeur non alimentaire en France en termes de chiffre d’affaire. En 2017, la société employait 541.900 personnes dans le monde et elle a établi, outre le site originel américain ouvert en 1995, des sites spécifiques dans de nombreux pays », y compris en France… Mais Amazon est contesté pour son impact sur l’environnement et l’emploi  : « plusieurs blocages ont eu lieu dans la Drôme, à Nantes ou même à Besançon ; les conditions de travail pointées du doigt … notamment dans ses entrepôts… » - « La société détruirait deux emplois pour un créé en France ... » - « Amazon, en pleine expansion en France depuis 2010, a créé 9.300 CDI ces dernières années, selon Frédéric Duval, le directeur général de la plateforme d’e-commerce… » - Amazon ouvre un centre de recherche en France sur les drones de livraison : le géant du e-commerce souhaite développer à Clichy (92) un système de gestion du trafic sécurisé des drones pour les intégrer au trafic aérien existant. Un projet à très long terme, notamment en raison des contraintes de la réglementation… »

Amazon est aussi champion mondial des dépenses en R&D (recherche et développement) : « la multinationale a dépensé plus de 16 milliards de dollars dans la recherche et le développement au cours du dernier exercice fiscal clos à la fin du mois de juin 2019 ; ce montant faramineux marque les ambitions du groupe américain en matière d’innovation… » - « Amazon en tête au niveau mondial pour ses dépenses en recherche et développement : avec un chiffre d’affaires de 136 milliards de dollars et des dépenses en R&D évaluées à 11,8% du CA, la firme américaine est passée devant Volkswagen, qui recule de cinq places. Alphabet arrive en seconde position dans le tableau en totalisant 13,9 milliards de dollars d’investissements en R&D. Enfin, Intel arrive sur la dernière marche du podium avec 12,7 milliards de dollars investis dans ce domaine. En matière de perception, le tableau diffère légèrement pour les trois premières places. Alphabet est perçue comme l’entreprise la plus innovante au monde par les responsables de la R&D interrogés par Strategy& (l’activité de conseil en stratégie de PwC), devant Apple pour la première fois en sept ans. Le géant de Cupertino et Amazon viennent compléter ce podium exclusivement américain… »

Dernière minute : Braket : l’informatique quantique selon Amazon par Louis Neveu, journaliste (Lire la bio)-* Publié le 03/12/2019 – ‘Futura Tech’ - Classé sous :ordinateur quantique - « Le géant du commerce en ligne Amazon vient de lancer un service d’informatique quantique baptisé Amazon Braket. Ce nouveau service permettra aux entreprises de tester leurs algorithmes via le cloud… - Un premier aperçu pour tester les algorithmes quantiques… » - Article à lire à la Source

Pour mémoire et d’après Wikipédia, « Alphabet Inc. est une entreprise américaine basée à Mountain View’ (photo) en Californie, créée en 2015 comme un conglomérat de sociétés précédemment détenues par la société Google. Selon les fondateurs de Google, le but de cette structure est de décharger la société historique des activités ne représentant pas son cœur de métier, à savoir les services Internet tels que l’indexation de pages, YouTube ou Gmail qui tirent des revenus de la publicité en ligne. Selon l’entreprise, les comptes de Google en ressortent clarifiés et les risques sont désormais répartis entre les filiales. Alphabet Inc. est dirigée par les deux cofondateurs du moteur de recherche, Larry Page (CEO) et Sergey Brin (président). Le nom de la société Alphabet a été choisi car il représente le langage, l’innovation la plus importante de l’humanité qui est au cœur de l’outil de recherche Google, selon les fondateurs. Larry Page évoque également que le nom de la société représente un jeu de mots avec alpha et bet, qui signifie « pari » en anglais4,5… »

On peut également consulter Financement de l’économie numérique– Sénat (France 03 décembre 2019).#C

Pour la suite dans la rubrique C  : quelques repères sur la pollution numérique  :

D’après Greenpeace (10 janvier 2017), « Le secteur informatique représente aujourd’hui environ 7 % de la consommation mondiale d’électricité…. En 2020, le trafic Internet mondial pourrait avoir triplé… L’empreinte écologique du réseau sera ainsi encore plus importante, du fait notamment de l’augmentation de notre consommation personnelle de données et du nombre d’utilisateurs à l’échelle mondiale, qui devrait passer de trois milliards aujourd’hui à plus de quatre milliards d’ici à la fin de la décennie. Selon certaines estimations, la pollution générée par l’industrie du net et son impact sur le climat sont équivalents à ceux du secteur de l’aviation… »

Selon ‘CareNews’ (2019), « Le secteur informatique est une industrie énergivore. Envoyer des mails, regarder des vidéos en ligne... autant de gestes qui contribuent à la consommation d’énergie du numérique et, in fine, à la pollution numérique ».

La problématique de l’impact environnemental du numérique est bien détaillée dans l’article dédié sur Wikipédia et les sources suivantes en parlent également très bien :

Le numérique : quel impact pour la planète ?https://www.linfodurable.fr › Techno/Médias

L’impact insoupçonné du numérique sur l’environnement -ttps ://www.lepoint.fr › Sciences et technos › Environnement -17 mai 2019

Dix vérités insoupçonnées sur l’impact environnemental du numérique ...https://www.01net.com › actualites › dix-verites-insoupconnees-sur-l-impact-...26 octobre 2019 - L’empreinte environnementale du numérique ne cesse de croître. Et pas toujours là où on l’attend…

’L’ère des données’, un dossier sur l’impact environnemental d’internet et la sobriété numérique RTBF.be·01/12/2012

Serveurs, réseaux, terminaux : l’impact environnemental du net à la loupe (L’ère des données 1.2) RTBF.be· 01/12/2019

L’impact environnemental du numérique dans les entreprises ...https://www.ecoco2.com › blog › limpact-environnemental-du-numerique-... « WWF Fance et le Club Green IT ont présenté l’étude WeGreenIT qui évalue l’empreinte environnementale du numérique et la maturité des entreprises ... »

http://Impact environnemental du nu...

Impact environnemental du numériquewww.ordi3-0.fr › impact-environnemental-numerique

A la fin de cette rubrique C, nous laissons tout d’abord s’exprimer Jeremy Rifkin (« essayiste américain, spécialiste de prospective (économique et scientifique) qui a aussi conseillé diverses personnalités politiques ; son travail, basé sur une veille et une réflexion prospectives, a surtout porté sur l’exploration des potentialités scientifiques et techniques nouvelles, sur leurs impacts en termes sociétaux, environnementaux et socio-économiques » - Il prédit – étonnamment ! - la fin des énergies fossiles, du nucléaire et même du contrôle des données par les GAFA…

Puis nous donnons finalement accès à des publications de Justin Delépine qui, à propos des dérèglements climatiques et de la pollution engendrée par le numérique dans notre environnement, explique avec Alternatives Economiques,https://www.google.fr/url?sa=t&...le début d’une prise de conscience

Retour au début de l’introduction

Retour au début des définitions scientifiques préalables

Retour au début du résumé

Retour au début du dossier


Sommaire


Rubrique A – Les réseaux de téléphonie mobile 5G et 6G

1. Technologie 5G : attribution des fréquences, investissement dans le réseau... la France est-elle en retard ? Par Cédric Ingrand - Mis à jour : 05/10/2018 - Document ‘lci.fr/high-tech’

2. La 5G déployée d’ici fin 2020 en France 6medias Publié le 15/07/2019 à 21h53 – Document ‘capital.fr’

3. Réseau 5G : 12 choses à savoir sur l’arrivée de la technologie 5e génération en France Par Alexandre Boero Contributeur - 30 juillet 2019 – Document ‘clubic.com’

4. Très critiquée, la loi « anti-Huawei » pour sécuriser la 5G est désormais une réalité, mais elle ne discrimine pas un équipementier en particulier Par Stan Adkens - Le 3 août 2019 à 09:41 – Document ‘droit.developpez.com’

5. Finlande : Nokia obtient 500 m d’euros de financement de l’UE pour la recherche sur la 5G 27 août 2018 – Document ‘eib.org’

6. L’Afrique 3.0, c’est l’heure - 4 avril 2019 - Document ‘ecoreseau.fr’

7. Le guide des 33 pistes d’investissement dans la 5G écrit par Edern Rio 4 décembre 2018 Communiqué ‘opportunites-technos.com’

8. Sécurité, santé, vitesse : que vaut vraiment la 5G ? Par Sophie Kloetzli 12/02/2019 10:00 - Usbek & Rica #Technologie

9. La Chine attribue ses premières licences 5G Publié le 06/06/2019 à 6h10 Mis à jour le 06/06/2019 à 12h40 – Document ‘Capital.fr’

10. 5G : au coeur de la guerre technologique entre la Chine et Donald Trump - Quelles sont les promesses de la 5G, cette technologie mobile au centre du bras de fer entre la Chine et les Etats-Unis ? Publié le 07/06/2019 – Document ‘capital.fr’

11. La 5G arrive à peine que la 6G fait déjà débat dans le secteur des télécoms Publié le 29/04/2019 à 15h38 – Document ‘ZDNet’

12. Selon Huawei, la 6G sera 100 fois plus rapide que la 5G Par Thomas Delozier Publié le 02/10/19 à 14h36 – Document ‘lesnumeriques.com’

13. D’après Huawei, la 6G fonctionnera « dans l’espace » et elle sera 100 fois plus rapide que la 5G Par Remi Lou le 02 octobre 2019 à 09h15 – Document ‘journaldugeek.com’

Rubrique B - Initiation au monde quantique et perspectives d’applications

13bis. Ordinateur : les promesses de l’aube quantique Par Julien Bourdet - 15.04.2019 – Document ‘lejournal.cnrs.fr’

13ter. L’essentiel sur... l’ordinateur quantique Publié le 15 mai 2019 – Document ‘cea.fr/comprendre’

14. IA Quantique - Les Ordinateurs Quantiques Expliqués - Limites de la technologie humaine (en anglais, sous-titré en français) - Kurzgesagt – In a Nutshell - Vidéo 7:16 You Tube ajoutée le 8 décembre 2015

14bis. Intrication quantique et téléportation - Breaking Balls – 03 – Vidéo 5:44 - 22 janvier 2015 - e-penser

15. Définition - Du « bit » au « qubit » : comprendre enfin l’information quantique ! - E.T. d’Orion / ’Dans le champ des étoiles…’

16. De la physique quantique au Quantum Computing - Etienne Klein à l’USI Vidéo 41:25 - USI Events

16 bis. A beginner’s guide to quantum computing

17. La mécanique quantique en 7 idées — Science étonnante #16 Vidéo 19:22 ScienceEtonnante

18. L’intrication quantique — Science étonnante #23 Vidéo 19:04 - ScienceEtonnante

19. Ma thèse de Physique Quantique en 5 minutes : Lumière et Nanotubes de Carbone Vidéo 5:00 - Adrien Jeantet

20. Quelques notions sur les ordinateurs quantiques et les Qubits Par Mehdi Belcaid - Apr 4, 2018 – Document ‘medium.com’

21. Avez-vous déjà vu un ordinateur quantique ? Par Edern Rio 05 décembre 2018 – Document ‘opportunites-technos.com’

22. Volkswagen veut utiliser la puissance du quantique pour améliorer le trafic - Le constructeur pourrait proposer une solution clé en main pour les villes du monde. Par Valentin Cimino Twitter@ciminix 7 novembre 2018 – Document ‘siecledigital.fr’

23. Une boussole quantique pourrait définitivement mettre le GPS au placard - Un accéléromètre quantique commercialement viable devrait voir le jour prochainement Par Valentin Cimino Twitter@ciminix 13 novembre 2018 – Document ‘siecledigital.fr’

24. Google annonce une percée majeure dans le calcul quantique Par David Larousserie Publié le 23 octobre 2019 à 10h55 - Mis à jour le 24 octobre 2019 à 15h58 - Document ‘lemonde.fr’

25. Ordinateur quantique : IBM ne compte pas se laisser voler la vedette par Google Par Mathieu Grumiaux Contributeur - 23 octobre 2019 à 13h33 – Document ‘clubic.com’

26. Google dit avoir atteint la « suprématie quantique » avec un calcul réalisé en trois minutes au lieu de 10.000 ansP.B. avec AFP -Publié le 23/10/19 à 20h46 — Mis à jour le 23/10/19 à 21h48 – Document ‘20minutes.fr’

27. « Suprématie quantique » : Google, IBM et un exploit informatique contesté Par Vic Castro, le 25 octobre 2019 à 17:59 – Document ‘frandroid.com’


Rubrique C - Les impacts environnementaux des technologies numériques

28. L’impact écologique de l’infrastructure Internet - Extrait d’une documentation Wikipédia

29. Impact environnemental du numérique : il est temps de renouveler Internet –Le 10 janvier 2017-* Document ‘greenpeace.fr’

30. Internet serait le 6ème plus grand « pays » consommateur d’électricité Vendredi 14 juin 2019 10:10 – Document ‘carenews.com’

31. Impact environnemental du numérique d’après un étude Wikipédia

32. Entretien. Jeremy Rifkin prédit la fin de la «  civilisation fossile  » Ouest-France Modifié le 20/10/2019 à 11h06 – Document ‘ouest-france.fr’

33. Jeremy Rifkin prédit la fin des énergies fossiles, du nucléaire et du contrôle des données par les GAFA Par Pascal Samama avec AFP - 20/10/2019 à 11h12 Mis à jour le 20/10/2019 à 11h15 – Document ‘bfmtv.com/economie’

34. Climat - Pollution et numérique : début d’une prise de conscience Justin Delépine 28/10/2019 – Document ‘alternatives-economiques.fr’

Retour au début du sommaire

Retour au début de l’introduction

Retour au début des définitions scientifiques préalables

Retour au début du résumé

Retour au début du dossier

1
Technologie 5G : attribution des fréquences, investissement dans le réseau... la France est-elle en retard ? Par Cédric Ingrand - Mis à jour : 05/10/2018 - Créé : 05/10/2018 – Document ‘lci.fr/high-tech’

Bas débit - Alors que Chine, États-Unis, Corée et Japon multiplient les annonces, l’Europe semble se hâter avec lenteur vers la 5G, et dans le continent, la France n’est même pas en tête. Peut-on pour autant parler de retard ? LCI.fr fait le point, avec Didier Casas, président de la Fédération française des Télécoms.

À entendre l’opérateur américain Verizon, il a gagné la course. C’est lui qui, avant le reste du monde, a le premier allumé la 5G, ce 1er octobre 2018. Un coup de communication plus qu’une réelle offre, en ce qu’elle ne concerne que quelques villes américaines (chez nous, on appellerait ça une expérimentation), et encore, uniquement pour offrir un accès internet certes sans fil, mais uniquement domestique, le tout propulsé par une technologie qui ressemble plutôt à de la 4G, mais l’appeler ’5G’, forcément, c’est plus vendeur. En fait, la vraie 5G n’existe encore nulle part, en tout cas pas commercialement, mais à chaque pays son degré d’avancement. Dans le trio de tête, on trouverait la Chine, la Corée, les Etats-Unis, des pays où l’on trouve aussi les grands équipementiers télécom, les grands noms du smartphone, parfois les deux, bref, des pays qui ont tout intérêt à jouer les vitrines technologiques pour leur industrie.

En vidéo - Cinq questions sur la 5G

En Europe, où la 5G est encore en cours d’attribution, chaque pays s’organise pour délimiter les fréquences qui serviront le nouveau réseau, et pouvoir les attribuer aux opérateurs mobiles, le plus souvent par des enchères. La Finlande, patrie de Nokia, a déjà attribué ses fréquences. L’Allemagne vient elle d’annoncer les modalités de ses enchères, pendant que l’Italie procédait aux siennes, des enchères folles où les lots de fréquences ont été vendus près de six milliards et demi d’euros, deux fois plus que le prix attendu, un montant ahurissant, en tout cas vu de France. 

Un chemin à ne pas suivre, selon Didier Casas, président de la Fédération française des Télécoms. ’L’Italie, c’est le pire des exemples, s’explique-t-il auprès de LCI. Le régulateur a organisé la pénurie en créant des lots insuffisants pour que tous les opérateurs puissent être servis. Forcément, ça a fait monter les enchères. Tous les opérateurs français sont prêts à investir, mais il faut que les montants restent raisonnables, et en rapport avec les revenus qu’ils peuvent espérer de la 5G.’

De nouveaux usages, mais à quel prix ?

Évaluer ce que la 5G peut rapporter, il est bien là, le souci. Aujourd’hui, la 5G promet énormément, pas seulement en terme de vitesse, mais comme un réseau à tout faire, à tout connecter, de la téléphonie mobile jusqu’aux villes intelligentes, des réseaux qui serviraient dans la médecine, l’industrie, les objets connectés, des usages différents dont la 5G serait la bannière unificatrice. 

’Ça peut générer des usages nouveaux, reconnait Didier Casas. C’est enthousiasmant mais c’est aussi beaucoup d’incertitude. Prenez l’exemple de la voiture autonome : tout le monde dit qu’il lui faudra une connexion 5G, mais on ne sait pas encore qui la paiera : le constructeur ou le propriétaire de la voiture ? Et pour quel usage précis, quel volume de données ? Le consommateur est-il prêt à des offres, à des tarifs différents selon l’usage de la connexion ? Ça fait beaucoup d’inconnues, au moment où il faut que l’on décide de nos investissements.’ Les plus anciens du secteur se souviennent encore du fiasco des licences UMTS, au lancement de la 3G dans les années 2000, des fréquences vendues à un prix tel que les opérateurs de l’époque n’avaient plus les moyens d’investir dans leur réseau, une fois les enchères passées.

Les opérateurs échaudés par la 4G low-cost

Ce qui pousse aussi les acteurs du secteur à se hâter avec lenteur, c’est le fait que la 5G arrive en France sur fond d’une guerre des prix du mobile. À la rentrée, Orange, SFR et Bouygues proposaient tous trois des forfaits 4G sans engagement à cinq euros seulement, un moyen sûr de gagner des parts de marché, mais aussi d’accélérer la perspective d’un retour à trois opérateurs, et donc un peu d’incertitude en plus. Leur crainte est donc grande d’avoir à investir massivement dans un nouveau réseau sans perspective de rentabilité. De quoi imaginer des scénarios plus créatifs. 

’Plutôt que de vendre les fréquences, on pourrait organiser un ’concours de beauté’, propose Didier Casas, prenant l’exemple de ce qu’a fait la Finlande. Décerner les fréquences à bas prix, contre des obligations d’investissement et de couverture du territoire.’ Autant de discussions en cours qui expliquent que les opérateurs veuillent éviter d’avancer trop vite. Alors, en retard, la France ? Didier Casas se veut pragmatique : ’Même si les fréquences étaient attribuées aujourd’hui, les équipements 5G ne sont pas là, et les smartphones 5G n’ont pas encore été annoncés. Mais rassurez-vous, une fois que les choses se seront débloquées, les opérateurs sauront avancer très vite.’ En France, l’Arcep, notre gendarme des télécoms, promet que le processus d’attribution des fréquences sera lancé d’ici à la mi-2019. 

Autres lectures

Risques pour la santé physique et mentale : la 5G va-t-elle ’tout aggraver’ ?

Plus rapide, pour plus d’appareils connectés, le Wifi 6 arrive : qu’est-ce qu’il va changer pour vous ?

Actualité high-tech : technologies et internet en continu – LCIhttps://www.lci.fr › high-tech

Résultat de recherche d’images pour ’lci.fr logo’

LCI Copyright © 2019 - Source : https://www.lci.fr/high-tech/5g-attribution-des-frequences-investissement-dans-le-reseau-la-france-est-elle-en-retard-smartphones-orange-sfr-bouygues-2100414.html

Retour au début du sommaire

2.
La 5G déployée d’ici fin 2020 en France 6medias Publié le 15/07/2019 à 21h53 – Document ‘capital.fr’ – Photo Getty Images - télécoms

La France a lancé officiellement sa procédure d’attribution des fréquences 5G aux opérateurs télécoms. Elle espère un premier déploiement commercial dans quelques grandes villes françaises à la fin de 2020 et la couverture des deux tiers de la population d’ici 2026.

Le déploiement de la 5G est considéré comme le prochain grand défi en matière de télécoms dans le monde. Elle doit permettre de transmettre beaucoup plus rapidement que la téléphonie mobile actuelle de très grandes quantités de données et le développement de technologies futuristes, comme l’intelligence artificielle, les véhicules autonomes ou les usines automatisées.

Alors que plusieurs pays européens ont déjà attribué leurs fréquences, la France s’est lancée lundi 15 juillet avec la publication par le régulateur des télécoms, l’Arcep, de la procédure qui sera suivie. La France ’n’est pas dans les premiers’ en Europe pour attribuer ses fréquences, mais elle ’n’est pas en retard’, a assuré le président de l’Arcep, Sébastien Soriano, devant la presse. La procédure de cession sera hybride, mêlant vente à prix fixe pour un premier ensemble de fréquences et vente aux enchères pour un deuxième ensemble.

Les opérateurs télécoms auront jusqu’au 4 septembre pour donner leur avis sur les modalités retenues par l’Arcep et le gouvernement. A l’automne, le gouvernement fixera les prix retenus et les cessions et les enchères auront lieu dans la foulée pour que le processus d’attribution puisse être juridiquement bouclé au début de l’année 2020. Le produit de la cession des fréquences , pour 15 ans, renouvelable pour 5 ans, devrait se chiffrer en milliard d’euros. En Allemagne, le gouvernement a organisé un système d’enchères qui a rapporté 6,5 milliards d’euros, alors que les spécialistes misaient plutôt sur un chiffre compris entre 3 et 5 milliards. Les spécialistes ne s’attendent toutefois pas à à ce que l’opération rapporte autant en France.

Montée en puissance progressive

Selon le schéma de déploiement de la 5G présenté par l’Arcep, chaque opérateur devrait proposer une offre 5G dans deux villes françaises avant la fin de 2020. La montée en puissance serait progressive, pour qu’à la fin 2025, chaque opérateur ait équipé 12.000 sites en 5G, soit une couverture des deux tiers de la population environ. Sur ces 12.000 sites, une partie (20-25%) devra se trouver en zones moins denses, pour desservir par exemple des zones industrielles et zones d’activité de petites villes où se trouvent des PME ayant besoin de la 5G.

⋙ A lire aussi : Pourquoi les géants de l’Internet misent sur les énergies renouvelables

Pour les zones restantes, les opérateurs auront l’obligation de proposer un service ’type 5G’ de 240 mégabits par seconde, qui représente 4 fois le débit d’un service 4G actuel. L’ensemble du territoire sera couvert, soit en 5G, soit en ’type 5G’, à la fin 2030, selon le document mis en consultation par l’Arcep. L’Arcep prévoit également que les autoroutes soient équipés avec un débit ’équivalent 5G’ à la fin 2025, le délai étant porté à fin 2027 pour les routes principales.

Certains opérateurs ont commencé à déployer de la 5G en Europe. Elle est ainsi disponible pour les usagers à Monaco et à San Marin, et commence à l’être en Suisse, en Finlande, en Estonie, et au Royaume-Uni. Au plan mondial, la Corée du Sud a annoncé début avril la couverture de la totalité de son territoire par ses trois opérateurs nationaux. En Chine, l’opérateur China Mobile a annoncé qu’il couvrirait cette année 40 villes en 5G. L’opérateur américain Verizon couvre Minneapolis et Chicago depuis avril. Pour autant, peu de fabricants de smartphones disposent pour l’heure d’appareils compatibles avec les nouveaux réseaux.

A lire aussi : Le déploiement des radars tourelles va s’accélérer en 2020

Capital - Actualités économiques, bourse & financehttps://www.capital.fr -Conditions générales d’utilisation Charte pour la protection des données Mentions légales Tous vos magazines Abonnement magazine Publicité

Résultat de recherche d’images pour ’capital.fr’

© 2019 Prisma Media - Tous droits réservés - Un site du groupe Prisma Media (G+J Network) – Source : https://www.capital.fr/entreprises-marches/la-france-se-lance-dans-la-5g-1344837

Retour au début du sommaire

3.
Réseau 5G : 12 choses à savoir sur l’arrivée de la technologie 5e génération en France Par Alexandre Boero Contributeur - 30 juillet 2019 à 12h11 Modifié le 30/07/2019 à 12h44 – Document ‘clubic.com’

Sommaire - La 5G promet de marquer une rupture pour la téléphonie mobile, avec des débits et des nouveaux usages qui vont bouleverser le marché. Profitons de son déploiement progressif pour décortiquer cette technologie de communication mobile de cinquième génération, qui sera proposée au grand public dès 2020.

Alors que la société se numérise dans son ensemble, la 5G tombe à point nommé pour offrir une seconde jeunesse aux communications mobiles, même si la 4G n’est elle-même pas encore pleinement arrivée à maturité. Quoi qu’il en soit, la 5G arrivera en France en 2020, avec l’ambition de développer de nouveaux usages portés par des performances globales impressionnantes. Découvrez en 10 questions ce que sera la 5G, avec les expertises de Jean-François Hernandez, responsable de la communication de l’Arcep jusqu’à l’été, et Soizick Lamandé d’Aloi, directrice de la communication chez Nokia France.

1. Qu’est-ce que c’est, la 5G ?

La 5G est le standard de réseau sans fil de cinquième génération. Prêt à régner en maître sur la prochaine décennie, il devrait accompagner l’Internet mobile vers l’Internet des objets (IoT), la domotique et la ville intelligente.

2. Quels débits pour la 5G ?

Les gains de performance seront colossaux. En soit, la 5G doit permettre de multiplier par 10 le débit, de diviser par 10 le délai de transmission, et de renforcer la fiabilité, avec une latence d’à peine 1 milliseconde. Le débit pourrait ainsi atteindre 10 Gbit/s, soit 10 à 100 fois plus que les réseaux 4G et 4.5G.

Imaginez qu’en moyenne, un document pesant 50 Go met plus de 25 minutes pour se télécharger via la 4G+ à 300 Mb/s. Grâce à la 5G, ce délai sera réduit à 8 minutes avec une connexion 5G à 1Gb/s, et tombera à 50 secondes avec une connexion 5G à 10Gb/s. Un fichier d’1 Go, lui, ne mettra qu’entre 1 et 10 secondes (selon le débit 5G) pour être téléchargé, contre 30 secondes en 4G+.

En France, certains opérateurs, comme Orange ou Bouygues Telecom, plus avancés que les autres, se targuent d’avoir déjà atteint des vitesses de 10 à 25 Gb/s.

« La 5G sera un des fondements de la 4e révolution industrielle »

3. Quels nouveaux usages avec l’arrivée de la 5G ?

La 5G pourrait définitivement réconcilier le numérique et les usagers, et plusieurs secteurs vont profiter de ses bienfaits. Ce sera le cas des véhicules autonomes et connectés, de la réalité virtuelle (VR) et de la réalité augmentée (AR), des Smart cities (pour ce qui concerne le contrôle du trafic routier ou l’optimisation énergétique notamment), de l’industrie du futur (comme la robotique, la connectivité des machines, la sécurité) ou encore de la santé.

L’arrivée de la 5G changera notre quotidien dans bien des domaines, accessibles à tous en mobilité. Elle permettra aussi l’arrivée de nouveaux formats, avec la 4K qui se démocratisera et la 8K qui fera véritablement son apparition.

« Tous les secteurs industriels vont bénéficier pleinement de la 5G », indique Soizick Lamandé d’Aloia, directrice de la communication de Nokia France. « Avec un temps de réponse (latence) inférieur à 1 milliseconde entre le réseau et le terminal (c’est-à-dire plus rapide que le temps de réaction du cerveau humain) et une fiabilité à 99,99% les champs d’applications sont immenses, notamment sur des applications critiques. La 5G sera un des fondements de la 4e révolution industrielle en permettant le développement de la robotique industrielle avec des robots qui gageront en mobilité et seront capables de communiquer entre eux. Grâce à la 5G des zones non desservies par la fibre aujourd’hui auront accès au très haut débit ».

4. Quelles fréquences ? Qu’est-ce qui les différencie ?

Avec la cinquième génération de réseau sans fil, trois nouvelles bandes de fréquence seront mises à contribution. Elles possèdent chacune leurs avantages.

La première, la bande 700 Mhz, est déjà attribuée depuis 2015 et utilisée par certains opérateurs français pour leur réseau 4G. Elle présente l’avantage de bien pénétrer dans les bâtiments et d’offrir un débit similaire à celui que l’on connait avec la 4G monobande.

La seconde, la bande 3,5 Ghz (3,4 - 3,8 Ghz), commence à donner tout son sens à la 5G. Si sa pénétration dans les bâtiments est moins efficace que la bande 700 Mhz (tout comme sa portée), on commence à monter haut dans les débits. Jean-François Hernandez, ancien responsable de la communication de l’ARCEP, explique qu’elle est « la bande cœur » de la 5G. Elle offre un compromis idéal entre couverture et débit grâce à ses propriétés physiques et la quantité de fréquences disponibles.

Enfin, la bande 26 Ghz, « qui est une bande très élevée dite ’millimétrique’ », est la fréquence la plus élevée, utilisée en technologie cellulaire. Son débit, extrêmement élevé, est comparable à celui de la fibre. Cette haute fréquence a la particularité de peu se propager. « Avec cette dernière, on peut proposer de très importants débits sur de toutes petites zones (ndlr : puisqu’elle ne traverse pas les obstacles). C’est là-dessus que nous avons lancé un appel à expérimentation destiné aux opérateurs et surtout aux industriels pour qu’ils puissent tester techniquement, mais aussi en termes de modèles d’affaires. En Allemagne, par exemple, le port de Hambourg fait un test là-dessus. Cela pourrait être des zones aéroportuaires, des ports, des portions d’autoroutes, des usines, des hôpitaux. On ne sait pas. L’idée, c’est de tester, pour voir », précise Jean-François Hernandez.

5. Qui sont les principaux équipementiers ?

Huawei, premier équipementier télécoms mondial, est considéré comme le leader mondial de la 5G, et ce malgré la crise que l’entreprise traverse dans divers pays, d’abord aux États-Unis, mais aussi en France, où une loi dite « loi anti-Huawei » va l’empêcher de se déployer à son aise, avec un contrôle renforcé des équipements réseaux 5G. La firme chinoise a récemment dévoilé une puce 5G pour les stations de base. Les deux concurrents de Huawei, Nokia et Ericsson, comptent se tailler une part du lion. Au mois de juillet, Huawei en serait à 50 contrats 5G, devançant Nokia (42) et Ericsson (23).

Lire aussi :
Tests, équipementiers, mise en oeuvre... Orange fait le point sur la technologie 5G

Comment fonctionne un équipementier comme Nokia en France ? Soizick Lamandé d’Aloia nous indique que sur le territoire, « les activités de Nokia en 5G sont regroupées sur deux sites : Paris-Saclay et Lannion. Elles rassemblent plus de 1 600 ingénieurs de R&D sur cette technologie. Sur le plan des compétences, les sites français maîtrisent l’ensemble de la chaîne de développement 5G : la recherche avec les Bell Labs, l’architecture des systèmes, le développement logiciel, la conception hardware, la gestion du portefeuille produits, l’intégration et la vérification des réseaux de bout en bout, l’introduction de la 5G sur les réseaux des clients et le support commercial ».

Si la firme finlandaise ne communique par sur les prix de ses équipements, elle affirme avoir dépensé 4,9 millions d’euros en R&D en 2017, un investissement qui représente une part importante de son chiffre d’affaires global. Nokia dispose par ailleurs sur son site de Paris-Sarclay d’un « 5G Experience Center » dont l’ambition est de « développer des cas d’usage sur la 5G avec les acteurs de l’écosystème depuis l’idéation, le proof of concept (ndlr : démonstration de faisabilité), jusqu’au développement des démos » ; d’un réseau expérimental 5G, « qui permet de valider les produits du groupe mais également de ceux de nos clients et de nos partenaires de l’écosystème (universités, entreprises, start-up, etc) » ; et d’un Nokia IoT Lab, « dont la vocation est d’accompagner tous les acteurs industriels dans la migration vers la 5G. Ce lab met à disposition l’ensemble du portefeuille produits de Nokia au sein d’un laboratoire flexible et complètement reconfigurable aux besoins de chaque industrie. Il s’agit du 1er laboratoire Nokia au niveau mondial pour l’industrie des transports », indique l’entreprise.

6. Les conséquences sur notre santé ?

Ces dernières années, les études, avis et rapports portant sur les radiofréquences mondiales ont circulé par centaines, voire par milliers. Beaucoup concernent la téléphonie mobile, cas d’espèce qui nous intéresse. Et les principales autorités sanitaires de la planète comme l’Organisation mondiale de la santé (OMS), le comité scientifique de l’UE et les différentes autorités étatiques sont formelles : à ce jour, il n’existe aucune preuve d’un risque avéré pour la santé du moment que l’exposition aux ondes radio reste en-deçà des seuils préconisés par l’OMS. De plus, les ondes radio de deux des fréquences 5G (700 Mhz et 3,5 Ghz) sont déjà utilisées depuis une cinquantaine d’année pour la télévision, la radio ou des services comme le Pass Navigo.

Du côté de Nokia, on précise que « les produits sont conformes aux directives et limites d’exposition internationales fixées par les autorités de santé publique », comme l’indique Soizick Lamandé d’Aloi. « Concrètement, Nokia développe des fonctionnalités qui permettent techniquement de limiter la somme des émissions électromagnétiques 2G/3G/4G/5G, pour que les puissances 5G ne viennent pas se surajouter aux générations précédentes, tout en maintenant la qualité de service aux utilisateurs ».

L’OMS a fixé une limite de 39 Volts par mètre pour la bande 700 Mhz, comme la 4G ; et une limite de 61 V/m pour la bande à 3,5 Ghz, identique au Wi-Fi, à la 3G et à la 4G.

Les antennes massives MIMO, qui seront utilisées, agissent comme un phare directionnel. Elle permettent de diriger le signal radio vers les utilisateurs et les dispositifs quand cela est nécessaire plutôt que d’émettre en permanence et partout. Ainsi, les ondes superflues aux alentours des utilisateurs sont réduites considérablement, voire éliminées (Source : Orange)

7. Qui régule la 5G en France ?

Comme pour toutes les autres générations de communications mobiles, c’est l’Autorité de régulation des communications électroniques et des postes (Arcep) qui a le rôle du gendarme. L’autorité administrative indépendante veille au bon déploiement de la 5G.

L’Arcep a commencé par délivrer des autorisations d’utilisation de fréquence à des fins d’expérimentation en 2017 avant d’ouvrir un guichet « pilotes 5G » pour offrir du spectre de façon à tester le déploiement de pilotes 5G en 2018.

Jean-François Hernandez, ex-patron de la communication de l’Arcep, nous éclaire sur l’importance de l’autorité ces derniers mois : « Nous avons lancé une consultation publique générique qui s’est terminée le 19 décembre dans laquelle nous posons toutes les questions sur table. Par exemple, faut-il attribuer les bandes fréquence en même temps ou de manière séparée, quelle largeur de bande par type de fréquence, faut-il attribuer uniquement aux opérateurs télécoms ou également à des industriels. Nous avons demandé aux acteurs économiques (opérateurs, équipementiers) de nous répondre. Nous avons eu les réponses du secteur, et maintenant, l’équipe travaille à la synthèse. Nous allons ensuite bâtir le design des futurs appels à candidature. S’il est décidé que la 5G est destinée prioritairement à faire de la voiture connectée (c’est un exemple), évidemment, les obligations qui seront mises dans les futures licences seront plus importantes le long des autoroutes et le long des routes ».

Ces derniers mois, les choses se sont accélérées.

Les premières tractations autour de la bande cœur de la 5G

Le 15 juillet 2019, l’Arcep a mis en consultation publique un projet de modalités et conditions d’attribution des fréquences dans la bande cœur de la 5G (3,4 - 3,8 GHz).

Le Gouvernement a par ailleurs communiqué au régulateur plusieurs objectifs devant accompagner l’attribution de cette bande 3,4 - 3,8 GHz : l’aménagement du territoire, afin que tous les territoires bénéficient de la 5G ; la bonne concurrence entre les opérateurs ou encore les recettes, avec un prix de réserve fixé par le Gouvernement.

Dans ce projet, l’Arcep a décidé d’un total de 310 MHz de fréquences à répartir entre les opérateurs. Dans une première phase, les candidats pourront obtenir des blocs d’au moins 40 MHz, dont le prix, fixe et modéré, pourrait évoluer si un FAI est d’accord pour opérer un déploiement encore plus important de la 5G sur le territoire. L’intérêt pour l’Arcep et le Gouvernement (qui gagnera « moins » dans cette affaire) est de favoriser les investissements plutôt que la surenchère.

Dans la seconde phase, les acteurs pourront acquérir des fréquences additionnelles, par blocs de 10 MHz. Cette fois : il n’y aura pas de prix limite, et les enchères promettent d’être bien plus importantes. Les opérateurs ne pourront tout de même pas acquérir au-delà de 100 MHz de fréquences chacun.

Le projet de consultation publique prend fin le 4 septembre 2019.

8. Les opérateurs de télécommunications français expérimentent-ils déjà la 5G ?

La réponse est oui, et depuis plusieurs mois. L’opérateur Bouygues Télécom a été le premier à recevoir l’autorisation d’installer des infrastructures supportant une ou plusieurs antennes. Il a ensuite été rejoint par Orange, puis SFR. Au 1er juillet 2019, Orange a reçu l’autorisation d’installer 130 supports expérimentaux 5G, Bouygues Telecom 53, et SFR 25.

« Les expériences sont techniques et répondent à une demande d’usages et de modèles d’affaires », précise Jean-François Hernandez.

« La France n’est pas en retard par rapport aux autres grandes puissances »

9. Quelle date de lancement ?

Le 30 janvier 2019, la secrétaire d’État en chargé des Télécoms auprès du ministre de l’Économie et des Finances, Agnès Pannier-Runacher, a annoncé le lancement des enchères 5G pour l’automne 2019, en vue d’un déploiement envisagé pour le début de l’année 2020, conformément à la feuille de route publiée le 16 juillet 2018 par le Gouvernement.

10. La France est-elle dans les temps par rapport aux autres pays ?

Sur le sujet, nous avons tenu à avoir l’avis de l’Arcep et de l’équipementier Nokia.

Pour Jean-François Hernandez, « la France n’est pas en retard. En Europe, certains pays ont déjà attribué des fréquences, d’autres le feront au deuxième semestre, dont la France. Il vaut mieux prendre le temps de la réflexion sur les usages à venir de la 5G. C’est une vraie décision politique. On parle d’une technologie ’de rupture’ ».

« Les premiers terminaux 5G devraient arriver l’année prochaine, en 2020. Il y a une obligation communautaire de couvrir une ville en 5G en 2020 » (ndlr : d’abord un déploiement commercial dans « au moins » une grande ville en 2020, puis la couverture des principaux axes de transport en 5G à l’horizon 2025). Le président de l’Arcep, Sébastien Soriano, a récemment déclaré que la France disposerait de 5 à 10 villes équipées en 5G dès 2020.

Soizick Lamandé d’Aloia (Nokia) semble sur la même longueur d’onde que le régulateur : « La France n’est ni en retard ni en avance. Le régulateur veille avec raison à ce que le spectre qu’il va octroyer lors de prochaines enchères ne soit pas trop fragmenté (comme cela est le cas en Espagne, Royaume Uni ou Italie) et à ce que les cas d’usage et les nouveaux ’business models’, notamment dans l’industrie, se développent. La 5G ne tiendra pas ses promesses sans cet écosystème. Les premiers smartphones commerciaux seront disponibles aux 2ème trimestre 2019. Les terminaux fixes domestiques sont déjà disponibles. Les équipement infrastructure de réseaux sont également déjà disponibles. Le véritable lancement commercial de la 5G en France devrait se faire en 2020, 2019 restant l’année des pilotes à grande échelle. »

11. Quels smartphones pour la 5G ?

Pour le moment, les smartphones 5G ne sont pas encore commercialisés. Mais certains ont déjà été testés et sont prêts à prendre du service.

Le Huawei Mate X pourrait sortir au mois de septembre, fort de son puissant modem 5G, le Balong 5000. Celui du concurrent, le Samsung Galaxy S10 5G, n’est pas encore disponible en France mais est accessible chez certains revendeurs suisses au prix de 1279 francs suisses (sans abonnement), soit un peu plus de 1 150 euros.

Un autre fabricant sud-coréen a présenté son modèle compatible 5G. Il s’agit de LG avec le V50 ThinQ, doté d’un modem Snapdragon X50, que l’on n’est pas certain de voir en France. Sans surprise, Xiaomi y est aussi allé de son petit modèle avec un Mi Mix 3 en version 5G, équipé lui aussi d’un modem Snapdragon X50.

D’autres constructeurs (Sony, Oppo, OnePlus ou Orange) ont également annoncé leur modèle compatible 5G en 2019.

12. Quels forfaits 5G ?

La question est épineuse. Doit-on s’attendre à des forfaits dépassant les 50, voire les 100 euros par mois lors des grands débuts de la 5G en France ? Ce n’est pas impossible... Comme tout nouveau marché, et en sachant que les opérateurs commencent à se concentrer sur la 4G+, le lancement de la 5G ne sera pas à la portée de toutes les bourses. Tous les opérateurs font de gros efforts en équipements, sans oublier les enchères, qui seront coûteuses. Ces derniers jouent en tout cas très bien au roi du silence.

Quel opérateur va se risquer le premier à dévoiler des tranches tarifaires et à laisser la concurrence s’en accommoder ? Free a bien tenté de dire qu’il proposerait une gamme de forfaits 5G, un peu sur le modèle de ce que fait l’opérateur de Xavier Niel sur la 4G. De là à voir des forfaits 5G à 0 à 2 euros...

Actualité High-Tech et Numérique, Comparatifs et Logiciels ...https://www.clubic.com -Comparateur de prix Infos légales Publicité CGU Charte de Confidentialité / Cookies Nous contacter © Clubic SAS 2019

Résultat de recherche d’images pour ’clubic.com’

Source : https://www.clubic.com/5G/article-850611-1-5g-10-questions-technologie-cinquieme-generation-france.html

Retour au début du sommaire

4.
Très critiquée, la loi « anti-Huawei » pour sécuriser la 5G est désormais une réalité, mais elle ne discrimine pas un équipementier en particulier Par Stan Adkens - Le 3 août 2019 à 09:41 – Document ‘droit.developpez.com’

L’urgence de la transition vers la technologie 5G et l’inquiétude liée aux risques potentiels de sécurité que pourraient poser les équipements de certains constructeurs, en l’occurrence le géant Huawei, ont motivé l’émergence d’un texte de loi en France. C’est ainsi qu’un nouveau projet de loi, initié à l’Assemblée nationale en avril dernier et visant à sécuriser cette nouvelle technologie ultra-rapide, a été publié par le gouvernement au Journal officiel vendredi.

Les réseaux 5G introduisent la rapidité dans les secteurs stratégiques tels que le domaine de mobilité, e-santé, industrie, robotique, et bien d’autres domaines. Mais les suspicions autour d’un des acteurs majeurs de cette technologie, le chinois Huawei, ont poussé plusieurs pays à prendre des mesures dans l’intérêt de la sécurité nationale. C’est dans ce contexte que la France a adopté une loi qui s’étend à tous les fournisseurs d’équipements 5G, mais qui a parfois été présentée comme une loi anti-Huawei, pour contraindre le seul équipementier chinois à entrer dans une moule réglementaire plus stricte afin de protéger le pays, si les accusations d’espionnage dont fait l’objet Huawei s’avèrent exactes.

Image - Les Etats-Unis ont lancé en novembre dernier une campagne de sensibilisation, pour tenter de persuader les fournisseurs d’accès à Internet sans fil des pays alliés d’éviter les équipements de télécommunication provenant de Huawei, évoquant des préoccupations de sécurité nationale. Par ailleurs, dans une demande plus explicite adressée à l’Allemagne concernant Huawei, le gouvernement américain a demandé à son allié d’abandonner la société chinoise dans ses projets ou de risquer de perdre l’accès à certaines données des services de renseignement américains, a rapporté le Wall Street Journal en mars dernier.

Sous cette pression américaine, certains alliés ont retiré le géant chinois de leur processus de transition vers la 5G. Après la mise sur « la liste noire » américaine de Huawei, ce fut le tour de certains opérateurs américains et étrangers de couper tous liens avec l’entreprise. Néanmoins, certains pays ont déjà commencé le processus d’octroi de la 5G, sans avoir banni l’équipementier Huawei. C’est le cas de l’Allemagne qui a lancé, le mardi 19 mars dernier, une vente aux enchères de plusieurs semaines pour les fréquences 5G, après avoir proposé des règles de sécurité plus strictes pour les réseaux de données plutôt que de faire blocage à Huawei.

C’est ce qu’a fait également la France, qui verra ces premiers réseaux 5G arriver en 2020. « Notre niveau d’exposition aux risques devient un peu plus important. Il faut donc faire évoluer le périmètre pour s’assurer que les usages puissent se dérouler dans de bonnes conditions », avait dit le député LaREM, Eric Bothorel, lors de l’initiation du projet de loi à l’Assemblée nationale en avril. Mais la loi française dont « Le but étant de valider le choix de l’équipementier réseau 5G des opérateurs » est taxée de vouloir écarter le géant des télécommunications chinois Huawei de la compétition pour le déploiement du 5G en France.

Mais, selon le directeur de l’Agence nationale de la sécurité des systèmes d’information, le texte évite de discriminer une entreprise en particulier. Si des doutes sont plus ou moins saillants d’un industriel à l’autre, pour Guillaume Poupard, « Se focaliser sur un seul équipementier, c’est une erreur, très clairement ». D’après lui, un acte d’espionnage et de piratage peut tout aussi bien se passer sur un autre matériel, indépendamment de sa provenance.

Concrètement, la loi couvre tous les appareils installés depuis le 1er février 2019 en France et prévoit un « régime d’autorisation préalable, fondé sur des motifs de défense et sécurité nationale, des équipements de réseaux ». Éclairé par ses services spécialisés, le Premier ministre dira « s’il existe un risque sérieux d’atteinte aux intérêts de la défense et de la sécurité nationale » avec tel équipement ou tel logiciel.

La proposition de loi « 5G » a finalement été adoptée en commission mixte paritaire mercredi dernier, un vote dont se réjouit la sénatrice Catherine Procaccia qui n’est pas aussi d’accord avec l’idée que la loi « 5G » soit seulement dirigée contre Huawei. En répondant à une question d’un site Web, elle a expliqué :

« Justement, je ne suis pas d’accord. C’est évidemment lié à Huawei, sans aucun doute. Les critiques américaines interpellent forcément. Mais ce n’est pas une loi « anti Huawei » comme j’ai pu le lire dans de nombreux médias. Historiquement, les premiers connus pour nous avoir espionnés sont les Américains... Alors Américains, Chinois, Coréens... qu’importe, c’est le même combat... La loi vise à sécuriser la 5G française contre tout ce qui pourrait compromettre sa sécurité, pas seulement contre Huawei ».

La loi prévoit également que, chaque année à partir du 1er juillet 2020, le gouvernement remettra au parlement un rapport sur l’application du régime d’autorisation préalable. Le rapport en question analysera les effets de ce régime sur les opérateurs, et le rythme et le coût du déploiement des équipements en 4G et 5G en France. Il évaluera aussi le nombre d’appareils n’ayant pas pu être installés ou ayant dû être retirés à la suite d’une décision de refus.

Que reproche-t-on au géant chinois Huawei ?

Depuis déjà quelques mois la multinationale Huawei, fondée par Ren Zhengfei, ancien officier de l’Armée de libération du peuple, essuie beaucoup de reproches. Les discussions lors d’une réunion, qui avait regroupé les représentants des pays tels que l’Australie, le Canada, la Nouvelle-Zélande, le Royaume-Uni et les États-Unis en juillet 2018, ont porté sur les capacités de la Chine en matière de cyber espionnage et sur l’expansion militaire croissante. Il faut noter aussi que des responsables américains ont publiquement déclaré que leur plus gros souci était que Pékin puisse contraindre Huawei à utiliser ses connaissances en matière de matériel pour espionner ou saboter des réseaux de télécommunications étrangers. Ces inquiétudes proviennent du fait que Huawei ait fait l’objet d’un examen minutieux de ses liens présumés avec les services de renseignement chinois.

L’article 7 de la loi de 2017 sur le renseignement de la Chine brandi par Danielle Cave de l’Australian Strategic Policy Institute (ASPI) renforce les suspicions autour de Huawei. Le passage de la loi qui montre l’ampleur de l’emprise du Parti communiste chinois sur des entreprises chinoises stipule que « Toutes les organisations et tous les citoyens doivent, conformément à la loi, soutenir, coopérer et collaborer au travail de renseignement national et garder le secret du travail de renseignement national dont ils ont connaissance[...]. L’État protégera les individus et les organisations qui soutiennent, coopèrent et collaborent dans le travail de renseignement national ».

Les pays qui travaillent avec Huawei devraient également se préoccuper des risques de niveau logiciel et des pratiques d’ingénierie du chinois Huawei. En effet, le rapport Huawei Cyber Security Evaluation Centre (HCSEC) Oversight Board 2019 publié en mars par le Comité de surveillance du HCSEC, a averti que Huawei n’avait pas apporté les modifications promises depuis longtemps au niveau de son logiciel et de ses pratiques d’ingénierie, des modifications pourtant indispensables à l’amélioration de la sécurité. Un précédent rapport du gouvernement britannique publié en juillet 2018 avait révélé que des problèmes techniques, affectant la chaîne d’approvisionnement des équipements du groupe chinois et qui avaient exposé les réseaux de télécoms nationaux à de nouveaux risques de sécurité, existaient.

La loi « 5G » française ne fait pas l’unanimité sur le fond et la forme

Même si la loi « 5G » de la France n’est pas anti-Huawei et qu’elle devra s’appliquer à l’ensemble des télécoms, la démarche législative qui a conduit à son adoption ne fait pas l’approbation de tous. En effet, en plus de l’absence d’étude d’impact et d’avis du Conseil d’État, il est reproché au texte de faire plus ou moins doublon avec des dispositions qui existent déjà, notamment dans le Code de la défense.

Au-delà des préoccupations de démarche législative, des opérateurs craignent à la fois des obstacles dans le déploiement de la 5G et des coûts supplémentaires à supporter pour respecter les exigences du législateur. Les concurrents européens de Huawei, qui devraient se satisfaire du champ libre que leur offre la loi en France, sont aussi en désaccord avec la nouvelle loi.
Les réseaux 5G sont attendus en France pour 2020. Pour l’heure, seuls quelques sites 5G expérimentaux sont actifs et les opérateurs tels qu’Orange, SFR, Bouygues Telecom et Free Mobile n’attendent que l’attribution des fréquences pour commencer la transition vers la technologie 5G.

Source : Legifrance

Et vous ?

https://www.developpez.net/forums/i... pensez-vous de la loi « 5G » française maintenant publiée ?

https://www.developpez.net/forums/i... aussi qu’elle pourrait priver Huawei des partenariats français ?

https://www.developpez.net/forums/i... le directeur de l’Agence nationale de la sécurité des systèmes d’information, cette loi n’est pas focalisée seulement sur Huawei. Quels commentaires en faites-vous ?

https://www.developpez.net/forums/i... que la loi adoptée écartera tous les risques liés aux matériels ?

Lire aussi

https://www.developpez.net/forums/i...Les États-Unis demandent à leurs alliés de boycotter les équipements télécoms du chinois Huawei, évoquant des préoccupations de sécurité nationale

https://www.developpez.net/forums/i...Huawei prévoit une enveloppe de 2 milliards USD sur cinq ans pour la cybersécurité, afin de rassurer ses clients occidentaux

https://www.developpez.net/forums/i...Huawei réussit également à s’imposer comme second vendeur de smartphones au 2T18 en Europe, malgré un essoufflement dans la région EMEA

https://www.developpez.net/forums/i...USA : un projet de loi prévoit d’interdire la vente de technologie aux entreprises chinoises, qui commettent des vols de propriété intellectuelle

https://www.developpez.net/forums/i...Huawei présente le Kunpeng 920, le processeur le plus complexe au monde, mais il ne sera disponible que sur les plateformes Huawei

Référence https://droit.developpez.com/ - Contacter le responsable de la rubrique Droit - Nous contacter Participez Hébergement Informations légales Partenaire : Hébergement Web

© 2000-2019 - www.developpez.com - Source : https://droit.developpez.com/actu/272272/Tres-critiquee-la-loi-anti-Huawei-pour-securiser-la-5G-est-desormais-une-realite-mais-elle-ne-discrimine-pas-un-equipementier-en-particulier/

Retour au début du sommaire

5.
Finlande : Nokia obtient 500 m d’euros de financement de l’UE pour la recherche sur la 5G 27 août 2018 – Document ‘eib.org’

Un prêt de 500 millions d’EUR de la BEI servira à accélérer la recherche et le développement de la technologie 5G. Prêt au titre du Fonds européen pour les investissements stratégiques, l’un des piliers de l’initiative fructueuse qu’est le plan Juncker

Nokia, société multinationale finlandaise spécialisée dans les télécommunications, les technologies de l’information, les logiciels et les services, a signé ce jour une opération de prêt de 500 millions d’EUR avec la Banque européenne d’investissement (BEI), au titre du Fonds européen pour les investissements stratégiques (FEIS), un volet clé du Plan d’Investissement pour l’Europe. Nokia utilisera ce prêt pour accélérer encore sa recherche-développement sur la technologie 5G, la norme de nouvelle génération en matière de télécommunications mobiles.

Ce prêt de la BEI, appuyé par le FEIS, soutiendra un important fournisseur européen de technologies qui investit massivement dans la recherche, le développement et l’innovation (RDI) dans un domaine susceptible de déboucher sur des technologies génériques favorables à l’innovation et à la croissance en Europe.

La technologie 5G devrait apporter des vitesses plus élevées, une connectivité massive, une durée de vie des batteries de plusieurs décennies pour les capteurs et des réseaux extrêmement réactifs et fiables pour les clients. Ces avancées pourraient sous-tendre les expériences de réalité virtuelle (RV) et de réalité augmentée (RA) à la demande, les véhicules sans conducteur, la surveillance médicale, les services d’automatisation industrielle avancée et d’autres applications - tous nécessitant une connectivité omniprésente et à faible latence.

S’agissant des réseaux de bout en bout, l’offre de Nokia va du réseau radio au protocole internet (IP) et aux réseaux optiques pour la transmission, au réseau central de transmission par paquets, aux plates-formes de services et à tous les logiciels et services associés au système dans son ensemble. En substance, le portefeuille de Nokia couvre tous les besoins d’un opérateur de télécommunications qui souhaite fournir des services de communications entièrement convergents fixes-mobiles, essentiels à l’ère de la 5G.

Alexander Stubb, vice-président de la BEI chargé des activités de prêt de la Banque en Europe du Nord, a commenté l’opération en ces termes : « La 5G arrive vite, plus vite que ce à quoi la plupart des gens s’attendaient. Elle devrait donner accès à des scénarios d’activités entièrement nouveaux, tout en améliorant considérablement les applications sans fil existantes. Je pense que la mise sur le marché de la 5G améliorera certainement le quotidien des gens, pour reprendre la devise formulée pour le 60e anniversaire de la BEI ».

Kristian Pullola, directeur financier de Nokia, s’est exprimé ainsi : « Nous sommes heureux d’obtenir cet engagement de financement de la BEI, qui partage notre point de vue sur la nature révolutionnaire de la 5G - et sur le fait que cette révolution est déjà en cours. Ce financement renforce nos efforts de recherche sur la 5G et nourrit la dynamique plus vaste que nous avons déjà connue cette année en termes de gains de clients et de premières en matière de développement, soutenant ainsi notre volonté inébranlable d’être un véritable leader sur la 5G - de bout en bout ».

Jyrki Katainen, vice-président de la Commission européenne chargé de l’emploi, de la croissance, de l’investissement et de la compétitivité, s’est exprimé en ces termes : « Pour que l’Europe puisse pleinement adopter et bénéficier des nouvelles technologies, il faut un effort soutenu d’investissement. C’est là que le Plan d’investissement pour l’Europe peut jouer un rôle crucial. Je suis ravi qu’avec l’accord d’aujourd’hui, le Plan contribue aux activités de recherche-développement de Nokia dans plusieurs pays européens pour faire progresser le développement de la technologie 5G. »

Ce prêt, qui étend le profil d’échéances de la dette de Nokia, présente une durée moyenne d’environ cinq ans après le décaissement, qui peut intervenir à tout moment au cours des 18 prochains mois.

Projets – Synthèse statistique NOKIA 5G - Documents liés (figurant dans le registre public) Fiche technique sur les aspects sociaux et environnementaux - NOKIA 5G - Contact Tim Smit t.smit@eib.org +352 4379 – 89076 Bureau de presse press@eib.org +352 4379 – 21000

La BEI est la banque de l’Union européenne - Nous investissons dans un avenir durable pour tous. EIB at a glance ; The European Investment Bank is the lending arm of the European Union. Travailler à la bei Contacts confidentialité Conditions d’utilisation

Résultat de recherche d’images pour ’eib.com’

© Banque européenne d’investissement 2019 - Source : https://www.eib.org/fr/press/all/2018-221-nokia-lands-eur-500-million-eu-financing-for-5g-research

Retour au début du sommaire

6.
L’Afrique 3.0, c’est l’heure - 4 avril 2019 - Document ‘ecoreseau.fr’

Depuis plusieurs décennies, l’Afrique navigue entre un optimisme effréné et une réalité bien moins rose. Et si l’heure de son réveil sonnait enfin ?

Depuis la chute des matières premières de 2015, l’économie du continent africain décroche une nouvelle fois. À tel point que sa croissance s’est figée, en 2016, à son étiage le plus bas depuis 25 ans ! Depuis, léger sursaut mis de côté, le continent tangue, profite et chavire au gré de ses 54 pays. « Malgré des taux de 4 %, la reprise dans les pays exportateurs de minerais, comme la République démocratique du Congo, demeure insuffisante par rapport à la progression de leur population, explique Ruben Nizard, économiste Afrique chez Coface. Mais ailleurs, en Côte d’Ivoire, au Sénégal ou dans les pays de l’Est, comme l’Éthiopie, le Rwanda ou le Kenya, la croissance s’affiche parmi les plus fortes au monde, grâce à de vastes programmes d’investissements et d’infrastructures. »

Risques politiques et politiques publiques à risques

Pourtant, même dans ces économies plus dynamiques, des voix s’élèvent toujours contre l’absence de progrès. « Les taux de pauvreté et de chômage des jeunes restent très élevés, observe l’économiste. Les risques politiques ralentissent le développement de nombreux pays : lutte contre Boko Haram dans le Sahel, violences entre agriculteurs peuls et chrétiens au Nigéria, tensions ethniques et sociales en Éthiopie, etc. »

Guerres civiles et tensions ethniques n’expliquent pas à elles seules le sur-place africain. En cause, tout simplement et dramatiquement, les politiques publiques de bon nombre d’États, responsables du marasme. Alors que près de 50 % de la population vivent sous le seuil de pauvreté, les investissements plafonnent à moins de 20 % du PIB de leurs pays. « L’aide au développement recule elle aussi. Mais pas la corruption qu’elle entraîne souvent, comme au Sierra Leone ou en Angola, où la famille Dos Santos au pouvoir est en train de détourner des dizaines de milliards de dollars », s’inquiète le consultant Jean-Luc Buchalet (son livre, Le futur de l’Europe se joue en Afrique, co-écrit avec Christophe Prat, vient de paraître chez Eyrolles).

La sino-dépendance

Un panorama explosif dont certains « raiders » ont su s’arranger pour profiter des richesses du continent. En premier lieu, la Chine – suivie de près par l’Inde. Les nouveaux businessmen d’Asie ont depuis le début des années 2000 largement distancé les partenaires historiques de l’Afrique, comme la France ou les États-Unis. Mais ces nouvelles relations économiques paraissent très déséquilibrées. « Il existe une dépendance nette à la demande chinoise, détaille l’économiste de Coface*. Alors que les exportations africaines vers la Chine consistent à 90 % en matières premières brutes qu’ingurgitent goulument les usines, les importations vers l’Afrique se composent exclusivement de biens manufacturés ou d’équipement. » Une emprise qui pose également la question de l’accaparement de certaines terres africaines par Pékin ou du risque d’endettement imposé à certains pays pauvres (Djibouti, Éthiopie) par le mastodonte chinois, dans le cadre de son pharaonique projet de nouvelles routes de la soie, One Belt, One Road…

Économie informelle

Malgré ces déséquilibres, c’est cette relation faussée même qui pourrait bien sonner le réveil africain. « L’Afrique entre enfin dans une phase de développement organique, assure l’économiste spécialiste des marchés émergents et chercheur associé à l’Iris*, Jean-Joseph Boillot. Les biens chinois de consommation de masse bon marché engendrent un appétit de travail et de nouveaux services, à l’image des smartphones, des motos et des minibus asiatiques qui connectent entre eux les villages et les marchés. » Il existe bien une autre Afrique, en pleine transformation. « Le premier signal du réveil africain provient des vieilles lignées ethniques commerçantes transfrontalières comme les Peuls, les Dioulas ou les Haoussas en Afrique de l’Ouest. Mais ces entrepreneurs conservateurs – alimentation, industrie ou BTP – restent dans l’économie informelle », constate Boillot.

Afrique 3.0

Restent… les nouvelles technologies et le numérique. Avenir du continent ? Possible. Des secteurs innovants investis par une nouvelle génération d’Africains installés un temps à l’étranger ou qui ont étudié loin du continent avant de revenir créer leur entreprise sur leurs terres. « Ils se structurent avec des réseaux de pépinières comme Afrobytes, pour développer des innovations, aussi bien dans l’énergie solaire ou éolienne que dans la surveillance par drone des cultures de fraise au Mali, la réservation en ligne de places d’autobus ou encore l’utilisation des biomasses, comme en Côte d’Ivoire », s’enthousiasme le spécialiste des économies émergentes, de retour d’un voyage en Côte d’Ivoire et Mauritanie. En découle déjà l’éclosion des premières sucess stories entrepreneuriales à l’image de Jumia – l’Amazon africain – ou de M-Pesa – l’application kényane de mobile banking aux 17 millions d’utilisateurs.

L’Afrique pourrait dominer enfin ses handicaps pour rentrer de pied ferme dans l’économie 3.0. », Jean-Joseph Boillot : « Les innovateurs se caractérisent par leur imagination à trouver des solutions aux contraintes de leur environnement. Là-bas, ils ont une idée à la minute, car tout est encore à faire !

Pierre Havez

Coface : c’est une société d’assurance-crédit. Mission : aider les entreprises à se développer en assurant le risque d’insolvabilité de leurs clients, leur donner les moyens de décider des crédit nécessaires pour vendre sur les marchés intérieurs et à l’export.

Iris : Institut de relations internationales et stratégiques. Association créée en 1991 sous la forme d’un think tank français dédié aux recherches géopolitiques et stratégiques. Le seul organisme de dimension internationale totalement privée et indépendant.

Mais si, la révolution numérique s’accélère !

Décidément, l’Afrique rattrape son retard à vitesse grand V dans le domaine numérique. Le continent espère même faire des nouvelles technologie le fer de lance de sa croissance. Spécialiste de la création de sites Web et de l’externalisation de services, le Français Nicolas Goldstein est l’un des premiers à y avoir cru. Dès 2015, il s’installe à l’Île Maurice pour y fonder un incubateur particulier. « Pour me dissocier des quelques pépinières de start-up existantes, j’ai préféré me concentrer avec mon équipe sur la recherche de talents, la formation et le placement de ces compétences en Europe, en télétravail, explique le jeune quadra. Ces nouveaux talents visent à combler le recul de qualifications en vente, en informatique ou dans les télécoms dans les pays occidentaux dans les prochaines années. » Trois ans plus tard, la structure a déjà placé plus d’une centaine de ces personnes qualifiées et songe désormais à essaimer ce concept à Madagascar, en Côte d’Ivoire ou en Tunisie !

A propos de nous

Que cela soit pour sa culture citoyenne, professionnelle, technologique, ou au niveau de ses loisirs et investissements patrimoniaux, nous pensons qu’il est possible d’informer notre lecteur sur les innovations et d’y réfléchir. ‘EcoRéseau Business s’adresse de manière positive à celui qui entreprend – au sens d’entreprendre sa vie – dans un style que nous voulons fluide et non jargonneux. EcoRéseau Business : Entreprendre, innover, positiverhttps://www.ecoreseau.fr –

Résultat de recherche d’images pour ’ecoreseau.fr’

Source : https://www.ecoreseau.fr/societe/oeil-decale/2019/04/04/lafrique-3-0-cest-lheure/

Retour au début du sommaire

7.
Le guide des 33 pistes d’investissement dans la 5G écrit par Edern Rio 4 décembre 2018 Communiqué ‘opportunites-technos.com’

L’apparition de la 5G va achever la digitalisation de notre environnement et bouleverser les usages, notamment pour les entreprises. Une révolution en passe de changer le marché et d’ouvrir de nouvelles opportunités pour les investisseurs. Pour profiter des nouveaux enjeux stratégiques de la croissance économique, nous mettons à votre disposition ce Guide de l’investissement dans le marché de la révolution 5G (téléchargeable en pdf gratuitement).

« Si tout se passe bien pour la 5G, il se pourrait que nous n’ayons jamais besoin d’une 6G. » – Neil McRae, directeur de l’architecture réseau de BT Group (anciennement British Telecom)

Rien que ça ! Et ce n’est pas moi qui le dit, mais je partage complètement l’enthousiasme de Neil. La 5G n’est pas une norme de plus qui va vous permettre de télécharger un film ultra-HD en moins de 30 secondes, c’est une révolution totale qui va achever la digitalisation de notre environnement.

Le véritable enjeu de la 5G

Ce débit peut sembler être un luxe aujourd’hui, mais sera une nécessité très bientôt. Sans la performance de la 5G, de nombreuses autres technologies ne pourront pas vraiment émerger.

Son véritable enjeu est l’arrivée de l’Internet des objets et l’explosion du nombre d’objets connectés à Internet (et entre eux). L’enjeu est l’émergence de l’Internet of everything : smart cities, voitures autonomes, smart grids, domotique, services de santé à distance, etc.

Selon l’entreprise d’analyse technologique IHS Markit, en 2035, la 5G :

  • créera une chaîne de valeur de 3 500 Mds$ et 22 millions nouveaux emplois ;
  • alimentera un investissement annuel de 200 Mds$ dans la technologie et l’infrastructure ;
  • créera un rendement économique mondial de 12 300 Mds$.
    Ce sont des chiffres authentiquement énormes. Pour rappel, le PIB annuel de la France est de 2,3 Mds$ et celui des Etats-Unis de 19,4 Mds$…

Je le répète : contrairement à ce que l’on pourrait penser, la 5G est une technologie de rupture, une technologie plateforme qui va permettre le déploiement de nombreuses autres innovations et qui va changer durablement la manière dont nous vivons.

L’arrivée de la 5G est aussi importante que l’invention de l’imprimerie, du web ou encore de l’électricité. Et comme dans toute révolution, il y a ceux qui la font et ceux qui la subissent. Des fortunes se feront sur cet outil.

« Être en retard sur la 4G, c’est dommage. Sur la 5G, c’est grave, systémique. Toutes les industries perdraient la possibilité de se moderniser. La voiture connectée serait en retard, les ports, les usines… » expliquait début juin Sébastien Soriano, le président de l’Arcep, lors d’une conférence sur la 5G.

Voici 33 pistes pour en profiter grâce à notre guide de l’investissement dans le marchés de la 5G sur lesquelles vous pouvez d’ors et déjà vous positionner.

Abonnez-vous GRATUITEMENT (ou si vous êtes déjà abonné à notre newsletter, entrez votre e-mail) afin que nous puissions vous envoyer ce guide téléchargeable en pdf et découvrir nos 33 pistes pour profiter de la Révolution 5G.

Contenu :

Résultat de recherche d’images pour ’opportunites-technos.com’

Copyright © 2019 Publications Agora - Source : https://opportunites-technos.com/investir-5g-33-opportunites-pour-portefeuille-pdf/

Retour au début du sommaire

8.
Sécurité, santé, vitesse : que vaut vraiment la 5G ? Par Sophie Kloetzli 12/02/2019 10:00 - Usbek & Rica #Technologie -https://static.usbeketrica.com/imag...Illustration à la Une : © Shutterstock

Toujours plus rapide, efficace et polyvalente : la 5G, star des derniers Consumer Electronics Shows à Las Vegas et du Mobile World Congress à Barcelone (du 25 au 28 février), fait miroiter un futur ultra-connecté, âge d’or de l’Internet des objets. Elle pourrait débarquer en France dès 2020 – mais de nombreux obstacles se dressent encore sur sa route.

Ça fait déjà quatre ans que se murmure l’arrivée de la cinquième génération de téléphonie mobile en France. En 2015, l’Arcep, autorité de régulation, autorisait Orange à mener une première expérimentation. Se succédaient ensuite une série de tests, de consultations publiques, et unefeuille de route publiée à l’été 2018 actant l’ambition du gouvernement de « faire de la France un pays leader de la 5G  ». On prévoit désormais l’attribution des fréquences d’ici le début de l’année prochaine pour un déploiement dans la foulée. Bref, ça commence tout juste à se concrétiser un peu.

Comment ça marche ?

Un débit 10 à 100 fois plus élevé que la 4G, une latence divisée par 5, un nombre d’objets connectés sur le même réseau multiplié par 10… Si elle apparaît à bien des égards comme une version améliorée de son aînée, la 5G, « la vraie », est bien plus qu’une simple « 4G+ », souligne Bertrand Guilbaud, directeur général de l’institut de recherche technologique b<>com, qui s’est déjà vu allouer des fréquences 5G à Rennes et à Lannion pour effectuer des tests. « La 5G permettra une efficacité plus grande de communication, ce que le particulier va remarquer immédiatement. Mais la 5G est aussi une architecture de réseau nouvelle – plus flexible, plus souple, plus sécurisée – qui profitera surtout aux industries.  »

Le réseau 5G, en effet, a la particularité d’être découpé en tranches auxquelles on affecte des priorités et des qualités. « Quand le réseau devient moins performant, il maintient les tranches prioritaires à un niveau de qualité maximale et dégrade les autres  », poursuit-il. Ces tranches prioritaires pourraient notamment être affectées à la police dans le cas d’une intervention d’urgence, ou à des communications de crise. Ce principe, appelé « network slicing  », inquiète toutefois certains défenseurs de la neutralité du net. En 2016 déjà, la Quadrature du net dénonçait le 5G Manifesto, dans lequel des opérateurs télécoms menacent de freiner les investissements dans la 5G si les régulateurs ne renoncent pas aux règlementations européennes sur la neutralité du net.

Du point de vue de l’infrastructure, la 5G devrait s’appuyer dans un premier temps sur les fréquences existantes de la 4G avant de se voir affectée à une seconde bande de fréquences plus élevées (au-dessus de 26 GHz), appelées ondes millimétriques. Ce qui nécessitera la création de nouveaux sites et antennes, en particulier dans les zones urbaines très denses.

À quoi ça sert ?

En plus de renforcer les réseaux mobiles dans les grandes villes, cette architecture de réseau nouvelle devrait faciliter le développement de technologies nécessitant de gérer de grandes quantités de data en temps réel – dépassant largement les usages actuels de la 4G. Parmi elles : objets connectés en tous genres, réalité augmentée et virtuelle, smart cities, intelligence artificielle, télémédecine, voitures autonomes et connectées… 

Elle ne devrait en revanche pas (trop) concurrencer la fibre. « Les pays qui se lancent dans la 5G fixe [pour la télévision ou l’Internet à domicile], comme les États-Unis, sont très en retard sur la fibre, contrairement à la France », expliquait le président de l’Arcep, Sébastien Soriano, au Monde. « Chez nous, on sera plus dans une logique de complémentarité  ».

Sécurité, santé : la 5G est-elle dangereuse ?

Plus résilients, les réseaux 5G seraient « capables de se reconfigurer tous seuls  », précise Bertrand Guilbaud chez b<>com. Et ceci grâce à la virtualisation du réseau, dont les fonctions sont assurées par un logiciel et dans le Cloud. L’ANSSI, l’agence nationale de la sécurité des systèmes d’information, a été mobilisée pour assurer un bon niveau de cybersécurité.

Côté santé, la nocivité des ondes millimétriques fait encore débat. En septembre 2017, 170 scientifiques ont alerté sur les risques créés par des fréquences toujours plus élevées, à savoir cancer, dommages génétiques et du système reproducteur, troubles neurologiques… Pour sa part, Bertrand Guilbaud « reste convaincu qu’on pourra suivre la régulation qui sera imposée dans le domaine  », arguant que « la performance des signaux 5G est supérieure à ceux de la 4G, donc on peut espérer plus de débit pour moins d’énergie consommée  ». Mais pour les militants « anti-ondes », ces seuils seraient trop « élevés », rapporte Capital.

C’est pour quand ?

« Très honnêtement, on n’est pas près d’en avoir  », temporise Bertrand Guilbaud chez b<>com. À l’écouter, les objectifs fixés par l’Union européenne – à savoir une couverture commerciale dans au moins une grande ville française en 2020, et des principales villes et axes de transport en 2025 – sont ambitieux, et au vu des avancées actuelles, peu réalistes. L’attribution des fréquences, initialement prévue mi-2019, ne se fera finalement qu’au début de l’année prochaine, a révélé la secrétaire d’État auprès du ministre de l’Économie et des Finances Agnès Pannier-Runacher le 30 janvier dans une interview au Figaro. De fait, la mise en place de la 5G sera très progressive. « Dans un premier temps, ce qu’on appellera 5G ressemblera davantage à une 4G+  », ajoute-t-il. Sans compter le temps nécessaire pour son déploiement.

Ailleurs dans le monde, la course pour la 5G est déjà bien entamée, et provoque déjà des remous géopolitiques. Donald Trump accuse le groupe de téléphonie Huawei d’espionnage pour le compte du gouvernement chinois. Et l’Union européenne pourrait bien en faire de même, freinant l’ascension du constructeur, qui devrait présenter son nouveau smartphone pliable et 5G-compatible au MWC à la fin du mois.

Sur le même sujet : 

La 4G sur la Lune, c’est (finalement) pour 2019 !

> Électrohypersensibles : « Imagine des centaines de pincements... mais dans ta tête »

Aux Etats-Unis, RIP neutralité du Net ?

John Oliver va vous faire comprendre (et aimer) la neutralité du Net 

Usbek & Rica est le média qui explore le futur. Tous les futurs : ceux qui nous font peur et ceux dont on rêve.

Source : https://usbeketrica.com/article/securite-sante-vitesse-que-vaut-5g

Retour au début du sommaire

9.
La Chine attribue ses premières licences 5G Publié le 06/06/2019 à 6h10 Mis à jour le 06/06/2019 à 12h40 – Document ‘Capital.fr’ ChineIllustration -AFP/Archives/HECTOR RETAMAL

La Chine a annoncé jeudi avoir attribué ses premières licences 5G commerciales, au moment où le géant chinois des télécoms Huawei, soupçonné d’espionnage par Washington, est dans le collimateur de plusieurs gouvernements occidentaux.

Quatre opérateurs nationaux (China Telecom, China Mobile, China Unicom et China Broadcasting Network) sont autorisés ’à exploiter les communications mobiles cellulaires numériques de cinquième génération’, a annoncé sur son site internet le ministère de l’Industrie et des Technologies de l’information.

Depuis l’an dernier, des essais de 5G étaient déjà réalisés dans plusieurs villes de Chine mais c’est la première fois que les autorités donnent leur feu vert pour un développement commercial.

Peu après l’obtention de la licence, l’opérateur China Mobile, le plus grand au monde en termes d’abonnés, a indiqué qu’il couvrirait cette année 40 villes de Chine en 5G.

’Comme toujours nous invitons les entreprises étrangères à participer activement au marché de la 5G en Chine, à collaborer à son développement et à partager ses réalisations’, a indiqué dans le communiqué Miao Wei, le ministre de l’Industrie et des Technologies de l’information.

L’attribution des licences est une façon pour Pékin de montrer au monde que la Chine ’continuera d’élargir son ouverture’ dans un contexte de guerre commerciale avec les Etats-Unis, a de son côté commenté un porte-parole du ministère des Affaires étrangères, Geng Shuang, lors d’un point de presse quotidien.

Le déploiement de la 5G [voir le tableau], qui permettra de transmettre beaucoup plus rapidement de très grandes quantités de données, est présenté comme le prochain grand défi en matière de télécoms dans le monde.

Il suscite l’espoir de nombreuses applications nouvelles, mais aussi des inquiétudes concernant la sécurité de cette technologie.

Huawei, considéré comme le leader mondial des équipements 5G, est dans la tourmente depuis que l’administration Trump a annoncé en mai vouloir interdire aux entreprises américaines de vendre des technologies au groupe chinois, qu’elle soupçonne d’espionnage au profit de Pékin.

En dépit de ces accusations, le géant des télécoms a signé mercredi un accord pour développer un réseau 5G en Russie, à l’occasion d’une visite d’Etat du président chinois Xi Jinping.

Huawei ’soutient pleinement’ les opérateurs chinois dans le déploiement de la 5G en Chine, a indiqué l’entreprise après l’attribution des licences dans le pays asiatique.

’Nous pensons que dans un avenir proche la 5G chinoise va être à la pointe du secteur dans le monde’, a-t-elle indiqué sur le réseau social Weibo.

De son côté, le fabricant chinois de smartphones haut de gamme Vivo a fait savoir que ses téléphones 5G étaient prêts à être testés, avant une prochaine commercialisation.

’La Chine étant le plus grand marché du monde pour la téléphonie, presque tout ce qu’elle fait est important’ et le pays ’a le pouvoir de dominer le marché’, relève Peter Jarich, qui dirige le cabinet spécialisé britannique GSMA Intelligence.

En avril, la Corée du Sud a frappé un grand coup sur le marché mondial des télécoms en annonçant une couverture totale de son territoire en 5G.

Capital - Actualités économiques, bourse & financehttps://www.capital.fr -Conditions générales d’utilisation Charte pour la protection des données Mentions légales Tous vos magazines Abonnement magazine Publicité

© 2019 Prisma Media - Tous droits réservés - Un site du groupe Prisma Media (G+J Network) – Source : https://www.capital.fr/entreprises-marches/la-chine-attribue-ses-premieres-licences-5g-1340964

Retour au début du sommaire

10.
5G : au coeur de la guerre technologique entre la Chine et Donald Trump - Quelles sont les promesses de la 5G, cette technologie mobile au centre du bras de fer entre la Chine et les Etats-Unis ? Publié le 07/06/2019 à 17h00 Mis à jour le 07/06/2019 à 17h23 – Document ‘capital.fr’

La 5G, ou ’cinquième génération de standards pour la téléphonie mobile’, suscite de nombreux espoirs. Si demain les voitures autonomes déferlent dans nos rues et les robots peuplent nos usines, maisons et hôpitaux, ce sera en effet grâce à cette infrastructure mobile, au coeur de l’affrontement technologique entre les Etats-Unis et la Chine. Voici un petit rappel de ses promesses, des acteurs en présence, et des inquiétudes que suscite ce virage technologique.

Que va changer la 5G ?

La 5G promet de tout connecter, partout et tout le temps. Un potentiel énorme pour la numérisation de l’économie, en particulier l’industrie qui en attend beaucoup. Le groupe français Orange estime que la 5G va offrir un débit jusqu’à 10 fois plus rapide que la 4G. Pour l’internaute, cela signifie un accès plus rapide à des contenus audiovisuels haute définition, ainsi qu’aux jeux en ’streaming’, marché en pleine explosion.

C’est toutefois la possibilité de faire circuler en masse des milliards de données, sans engorgement, qui fait la différence majeure avec les réseaux mobiles précédents. La 5G est fréquemment présentée comme la technologie de ’l’internet des objets’ permettant à toutes sortes d’équipements électroniques connectés à internet de ’dialoguer’. Revers de la médaille : le risque majeur du piratage de milliards de données, dont des secrets industriels et informations médicales privées qui circuleront sur des réseaux plus décentralisés.

>> A lire aussi - 7 facteurs qui font que Trump pourrait être réélu

Qui sont les principaux acteurs ?

Si les opérateurs télécoms seront, dans la plupart des cas, la colonne vertébrale de la future 5G, ces derniers se fournissent auprès d’un nombre restreint d’équipementiers. La bataille se joue entre deux équipementiers européens, le suédois Ericsson et le finlandais Nokia, qui a racheté en 2016 le franco-américain Alcatel-Lucent, et le géant chinois des télécoms Huawei. D’autres fournisseurs d’équipements sont présents mais à plus faible échelle, en particulier le Sud-Coréen Samsung, ainsi qu’un autre Chinois, ZTE.

>> A lire aussi - Croissance, Bourse… Donald Trump est-il un magicien, ou finira-t-il par provoquer un krach ?

Où en sont les déploiements ?

En Asie, la Corée du Sud a pris une longueur d’avance avec une couverture de l’ensemble de son territoire en un temps record. La Chine vient d’attribuer ses premières licences 5G commerciales. Peu après l’obtention de la licence, l’opérateur China Mobile, le plus grand au monde en termes d’abonnés, a indiqué qu’il couvrirait cette année 40 villes de Chine en 5G.

>> A lire aussi - Croissance : “la plupart des grandes économies risquent de ralentir, mais la Chine pourrait faire exception”

Aux Etats-Unis, l’internet fixe a été la première application de la 5G, dès fin 2018, avec une vingtaine de villes couverte par AT&T. Verizon propose un service mobile 5G depuis début avril à Minneapolis et Chicago. L’administration Trump prévoit par ailleurs 20 milliards de dollars pour déployer cette technologie dans les zones moins peuplées.

Côté européen, l’Italie ou la Pologne ont accordé les bandes de fréquences nécessaires, procédure en cours en Allemagne et qui sera réalisée en octobre en France. La Suisse dispose de la 5G dans ses principales villes, également déployée notamment en Finlande ou en Estonie. Au Royaume-Uni, l’opérateur EE, filiale du groupe BT, vient de lancer son réseau 5G dans six villes, et Vodafone doit se lancer en juillet.

>> A lire aussi - Entre la Chine et les Etats-Unis, c’est ’je t’aime, moi non plus’

Pourquoi Huawei fait-il peur ?

En moins d’une décennie, le géant chinois est devenu un acteur incontournable des réseaux mobiles. D’abord connu pour sa capacité à produire à bas coût, il est désormais devenu un leader technologique sur la 5G, en déposant une multitude de brevets.

Dans la bataille diplomatique et économique qui oppose les Etats-Unis à la Chine, la provenance des équipements est un élément essentiel. Le président américain Donald Trump a interdit le mois dernier aux réseaux télécoms américains de se fournir en équipements auprès de sociétés étrangères jugées à risque, une mesure qui cible clairement Huawei. Les Américains, qui brandissent notamment la crainte d’un espionnage massif, font également pression sur leurs alliés pour barrer la route au groupe chinois.

Les Européens avancent jusqu’ici en ordre dispersé sur la question. Des pays tels que l’Allemagne ont accepté au moins formellement la participation de Huawei à la construction de leurs réseaux, d’autres comme la République tchèque ont lancé des mises en garde.

>> A lire aussi - Donald Trump sous-estime notre force, avertit Huawei

Au Royaume-Uni, la question a même suscité une crise politique, la Première ministre Theresa May limogeant début mai son ministre de la Défense, accusé d’avoir fait fuiter dans la presse des informations sur une possible participation de Huawei aux infrastructures 5G britanniques. Huawei assure de son côté que ses équipements sont fabriqués à partir de composants provenant du monde entier, qu’ils n’ont jamais été pris en défaut et que la sécurité est essentielle pour lui.

Une note interne de l’Association mondiale des opérateurs (GSMA) estime qu’il en coûterait 55 milliards d’euros et 18 mois de retard aux opérateurs européens de télécommunications si Huawei et d’autres entreprises chinoises étaient bannies du déploiement de la 5G en Europe. Vendredi, le président russe Vladimir Poutine a condamné les tentatives de ’chasser’ Huawei des marchés mondiaux, alors que le groupe chinois vient de décrocher un accord pour déployer la 5G dans le pays. ’On qualifie déjà ça, dans certains milieux de première guerre technologique de l’époque numérique qui commence’, a poursuivi M. Poutine…

A lire aussi

Capital - Actualités économiques, bourse & financehttps://www.capital.fr -Conditions générales d’utilisation Charte pour la protection des données Mentions légales Tous vos magazines Abonnement magazine Publicité

© Capital (avec Agence France Presse) - Source : https://www.capital.fr/economie-politique/la-5g-technologie-mobile-au-coeur-de-laffrontement-entre-chine-et-etats-unis-1341276

Retour au début du sommaire

11.
La 5G arrive à peine que la 6G fait déjà débat dans le secteur des télécoms Publié le 29/04/2019 à 15h38 – Document ‘ZDNet’ – Illustration

Alors que la 5G arrive tout juste sur certains marchés dont la Corée du Sud et les États-Unis et qu’elle ne deviendra pas une réalité avant 2020 pour les Français, certains réfléchissent déjà à la 6G. Cette prochaine norme de réseau mobile a en effet été évoquée lors du Brooklyn 5G Summit 2019, qui s’est tenu du 23 au 26 avril 2019 et auquel ont participé les équipementiers télécoms Ericsson, Huawei et Nokia. Cette 6G fait d’ailleurs débat dans le secteur, certains planchant pour une évolution de la 5G et d’autres pour une rupture plus nette.

Au Brooklyn 5G Summit 2019, Rajeev Suri, président de Nokia, déclarait : ’Ce sommet concerne la 5G, mais c’est aussi l’année 0 de l’ère 6G’. Et de préciser sa vision des choses : ’Il y a une crainte raisonnable que les gens soient distraits par la 6G, alors que la 5G en est encore à ses balbutiements (…) Mais nous devons aussi reconnaître que des recherches prospectives et des composants technologiques potentiels pourraient être utiles, non seulement pour la 6G, mais aussi pour l’amélioration de la 5G. Et c’est sur cela que les laboratoires Bell travaille.’ Comme l’indique Peiying Zhu, responsable de la recherche réseaux sans-fil chez Huawei, le groupe chinois a plutôt une approche d’amélioration. Elle déclarait en effet : ’Nous avons effectivement conçu la norme avec une approche progressive. De cette façon, c’est un peu planifié.’ Et d’ajouter que le Huawei aimerait surtout apporter sa contribution s’il s’agit d’améliorer les débits montants, plutôt que les débits descendants.

Mais pour d’autres, membres de l’organisme de normalisation 3GPP, la 6G ne doit pas être développée dans la précipitation et finir comme une simple évolution. Pas question d’une 6G qui coexisterait avec la 5G avant de la remplacer. Il s’agit en effet d’éviter de limiter les perspectives de la nouvelle technologie et de garder certains aspects de la précédente, en voulant justement assurer la transition. Pour Arun Ghosh, de l’opérateur AT&T, l’évolution des communications mobiles pourrait se traduire par l’élimination du modèle cellulaire. ’Les réseaux multi-hubs existent depuis des décennies. Ils n’ont tout simplement pas joué dans le réseau cellulaire’, a-t-il indiqué, pour expliquer comment s’adapterait l’architecture réseau pour prendre en compte cette évolution. La 3GPP met le dossier sur le tapis, car elle estime urgent que les acteurs se mettent d’accord.

Après avoir dit que la 4G suffisait amplement, que la 5G pouvait attendre et qu’il fallait ralentir la cadence, les opérateurs et politiques ont fini par revenir pour demander une normalisation rapide, afin d’accélérer le déploiement et d’être les premiers à proposer la 5G. Or, la normalisation prend du temps. Adrian Scrase explique la position de la 3GPP de la façon suivante : ’Ce que je veux dire, c’est que les normes arrivent toujours soit trop tôt, soit trop tard. Il est très difficile d’avoir des normes parfaitement respectées. C’est encore plus difficile lorsque la chronologie ne cesse de changer.’

Source : ZDNet - Mentions légalesQui sommes nous Nous contacter - Gestion de la confidentialité (RGPD)

© 2005 - 2019 Univers Freebox – Source : https://www.universfreebox.com/article/49727/La-5G-arrive-a-peine-que-la-6G-fait-deja-debat-dans-le-secteur-des-telecoms

Retour au début du sommaire

12.
Selon Huawei, la 6G sera 100 fois plus rapide que la 5G Par Thomas Delozier Publié le 02/10/19 à 14h36 – Document ‘lesnumeriques.com’ - Téléphonie SmartphoneIllustration © iStock

Selon l’un des dirigeants de Huawei, la 6G ira 100 fois plus vite que la 5G et pourra être utilisée dans l’espace. Des déclarations qui permettent à l’entreprise chinoise de rappeler qu’elle souhaite déjà être pionnière sur cette technologie.

Malgré ses déboires actuels, Huawei continue de se projeter. Il y a quelques semaines, Ren Zhengfei, fondateur et PDG de l’entreprise, annonçait que ses équipes de recherche et développement se penchaient déjà sur la 6G, la génération de réseau télécom qui arrivera après la 5G, dans 10 ans environ. En ce début octobre, Richard Yu, un autre dirigeant de la firme, est allé un peu plus loin avec des promesses spectaculaires au micro de la télévision chinoise. Au programme, un débit 100 fois plus rapide que sur la 5G et des communications… dans l’espace. Déblayons tout ça.

Des ondes instables

Pour atteindre une telle vitesse de transmission, la 6G devrait exploiter des ondes dans les bandes de fréquences térahertz. Ces ondes nanométriques, aux longueurs d’onde très courtes, proposent des débits impressionnants, tutoyant parfois le téraoctet par seconde, mais arrivent avec un inconvénient majeur. Comme cela sera déjà le cas avec les ondes millimétriques, elles bénéficient d’un pouvoir de pénétration très faible. Le moindre obstacle pourrait ainsi stopper leur propagation. Ainsi, l’intérêt de leur utilisation en tant que réseau mobile, de particulier à particulier, s’en voit réduit.

Article recommandé : Que va apporter la 5G en ville ?

Richard Yu explique ainsi que la 6G se trouvera un chemin, quel que que soit l’environnement, ’à travers la mer, la terre et l’espace’. Une affirmation qui semble davantage être un discours marketing qu’autre chose. Toute onde électromagnétique est capable de se déplacer dans le vide, sa propagation dans l’espace est donc logique. Reste que la Nasa n’a pas attendu les réseaux mobiles pour développer des systèmes de communication dans l’espace. L’utilité d’avoir du réseau sur son smartphone en pleine Voie lactée est encore à pondérer.

Article recommandé : Orange lancera sa panoplie d’offres 5G au printemps 2020

Enfin, Richard Yu a rapidement évoqué les possibles usages de la 6G. Selon lui, elle sera utilisée ’par les objets connectés, l’industrie, les voitures autonomes, les usines’. Des usages qui devraient déjà se développer avec la 5G, annoncée d’ici quelques mois en France.

Comparatif & Guides d’achat

Les Numériques - Test, actu, comparatif high-tech ...https://www.lesnumeriques.com -Vie privée Cookies Conditions Générales d’Utilisation

Résultat de recherche d’images pour ’lesnumeriques.com’

Tout droits réservés © 2019 - Source : https://www.lesnumeriques.com/telephone-portable/selon-huawei-la-6g-sera-100-fois-plus-rapide-que-la-5g-n141287.html

Retour au début du sommaire

13.
D’après Huawei, la 6G fonctionnera « dans l’espace » et elle sera 100 fois plus rapide que la 5G Par Remi Lou le 02 octobre 2019 à 09h15 – Document ‘journaldugeek.com’ - Illustration 6G

Alors que tous les yeux sont rivés vers la 5G, qui s’apprête à débarquer en France, Huawei travaille déjà sur la 6G et nous le fait savoir. L’actuel PDG de la division mobile de la firme a profité d’une interview pour dévoiler les premiers débits théoriques de la future norme réseau, et on vous prévient, ça décoiffe.

Bien que la 5G ne soit pas encore implantée dans nos contrées, cela n’empêche pas Huawei de se projeter dans l’avenir. La firme, malgré ses déboires avec le gouvernement de Donald Trump, reste toujours l’un des grands leaders mondiaux de la nouvelle norme réseau, et compte bien le rester lorsque la 5G cédera sa place à la 6G. Pour ce faire, Huawei travaille déjà sur la prochaine norme réseau, et a d’ores et déjà ouvert un laboratoire de test au Canada afin d’établir les normes de cette technologie.

Bien que l’apparition de la 6G soit encore bien lointaine, le PDG de Huawei, Richard Yu, a profité d’une interview pour CCTV, repérée par Phonandroid, afin de nous en apprendre plus sur l’avancée des travaux autour de la 6G, et c’est prometteur.

La 6G sera accessible « dans l’air, l’espace, la terre et la mer »

Selon l’actuel dirigeant de la firme chinoise, la 6G devrait totalement bouleverser nos usages, avec des débits près de 100 fois supérieure à ceux de la 5G, proposant elle-même des débits bien supérieurs à ceux que l’on connaît actuellement avec la 4G (mais après tout, c’est logique). Pour ce faire, Richard Yu a expliqué que la 6G se reposera sur des ondes comprises entre 100 GHz et 30 THz. Surtout, ces débits ébouriffants seront accessibles « dans l’air, l’espace, la terre et la mer », selon les dires du PDG de Huawei.

Richard Yu estime que le déploiement de la 6G débutera dans 10 ans, et que cette norme apportera son lot de promesse, notamment dans le secteur des véhicules autonomes, de l’internet des objets ou encore de la domotique. Pour autant, avant de s’imaginer en 2030, contentons-nous déjà de la 5G qui débarque l’année prochaine en France, et ses promesses déjà plutôt satisfaisantes en termes de vitesse.

À lire aussi sur ce sujet : 5G : L’ultra-haut débit bientôt dans la poche ?

Application Android - Accueilhttps://www.journaldugeek.com

Résultat de recherche d’images pour ’journaldugeek.com logo’

Source : https://www.journaldugeek.com/2019/10/02/huawei-6g-espace-100-fois-plus-rapide-5g/

Retour au début du sommaire


Rubrique B - Initiation au monde quantique et perspectives d’application

13bis.
Ordinateur : les promesses de l’aube quantique Par Julien Bourdet - 15.04.2019 – Document ‘lejournal.cnrs.fr’

Photo - Réfrigérateur à dilution de l’ordinateur quantique à circuits supraconducteurs construit par IBM. G. Carlow / IBM Research

Longtemps resté une simple idée de physicien, l’ordinateur quantique, qui promet de révolutionner le calcul, devient une réalité de plus en plus tangible. Dans quelques années, les premières machines capables de surpasser les ordinateurs classiques devraient faire leur apparition. Cet article fait partie du TOP 10 des plus lus sur notre site cette année.

Les supercalculateurs les plus puissants de la planète pourraient bientôt être renvoyés à la préhistoire de l’informatique. D’ici à quelques années, pour les plus optimistes, des machines d’un nouveau genre, offrant des capacités de calcul phénoménales, feront leur apparition : les ordinateurs quantiques. Imaginé au début des années 1980 par le Prix Nobel de physique Richard Feynman, le concept d’un tel ordinateur devient aujourd’hui de plus en plus une réalité. «  Nous vivons actuellement une époque charnière où les industriels, comme Google ou IBM, s’emparent du sujet qui était resté jusqu’ici l’apanage des laboratoires de recherche et cela promet de nous faire passer des caps technologiques majeurs », se réjouit Tristan Meunier, de l’Institut Néel1. Même son de cloche pour Eleni Diamanti, du Laboratoire d’informatique de Paris 62. «  Dans les prochaines années, on disposera d’ordinateurs quantiques suffisamment performants pour battre nos ordinateurs traditionnels sur certains problèmes.  »

La puissance de la superposition et de l’intrication

Comme son nom l’indique, un ordinateur quantique tire parti des lois de la mécanique quantique, une théorie qui décrit les phénomènes physiques à l’échelle atomique. Ces étonnantes lois autorisent une particule, un atome ou une molécule à se trouver dans différents états en même temps – on parle d’états superposés. Ainsi, alors que dans un ordinateur ordinaire, les informations sont codées sous la forme de bits qui ne peuvent prendre que deux valeurs, 0 ou 1, selon le passage au non de courant électrique à travers un transistor, les bits quantiques (ou qubits) peuvent simultanément prendre les valeurs 0 et 1. Qui plus est, lorsque deux qubits interagissent, leurs états physiques « s’enchevêtrent », si bien que les deux systèmes ne peuvent plus être décrits de façon indépendante – on parle d’états intriqués.

Photo - Le Prix Nobel Richard Feynman (1918-1988) lors d’une conférence au CERN en 1965. CERN / Science Photo Library / Cosmos

Grâce à ces deux phénomènes, la superposition et l’intrication, un ordinateur quantique peut en théorie avoir accès à la totalité des résultats possibles d’un calcul en une seule étape, là où un ordinateur classique doit traiter l’information de façon séquentielle, un résultat après l’autre. C’est ce parallélisme massif qui est au cœur de la puissance de l’ordinateur quantique.

La vitesse de calcul des algorithmes quantiques

Dès les années 1990, les chercheurs ont proposé des algorithmes pour de tels ordinateurs. Et démontré mathématiquement que mis en œuvre sur ces machines, ils réaliseraient effectivement certains calculs à une vitesse dépassant tout ce qu’on pourrait imaginer avec un ordinateur classique. Ainsi, en 1994, le mathématicien américain Peter Shor, du MIT, présente un algorithme avec lequel il serait possible de factoriser n’importe quel nombre, c’est-à-dire le décomposer en un produit de nombres premiers, en un temps record. 

Un ordinateur quantique peut en théorie avoir accès à la totalité des résultats possibles d’un calcul en une seule étape, là où un ordinateur classique doit traiter l’information de façon séquentielle, un résultat après l’autre.

De quoi casser la plupart des systèmes de cryptographie actuels, du chiffrement de nos transactions bancaires aux codages permettant d’échanger des secrets d’État, qui reposent précisément sur l’explosion en temps de calcul de la factorisation pour des nombres de plus en plus grands. Un problème de ce genre qui prendrait plusieurs milliards d’années à un ordinateur classique serait ainsi résolu en quelques minutes par un ordinateur quantique !

De même, en 1997, Lov Grover, des laboratoires Bell, démontre avec son algorithme qu’un ordinateur quantique pourrait considérablement augmenter l’efficacité des algorithmes classiques utilisés pour la recherche d’informations sur une base de données. 

Par exemple, la recherche d’un élément parmi dix mille données nécessiterait seulement une centaine d’étapes, contre dix mille pour un ordinateur traditionnel. Le gain de temps pour le traitement des données massives serait considérable. On comprend alors l’intérêt de sociétés comme Google pour cette nouvelle technologie.

L’accumulation de qubits

Restait ensuite à mettre au point les briques de base de ces ordinateurs quantiques, les fameux qubits, capables d’être dans deux états à la fois. Rapidement, les physiciens s’y sont attelés, partout dans le monde. De nombreux candidats ont ainsi été expérimentés : des atomes, des ions, des molécules, des électrons, des photons ou encore des circuits supraconducteurs. Avec, déjà, de beaux succès dans la manipulation de ces qubits. Ainsi, en 2003, Rainer Blatt, de l’université d’Innsbruck, en Autriche, a réalisé la première porte logique à deux qubits en utilisant des ions calcium, un dispositif clé pour pouvoir effectuer des opérations en couplant les qubits entre eux.

Photo - Puce à circuits supraconducteurs intégrant 3 qubits (taille réelle : 8mm x 4mm). IBM Research

Quant à la plus belle prouesse calculatoire, elle a été accomplie en 2012 par une équipe de l’université de Bristol, en Angleterre, qui est parvenue à factoriser 21, soit à montrer que ce nombre se décompose en 3 fois 7, grâce à un dispositif photonique. Certes la performance est modeste, mais elle représente une démonstration de principe de l’algorithme de Shor, dont la puissance devrait se révéler pour des nombres beaucoup plus grands.

Car, on l’aura compris, l’avantage du calcul quantique sur son équivalent classique est d’autant plus grand que la quantité d’informations à traiter est élevée. En d’autres termes, «  pour être performant et présenter un intérêt, un ordinateur quantique devra comporter un grand nombre de qubits. Pour les problèmes de factorisation par exemple, il faudra en coupler un millier, au bas mot », précise Simon Perdrix, du Laboratoire lorrain de recherche en informatique et ses applications3.

Le frein de la décohérence

Et c’est bien là le problème. « Pour qu’un ordinateur quantique fonctionne, il faut que ses qubits conservent leurs propriétés quantiques le temps du calcul. Or, du fait des interactions avec l’environnement (champ magnétique, lumière, agitation thermique...), tout pousse un système quantique à perdre ses propriétés. Et cela est d’autant plus vrai que le système contient plus de qubits  », explique Sébastien Tanzilli, de l’Institut de physique de Nice4 et qui représente la France au sein du Quantum Community Network, le comité chargé de piloter l’initiative européenne Quantum Technologies Flagship. Ce phénomène baptisé décohérence constitue l’obstacle principal dans la construction de ces ordinateurs.

Pour qu’un ordinateur quantique fonctionne, il faut que ses qubits conservent leurs propriétés quantiques le temps du calcul.

Mais loin d’être découragés, les physiciens, dès le début, ont tenté de mieux comprendre le processus et ils ont tout fait pour le contrôler. Résultat : depuis la mise au point des premiers qubits, voici environ vingt-cinq ans, leur temps de cohérence n’a cessé d’être allongé et on est parvenu à intriquer un nombre toujours plus grand de qubits. «  Les progrès en matière de conception des qubits et de leur manipulation ont fait qu’on a pu repousser, lentement mais sûrement, la limite du nombre de qubits, et personne ne peut dire aujourd’hui où se situe cette limite  », constate Tristan Meunier. Actuellement, le record du nombre de qubits intriqués est de 20. Il est vrai que Google a annoncé en 2018 avoir réalisé un processeur quantique constitué de 72 qubits, mais sans démontrer combien d’entre eux ont pu effectivement être intriqués.

Des implémentations prometteuses

Dans cette course au nombre de qubits et à la réalisation de l’ordinateur quantique, deux systèmes sont aujourd’hui au coude à coude et offrent les perspectives les plus intéressantes. Le premier : les ions piégés. Développés au début des années 1990, il s’agit d’atomes – de calcium notamment – auxquels on a retiré un ou plusieurs électrons et qu’on piège sous vide à l’aide de lasers. Ce sont eux qui détiennent le record du temps de cohérence, qui peut atteindre plusieurs minutes dans certains dispositifs. La contrepartie, c’est qu’ils sont lents à manipuler, ce qui aurait pour conséquence de ralentir les calculs. Autre inconvénient : « Les techniques de piégeage sont relativement compliqués à mettre en place si bien qu’on a du mal à imaginer comment on pourra monter en taille et atteindre le millier de qubits  », note Sébastien Tanzilli. Certains imaginent déjà des solutions pour y parvenir, mais le défi reste de taille.

Depuis la mise au point des premiers qubits, voici environ vingt-cinq ans, leur temps de cohérence n’a cessé d’être allongé et on est parvenu à intriquer un nombre toujours plus grand de qubits.

Second favori : les circuits supraconducteurs. Apparus à la fin des années 1990, ce sont des circuits électriques de taille micrométrique comportant des électrodes métalliques qui deviennent supraconductrices – c’est-à-dire qui conduisent l’électricité sans résistance – à très basse température. Grâce à des barrières isolantes ultra-fines entre ces électrodes, appelées jonctions Josephson, ces circuits se comportent comme des atomes artificiels dont il est possible de manipuler l’état quantique. En matière de décohérence, les qubits supraconducteurs font moins bien que les ions piégés mais ils sont en revanche plus rapides à manipuler. 

Autre avantage selon Patrice Bertet, du Service de physique de l’état condensé au CEA Saclay5, laboratoire qui a eu un rôle pionnier dans le développement de ces systèmes : « Leur technique de fabrication est plutôt simple, ce qui permet de les dupliquer facilement et d’envisager d’en intégrer un grand nombre sur une même puce.  » C’est ce qui explique pourquoi ces dispositifs sont aujourd’hui parmi les plus populaires auprès des industriels. Cette option a notamment été choisie par IBM et Google pour leurs machines.

Photo - Vue intérieure du réfrigérateur à dilution d’un ordinateur quantique à circuits supraconducteurs. IBM Research

Plus récemment, un troisième outsider est venu se joindre à la course : les spins d’électrons dans le silicium. Il s’agit là d’isoler des électrons dans une matrice de silicium et d’utiliser leur spin, sorte de rotation de la particule sur elle-même, comme bit quantique d’information. Développés depuis cinq ans seulement, ces qubits sont encore relativement « fragiles » et seuls deux d’entre eux ont pu être intriqués à ce jour. Mais de l’avis général, ils devraient parvenir bientôt aux mêmes niveaux de performance que les deux dispositifs pionniers. Et surtout, «  ce sont les seuls qu’on pourra intégrer à très grande échelle.

En effet, leur fabrication, qui utilise exactement les mêmes techniques, déjà parfaitement maîtrisées, que celles de la micro et de la nanoélectronique, justement à base de silicium, fait qu’on peut les miniaturiser à l’extrême », avance Tristan Meunier. Enthousiaste sur le potentiel d’une telle technologie, le chercheur est un des responsables du projet nommé QuCube mené en partenariat avec deux autres laboratoires6 et dont l’objectif est la mise au point d’ici à six ans d’un processeur à base de silicium réunissant 100 qubits.

Photo - Salle blanche de l’Institut Néel : le faisceau d’un microscope électronique à balayage permet de fabriquer et d’étudier les circuits dédiés à la physique fondamentale ou à l’informatique quantique. C. Frésillon/Institut Néel/CNRS Photothèque

Alors, qui de ces trois candidats sortira en tête et conduira à la réalisation du premier ordinateur quantique ? «  Impossible de le dire, chaque dispositif présentant certains avantages que ne possède pas l’autre. Aucun d’entre eux ne peut aujourd’hui prétendre à la victoire  », estime Sébastien Tanzilli.

L’indispensable correction d’erreur

Une chose est sûre : améliorer les performances des qubits ne suffira pas. Pour faire de l’ordinateur quantique une réalité, il faudra aussi être capable de corriger les erreurs de calcul liées à la décohérence. Mathématiciens et informaticiens l’ont très vite compris et ont développé des codes correcteurs, l’équivalent quantique des algorithmes de correction d’erreur utilisées dans nos ordinateurs. Il a même été démontré que, en théorie, si le taux d’erreur d’un qubit est inférieur à une certaine valeur, alors il est possible de corriger les erreurs plus vite qu’elles ne se forment. «  L’idée des codes correcteurs a été une petite révolution dans le domaine. Avec elle, même les plus pessimistes ont commencé à croire en la possibilité d’un ordinateur quantique », confie Sébastien Tanzilli.

Photo - Prototype de processeur quantique de 16 qubits fabriqué par IBM. IBM Research

Dans leur principe, les codes correcteurs sont simples. L’idée consiste à utiliser un groupe de plusieurs qubits dits « physiques » pour coder l’information d’un seul qubit dit « logique ». En mesurant les propriétés des qubits physiques, on sait alors – du fait de l’intrication – si le qubit logique n’est plus dans l’état souhaité et on le corrige immédiatement. En pratique, toutefois, leur mise en place est plus compliquée : on estime qu’il faudrait 1 000 – voire 10 000 – qubits physiques pour chaque qubit logique utilisable pour les calculs. Autrement dit, l’ordinateur quantique idéal devrait comporter non pas quelques milliers de qubits mais quelques millions ! «  La manipulation et le contrôle d’un nombre aussi élevé de qubits reste largement hors de portée  », avertit Patrice Bertet. Ce qui n’empêche pas les physiciens d’expérimenter ces méthodes sur un tout petit nombre de qubits.

De son côté, Eleni Diamanti reconnaît qu’il faudra une percée théorique pour rendre ces codes plus performants et donc moins gourmands en qubits. «  C’est à ce prix-là seulement qu’on aura un ordinateur quantique digne de ce nom. Informaticiens, mathématiciens et physiciens y travaillent main dans la main, et je suis persuadée qu’ils arriveront un jour à bout de ce problème  », avance-t-elle.

Vers des micro-calculateurs quantiques ?

Mais tout le monde ne souhaite pas attendre l’émergence de ces ordinateurs quantiques universels qui, dotés des meilleurs qubits et des codes correcteurs les plus performants, seraient capables de réaliser n’importe quel calcul complexe. «  La tendance actuelle, qui suscite énormément de recherches, est d’identifier quels problèmes, avec quels algorithmes, pourraient être résolus par des machines intermédiaires, contenant moins de qubits et privées de système de correction des erreurs  », note Iordanis Kerenidis de l’Institut de recherche en informatique fondamentale7 et directeur du Paris Centre for Quantum Computing.

La première étape vers cet objectif sera de démontrer la suprématie quantique, c’est-à-dire de prouver expérimentalement l’avantage du quantique sur le classique pour un algorithme donné. De l’avis des spécialistes, cette prouesse devrait être réalisée d’ici à cinq ans seulement, avec l’apparition de petits calculateurs quantiques dotés de 50 à 100 qubits. Les chercheurs s’y préparent et ont déjà identifié un type de problème mathématique – un calcul de distributions de probabilités – qui se prêtera à une telle démonstration. «  Sa résolution n’aura certainement pas d’utilité pratique, mais elle lancera l’utilisation des machines quantiques pour des problèmes dignes d’intérêt  », avance Iordanis Kerenidis.

Du calcul à la simulation quantique

Ce sont les domaines de la chimie et de la science des matériaux qui devraient en bénéficier les premiers. Avec des machines d’une centaine de qubits, prédit-on, la synthèse de nouvelles molécules ou la mise au point de matériaux aux propriétés inédites s’en trouvera largement accélérée. Comment ? En utilisant les ordinateurs quantiques non pas pour faire du calcul, mais de la simulation. L’idée, qui était d’ailleurs celle de Richard Feynman à l’origine, est d’imiter des systèmes physiques complexes (molécules, matériaux, etc.) à l’aide de systèmes quantiques artificiels plus simples : les qubits. En faisant varier à volonté les paramètres (distance des atomes, force des interactions...) qui ne sont pas ajustables dans les systèmes réels, on peut modéliser la dynamique de ces derniers et ainsi mieux les comprendre.

L’avantage de la simulation c’est que la décohérence n’est finalement plus une ennemie puisque les systèmes qu’on simule sont eux-mêmes soumis à ce phénomène. Nul besoin donc de disposer d’ordinateurs quantiques parfaits.

La simulation quantique a déjà abouti à des résultats mais avec l’augmentation du nombre de qubits, elle promet des avancées plus spectaculaires encore. «  L’avantage de la simulation c’est que la décohérence n’est finalement plus une ennemie puisque les systèmes qu’on simule sont eux-mêmes soumis à ce phénomène. Nul besoin donc de disposer d’ordinateurs quantiques parfaits », souligne Simon Perdrix. 

Avec des ordinateurs de plusieurs centaines de qubits, de nombreuses autres applications pourraient ensuite voir le jour. 

Ce sont d’abord toutes les tâches d’optimisation qui pourraient être rendues beaucoup plus efficaces grâce au calcul quantique : de la gestion du trafic routier au maillage du transport de l’énergie en passant par la prédiction financière, de multiples secteurs devraient en bénéficier.

Une révolution pour l’apprentissage automatique ?

L’accélération de la vitesse de calcul promet aussi d’importantes retombées en matière d’apprentissage automatique, une technique très à la mode d’intelligence artificielle utilisée pour analyser et trier les informations dans de très grandes bases de données numériques. Là aussi, les applications seront multiples : amélioration des moteurs de recherche sur Internet, diagnostics médicaux beaucoup plus précis, pour ne citer qu’eux. «  En optimisation comme en apprentissage automatique, on ne recherche pas des solutions exactes mais on cherche à apporter des réponses qui soient suffisamment satisfaisantes. On peut donc beaucoup mieux tolérer les erreurs que pour un problème de factorisation par exemple. C’est pourquoi l’utilisation d’ordinateurs quantiques même intermédiaires apportera énormément  », insiste Iordanis Kerenidis.

Photo - Vue de l’intérieur de l’ordinateur quantique IBM Q. IBM Research

Ce n’est donc pas un hasard si le champ de l’algorithmique quantique n’a jamais été aussi actif qu’aujourd’hui. Un seul exemple : en 2017, Iordanis Kerenidis a présenté un algorithme d’apprentissage automatique permettant, en théorie, de faire de la recommandation de films, de livres ou de rencontres de manière exponentiellement plus efficace qu’avec les méthodes actuelles. Bien malin qui pourra dire quand un véritable ordinateur quantique verra le jour et même s’il deviendra effectivement une réalité mais sur la route qui mènera à sa réalisation, les perspectives pour M. et Mme Tout-le-Monde promettent d’être extrêmement alléchantes. 

Notes

Auteur : Julien Bourdet, né en 1980, est journaliste scientifique indépendant. Il a notamment travaillé pour Le Figaro et pour le magazine d’astronomie Ciel et Espace. Il collabore également régulièrement avec le magazine La Recherche. En savoir plus sur l’auteur - Le murmure du glacier- Au cœur des banlieues japonaises

Commentaire choisi : Vince2505 le 28 Août 2019 à 11h55

Je me pose une question qui ne semble pas du tout abordée, cela concerne l’alimentation et la consommation en énergie pour ce genre de technologie. Je ne suis pas spécialiste, mais les supraconducteurs demandent des températures extra-basses par exemple. A l’heure ou l’on devrait systématiquement se demander si un progrès technologique (ou tout autre activité commerciale, industrielle, etc…) est écologiquement compatible, ces futurs ordinateurs prometteurs sur bien des points, sont-ils vertueux également sur le plan énergétique ou alors énergivore dans des proportions invraisemblables ?

CNRS (Wikipédia) - Centre national de la recherche scientifique cnrs.fr/fr/page-daccueil

upright=Article à illustrer Organisation

© 2019, CNRS – Source : https://lejournal.cnrs.fr/articles/ordinateur-les-promesses-de-laube-quantique

Retour au sommaire

13ter.
L’essentiel sur... l’ordinateur quantique Publié le 15 mai 2019 – Extrait d’un document ‘cea.fr/comprendre’

Si on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la ’deuxième révolution quantique’.

La quête de l’ultime Bit quantique, qubit

A la base du concept de l’ordinateur quantique figure l’idée selon laquelle les phénomènes quantiques pourraient être utilisés pour décupler la puissance de calcul des machines classiques. Ce rêve, poursuivi par des scientifiques, de par le monde, depuis plus de trente ans, se heurte cependant à d’importants obstacles technologiques.

Vidéo Comment fonctionne un ordinateur quantique ? Voir dans la médiathèque 

L’histoire de l’ordinateur quantique

Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.

Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.

Télécharger l’infographie sur un processeur quantique élémentaire

Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la m

Qu’est-ce qu’un bit quantique ?

Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d’opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.

bit quantique

Représentation - Etats quantiques d’un bit quantique. © CEA/F. Mathé

L’ordinateur quantique : un potentiel de rupture majeur mais un problème conceptuel et technologique extrêmement difficile

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.

Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique permettrait des approches révolutionnaires pour certaines classes de problèmes.

Une communauté scientifique et technique encore réduite

La communauté scientifique bien informée sur les possibilités des technologies quantiques est encore réduite. Issue pour l’essentiel du monde académique (physique et mathématiques), elle a peu développé les voies applicatives pour le moment. Il est donc possible que de nombreuses applications insoupçonnées jusqu’à présent apparaissent dans un futur proche.

L’ordinateur quantique : Des domaines d’application déjà identifiés

Aujourd’hui, des programmes de recherche importants sont menés selon trois grandes voies de l’ingénierie quantique qui étudie ce qu’il est possible de réaliser en termes d’application en exploitant les propriétés d’intrication, de non localité et de superposition, propre à un système quantique :

Les capteurs : une information portée par un qubit est très sensible aux perturbations apportées par son environnement ; c’est une difficulté pour réaliser un ordinateur mais cela peut permettre de construire une sonde très sensible.

Les ordinateurs de très grande performance : le calcul quantique est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique pour certaines applications.

Les télécommunications protégées : les corrélations quantiques entre des particules intriquées permettent de coder un message garantissant l’absence d’interception lors de sa transmission. Le codage à base de clefs publiques trop difficiles à factoriser par les ordinateurs actuels pourrait être cassé par un ordinateur quantique ayant un nombre suffisant de qubits (de l’ordre du nombre de bits de la clef).

Le calcul massivement parallèle, intrinsèque à l’ordinateur quantique, permet de sonder l’espace des états d’un système comportant de très nombreux paramètres.

Cette caractéristique permet déjà d’identifier quatre grands domaines d’application  :

La chimie

Simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, même les plus puissants, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.

Le Data Mining

Accélérer la recherche d’une information spécifique dans une vaste base de données.

L’optimisation de procédés de l’industrie 4.0

Trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

L’intelligence artificielle 

Au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourront être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc…).

Les enjeux de la recherche sur l’ordinateur quantique

Atout du quantique : des calculs intrinsèquement parallèles

Alors que dans un calculateur classique, les bits (unités de base utilisées) ne peuvent prendre qu’une valeur parmi deux (soit 0 soit 1), les qubits peuvent être placés dans un ensemble continu de superpositions de leurs deux états de base |0> ou |1>.

Un ordinateur exploitant cette possibilité, offerte par les lois de la physique quantique, pourrait calculer de façon massivement parallèle, c’est-à-dire simultanément, l’ensemble des valeurs des qubits, et ainsi surpasser considérablement la puissance de l’ordinateur classique.

Ainsi, dans un ordinateur classique, une série de N bits égaux à 0 ou 1 permet d’encoder un unique nombre parmi les 2N possibles (un parmi 4 096 pour N = 12).
En revanche, un registre quantique dont les 12 qubits seraient en parallèle plongés dans les deux états de base |0> ou |1>, se trouverait dans une superposition des 4 096 états de base du registre. Toute opération quantique qui lui serait appliquée s’effectuerait en parallèle sur ces 4 096 états de base. Ceci ne réaliserait pas pour autant du calcul parallèle car la lecture ne donnera qu’un seul résultat. L’art de l’algorithmique quantique consiste alors à exploiter le parallélisme tout en concentrant, par chaque étape de mesure, l’état du registre quantique sur la ou les solutions du problème étudié.

Difficultés du quantique : un état intrinsèquement peu stable

Si les spécialistes de physique quantique savent observer atomes, photons ou molécules dans des états dits de ’superposition quantique’, ces états sont extrêmement fragiles : à la moindre perturbation extérieure, ils s’évanouissent ; d’où la nécessité d’isoler aussi complètement que possible de leur environnement les systèmes que l’on souhaite mettre durablement dans de tels états.

Les qubits sont les unités de construction des calculateurs quantiques. Ils peuvent être mis en œuvre dans une large variété de systèmes physiques à l’échelle du laboratoire. La recherche sur les qubits s’est d’abord naturellement portée sur des systèmes au comportement quantique avéré, comme les atomes et les ions, bien que ces systèmes microscopiques soient difficiles à contrôler individuellement et à coupler. Elle s’est également portée ensuite sur des systèmes plus faciles à contrôler, comme des circuits électriques, qui eux ne fonctionnent, en général, pas en régime quantique.
Cependant, lorsqu’on veut produire de grands systèmes ou des qubits en série, il faut utiliser des supports de l’information quantique compatibles avec les standards industriels. Les qubits de spin dans le silicium sont de petite taille (typiquement 30 nanomètres) et sont compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication de composants électroniques), largement utilisées dans l’industrie microélectronique. Ils présentent donc des avantages évidents pour la production en série par rapport aux autres types de qubits.

Depuis 2012, où ont été mis au point les premiers qubits basés sur des spins d’électrons confinés, le silicium 28 purifié isotopiquement a permis d’améliorer significativement le temps de cohérence du spin quantique : en effet, l’isotope 28 du silicium ne porte pas de spin nucléaire, source importante de décohérence pour le qubit. Plus le temps de cohérence du spin augmente, plus la fidélité des opérations de calcul quantique et la capacité à effectuer une séquence complète d’opérations s’améliorent.

La recherche dans le domaine

La recherche fondamentale dans le domaine de l’information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d’importants moyens, en s’associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche. L’association de Google avec l’Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l’université technologique de Delft illustrent l’engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s’est aussi positionné activement sur la feuille de route de l’ordinateur quantique en réalisant un émulateur d’ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.

Une accélération mondiale et un grand nombre d’initiatives publiques et privées

Plusieurs actions majeures à l’étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd’hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d’euros. Au niveau européen, un flagship sur l’ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l’ambition d’amener les technologies quantiques sur le marché. Le financement annoncé est d’au moins un milliard d’euros, apporté par la Commission européenne et les Etats membres sur dix ans.

Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques

Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente.

En particulier, le problème de la correction d’erreurs est plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…)

Voir aussi

CEA - Accueil - De la recherche à l’industrie cea.fr

Fichier:CEA logotype2012.png

Source : http://www.cea.fr/comprendre/Pages/nouvelles-technologies/essentiel-sur-ordinateur-quantique.aspx

Retour au sommaire

14. IA Quantique - Les Ordinateurs Quantiques Expliqués - Limites de la technologie humaine (en anglais, sous-titré en français) - Kurzgesagt – In a Nutshell - Vidéo 7:16 You Tube ajoutée le 8 décembre 2015

Où sont les limites de la technologie humaine ? Peut-on de quelque façon les repousser ? C’est dans ces questionnements que les ordinateurs quantiques prennent tout leur intérêt. Jetez un coup d’œil au PROJET NOVA pour en apprendre plus sur l’énergie noire : www.nova.org.au Soutenez-nous sur Patreon, pour que nous puissions produire plus de contenu : https://www.patreon.com/Kurzgesagt?ty=h Retrouvez les musiques de la vidéo ici : https://soundcloud.com/epicmountain/q... https://epicmountainmusic.bandcamp.co... http://epic-mountain.com Wakelet : https://wakelet.com/wake/42ji9UMJzN?v=st Suivez-nous sur les réseaux sociaux ou sur Reddit : http://kurzgesagt.org https://www.reddit.com/r/kurzgesagt https://www.facebook.com/Kurzgesagt https://twitter.com/Kurz_Gesagt

Source : https://www.youtube.com/watch?v=JhHMJCUmq28&amp ;feature=youtu.be

Retour au début du sommaire

14bis.

Intrication quantique et téléportation - Breaking Balls – 03 – Vidéo 5:44 - 22 janvier 2015 - e-penser

La théorie des ‘balls’ est-elle scientifiquement valide ? L’intrication quantique et l’action fantôme à distance, comment ça marche ? La téléportation quantique est-elle un phénomène sérieux ? Restez curieux, et prenez le temps d’e-penser. Abonnez-vous : http://bit.ly/1xMblHw http://youtube.com/epenser1 - http://facebook.com/epenser - http://twitter.com/epenser - http://tipeee.com/e-penser © e-penser Liens : - La théorie des balls #03 : https://www.youtube.com/watch?v=6DQAU... - La chaîne FrenchBall : https://www.youtube.com/FrenchBallcha... Catégorie : Éducation – Source : https://www.youtube.com/watch?v=wGfAhDeNqKw

Retour au début du sommaire

15.
Définition - Du « bit » au « qubit » : comprendre enfin l’information quantique ! | Vidéo 22:48 - [ETd’O #23] - E.T. d’Orion / ’Dans le champ des étoiles…’

L’informatique occupe une place grandissante dans nos sociétés, bénéficiant du développement des ordinateurs qui permettent la manipulation d’informations élémentaires, que l’on nomme des «  bits », en vue de la réalisation de toutes sortes de tâches automatiques. Si la notion de «  bit » est aujourd’hui très communément comprise, celle de « qubit », son équivalent quantique, demeure largement méconnue.

C’est elle, pourtant, qui est au cœur de ce que l’on nomme l’informatique quantique, ainsi que de la cryptographie quantique, dont la maîtrise représente un enjeu technologique, économique et stratégique considérable. Mais qu’est-ce qui fait la différence entre le bit ordinaire, régi par les lois de la Physique classique, et le qubit, ancré dans la réalité quantique de notre monde physique ? Cette courte vidéo, qui ne nécessite aucune connaissance préalable, vous permettra de le découvrir ! À partager sans modération ! ;-) - Catégorie : Science et technologie

Source : https://www.youtube.com/watch?v=ujOpLNH2vuc

Retour au début du sommaire

16.
De la physique quantique au Quantum Computing - Etienne Klein à l’USI Vidéo 41:25 - USI Events

Informations et inscription sur http://www.usievents.com Ecouter le podcast : https://soundcloud.com/user-366713158... Chercheur au département des sciences de la matière du CEA (Commissariat pour l’Energie Atomique), philosophe des sciences et auteur prolifique, Etienne Klein a le don de rendre accessibles certaines questions compliquées posées par la science. Et c’est tant mieux, car il est aujourd’hui venu parler de l’histoire de la théorie quantique... Suivez USI sur Twitter : https://twitter.com/USIEvents Retrouvez USI sur LinkedIn : http://linkd.in/13Ls21Y Abonnez-vous à notre chaine : http://bit.ly/19sPpSp - Catégorie : Science et technologie

Source : https://www.youtube.com/watch?v=wUFNHVnnyLc

Retour au début du sommaire

16 bis.
A beginner’s guide to quantum computing | Shohini Ghose 1er février 2019 TED Vidéo 10:04 avec Shohini Ghose (exercice pédagogique exceptionnel en anglais facile à comprendre, avec sous-titrage en français)

English - A quantum computer isn’t just a more powerful version of the computers we use today ; it’s something else entirely, based on emerging scientific understanding — and more than a bit of uncertainty. Enter the quantum wonderland with TED Fellow Shohini Ghose and learn how this technology holds the potential to transform medicine, create unbreakable encryption and even teleport information.

Traduction en français par Jacques Hallard - Un ordinateur quantique n’est pas simplement une version plus puissante des ordinateurs que nous utilisons aujourd’hui. C’est tout autre chose, basé sur une nouvelle compréhension scientifique, juste émergente, - et plus qu’un peu d’incertitude en jeu. Entrez dans le pays des merveilles quantiques avec la [remarquable] camarade TED Shohini Ghose et découvrez comment cette technologie peut transformer le mode de création de nouveaux médicaments, créer un cryptage incassable, parfaitement sécurisé et même téléporter des informations à distance !

Check out more TED Talks : http://www.ted.com The TED Talks channel features the best talks and performances from the TED Conference, where the world’s leading thinkers and doers give the talk of their lives in 18 minutes (or less). Look for talks on Technology, Entertainment and Design — plus science, business, global issues, the arts and more. Follow TED on Twitter : http://www.twitter.com/TEDTalks Like TED on Facebook : https://www.facebook.com/TED Subscribe to our channel : https://www.youtube.com/TED - Catégorie : Science et technologie

Source : https://www.youtube.com/watch?v=QuR969uMICM&amp ;feature=youtu.be

Selon Wikipédia, « Shohini Ghose is a multi-award-winning quantum physicist and Professor of Physics and Computer Science at Wilfrid Laurier University.[1] She is the President (2019-2020) of the Canadian Association of Physicists[2], the Co-Editor in Chief of the Canadian Journal of Physics[3], and the Director of the Laurier Centre for Women in Science.[1] She was a 2014 TED Fellow[4] and is a 2018 TED Senior Fellow.[5] In 2019 she was featured on the Star TV show TED Talks India Nayi Baat hosted by Shah Rukh Khan.[6] In 2017 she was elected to the Royal Society of Canada’s College of New Scholars, Artists and Scientists [7] » – Photo

Retour au début du sommaire

17.
La mécanique quantique en 7 idées — Science étonnante #16 Vidéo 19:22 ScienceEtonnante

Vous avez toujours rêvé de comprendre les mystères de la mécanique quantique ? Cette vidéo est faite pour vous ! Au menu, principe de superposition, mesure quantique, réduction du paquet d’onde, dualité onde-corpuscule, quantification et principe d’incertitude de Heisenberg ! Facebook : http://www.facebook.com/sciencetonnante Twitter : http://www.twitter.com/dlouapre Tipeee : http://www.tipeee.com/science-etonnante Pour compléter et préciser tout ce qui est dit ici, le billet de blog qui va avec : https://sciencetonnante.wordpress.com... Le joli tableau plein d’équations de mécanique quantique : Cutty Sark http://cutty-sark.deviantart.com/art/...

Auteurs des sous-titres (Français) : warteks Mathieu Berthier - Auteur des sous-titres (Suédois) - Kåre Jonsson - Catégorie : Science et technologie

Source : https://www.youtube.com/watch?v=Rj3jTw2DxXQ

Retour au début du sommaire

18.
L’intrication quantique — Science étonnante #23 Vidéo 19:04 - ScienceEtonnante

Une des manifestations les plus perturbantes de la mécanique quantique : l’intrication quantique. Au menu : le spin, les états intriqués, le paradoxe EPR d’Einstein-Podolsky-Rosen, les inégalités de Bell, les théories à variables cachées et l’expérience d’Alain Aspect. Tout ça ! Le billet qui accompagne la vidéo : https://sciencetonnante.wordpress.com... Facebook : http://www.facebook.com/sciencetonnante Twitter : http://www.twitter.com/dlouapre Tipeee : http://www.tipeee.com/science-etonnante Abonnez-vous : https://www.youtube.com/user/ScienceE... Le site de Lyon Science 2016 : http://www.lyon-science.fr/

Auteurs des sous-titres (Français) : warteks Antoine Subit Slein F Rqa - Catégorie : Science et technologie

Source : https://www.youtube.com/watch?v=5R6k2mEacZo

Retour au début du sommaire

19.
Ma thèse de Physique Quantique en 5 minutes : Lumière et Nanotubes de Carbone Vidéo 5:00 - Adrien Jeantet

D’un bout à l’autre du monde, l’information circule sous forme de lumière dans des fibres optiques. Une nouvelle génération de communications parfaitement sécurisées est en préparation, avec comme candidats les nanotubes de carbone.

Cinq minutes à la pointe de la recherche en physique quantique pour comprendre ce que sont ces nanotubes, et comment de si petits objets peuvent produire de la lumière efficacement. N’hésitez pas à poser des questions ci-dessous ! (Pour tous les détails scientifiques, voir notre publication http://arxiv.org/abs/1508.06297) Version anglophone : https://youtu.be/jMnwJaNxysY

Catégorie : Éducation – Source : https://www.youtube.com/watch?v=ENXBj8-YV-4

Retour au début du sommaire

20.
Quelques notions sur les ordinateurs quantiques et les Qubits Par Mehdi Belcaid - Apr 4, 2018 – Document ‘medium.com’ - Photo - D-Wave 2X développé en partenariat avec D-Wave, Google et la NASA

Qu’est-ce qu’un ordinateur quantique ?

Un ordinateur quantique permet de faire des calculs plus rapidement que les ordinateurs classiques en utilisant les lois de la physique quantique tel que la superposition et l’intrication d’états quantiques mais pour cela il faut disposer d’un nombre important de qubits.

Contrairement aux ordinateurs d’aujourd’hui qui utilisent le bit comme unité fondamentale, l’ordinateur quantique utilise une valeur appelée le qubit (quantum bit).

Qu’est-ce que les Qubits ?

On nomme qubit (quantum bit) l’état quantique qui représente l’unité de stockage d’information quantique. Il se compose d’une superposition de deux états de base. Un état qubit est constitué d’une superposition quantique linéaire de ces deux états.

Une mémoire à qubits diffère significativement d’une mémoire classique par le fait qu’un bit ne peut prendre que les valeurs 0 et 1, et une seule à la fois. Un qubit n’a pas cette restriction. Le qubit permet non seulement de s’exprimer par le biais de 1 et 0, mais également par une superposition des deux. La machine étant capable de traiter simultanément plusieurs états à la fois, la mesure de puissance du qubit est de 2 à la puissance N (N étant le nombre de qubits dans le processeur).

Imaginez alors que vous devez traiter une opération avec deux bits. Vous aurez alors quatre états possibles (2²) : 00, 01, 10 ou 11. Ces quatre états pourront alors être traités en même temps si on travaille avec des qubits, alors qu’il faudrait quatre opérations avec un ordinateur normal.

Un ordinateur quantique pourrait être implémenté à partir de toute particule pouvant avoir deux états à la fois tel que les photons ou les protons et neutrons.

Différence entre ordinateur quantique et calculateur quantique

Un ordinateur quantique est programmable pour exécuter n’importe quel algorithme quantique.

Un calculateur quantique ne peut exécuter qu’un seul algorithme ou une classe d’algorithme. On ne peut le programmer pour effectuer n’importe quelle tâche.

Quelques avantages de l’ordinateur quantique

  • Confidentialité des échanges : un qubit ne peut être copié, il faut le lire et la lecture d’un état quantique le fixe dans une position (0 ou 1). La lecture d’un qubit par un intermédiaire serait donc plus facilement détectée.
  • La puissance de calcul potentielle : l’utilisation des qubits plutôt que les bits normaux augmente la puissance de calcul théorique exponentiellement avec le nombre de qubits pris en compte.
  • Passer les limites de la loi de Moore : la complexité des semi-conducteurs d’entrée de gamme double tous les ans à prix constant.
  • Génération de grands nombres pour la cryptographie
    Quelques contraintes de l’ordinateur quantique
  • Refroidissement à des températures proches du zéro absolu ;
  • Le système doit être protégé des interférences magnétiques ;
  • La taille des machines ;
  • La fragilité de l’état quantique ;
  • Le théorème de non-clonage des qubits ;
  • La décohérence quantique, problème de la disparition des états quantiques superposés au niveau macroscopique.
    Conclusion

L’intérêt pour l’informatique quantique est légitime si on prend en considération les avantages qu’on pourrait avoir ainsi que les multiples applications qu’on pourrait lui trouver. Plusieurs entreprises et chercheurs ont réussi des tests concluants pour construire des ordinateurs quantiques dans leurs laboratoires tel que IBM qui a annoncé la réalisation d’un ordinateur quantique avec 50 qubits ou Google avec son processeur quantique de 72 qubits, il reste cependant à voir quel est le nombre minimal de qubits pour garantir une puissance de calcul supérieur à celle des ordinateurs classiques et si les systèmes construits sont assez stables pour une futur commercialisation.

Sources

Wikipedia (2018). Qubit. https://fr.wikipedia.org/wiki/Qubit

Stéphane Benoit-Godet (2017). Oubliez les bits, vive les qubits !. https://www.letemps.ch/opinions/oubliez-bits-vive-qubits

Futura Science (2017). Qubit. https://www.futura-sciences.com/sciences/definitions/physique-qubit-4349/

Vincent Rollet (2018). L’ordinateur quantique : tout comprendre en partant de zéro. https://www.institut-pandore.com/physique-quantique/informatique-ordinateur-quantique/

Futura Tech (2017). Ordinateur quantique : Intel dévoile une puce supraconductrice à 17 qubits. https://www.futura-sciences.com/tech/actualites/ordinateur-quantique-ordinateur-quantique-intel-devoile-puce-supraconductrice-17-qubits-68867/

Manuel Moragues (2017). IBM présente un ordinateur quantique opérationnel de 50 qubits. https://www.usinenouvelle.com/editorial/ibm-presente-un-ordinateur-quantique-operationnel-de-50-qubits.N614003

Superposition (2017). Qubits are the basic unit of data in quantum computing. https://superposition.com/2017/10/05/seven-things-need-know-about-qubits/

Jean-Baptiste (2012). Côté sciences : qu’est-ce qu’un ordinateur quantique ?. https://www.presse-citron.net/cote-sciences-ordinateurs-quantiques/

Laurent Sacco. Ordinateur quantique. https://www.futura-sciences.com/sciences/definitions/physique-ordinateur-quantique-4348/

Antoine Crochet-Damais (2018). L’informatique quantique : la quête du Graal numérique. https://www.journaldunet.com/solutions/dsi/1137545-informatique-quantique/

Techno Science. Ordinateur quantique. http://www.techno-science.net/?onglet=glossaire&amp ;definition=8007

Alexandre Paulson (2018). Google dévoile Bristlecone, un processeur quantique de 72 Qubits. http://www.clubic.com/technologies-d-avenir/actualite-842808-google-bristlecone-processeur-quantique-72-qubits.html

Couleur Science (2014). Qu’est-ce qu’un ordinateur quantique ?. https://couleur-science.eu/?d=2014/01/15/03/15/02-quest-ce-quun-ordinateur-quantique

Laurent Saminadayar. Informatique quantique : « La première entreprise à y parvenir sera assise sur une mine d’or intarissable ». http://lesclesdedemain.lemonde.fr/dossiers/l-ordinateur-quantique-a-l-infini-et-au-dela_f-192.html#pdvInfluenceur

Wikipedia (2018). Décohérence quantique. https://fr.wikipedia.org/wiki/D%C3%A9coh%C3%A9rence_quantique

Medium – Get smarter about what matters to you.https://medium.com

Source : https://medium.com/@belcaid.mehdi/quelques-notions-sur-les-ordinateurs-quantiques-et-les-qubits-b342c137ee4c

Retour au début du sommaire

21.
Avez-vous déjà vu un ordinateur quantique ? Par Edern Rio 05 décembre 2018 – Document ‘opportunites-technos.com’

Illustration - Selon toute vraisemblance, l’ordinateur quantique sera la prochaine révolution de l’informatique. Vous avez sans-doute déjà lu des articles à ce sujet, y compris dans nos colonnes. Mais savez-vous à quoi ressemble un ordinateur quantique ?

Photo - L’intérieur de l’ordinateur quantique d’IBM. Crédits : IBM.

Sur cette image, on découvre l’intérieur de l’ordinateur quantique. C’est un peu comme si vous ouvriez la tour de votre ordinateur de bureau… mais ça n’y ressemble pas du tout ! Quel magnifique entrelacs de tubes et de blocs. Cela pourrait faire penser aux premières horloges de la Renaissance…

Pour fonctionner, un ordinateur quantique doit être refroidi au plus près du zéro absolu de -273,15°C (ou 0 Kelvin). Ainsi les tiges de métal bouclées que vous apercevez sont des cryostats, des conduits qui fonctionnent comme un radiateur inversé et sont alimentés en hélium liquide.

Plus on descend dans la tour, plus il fait froid et le processeur quantique est situé tout en bas, là où il fait le plus froid : environ 10 milliKelvins.

En marche, le processeur est enfermé dans un tube de métal très épais et isolant qui permet de conserver la température souhaitée. En outre, on y fait le vide pour assurer une meilleure circulation des qubits.

La structure dorée est constituée de cuivre et permet aux qubits de remonter vers le haut de la tour où ils seront traités par la mémoire quantique… Comme vous pouvez également le voir sur ces images, nous sommes bien loin de la micro-informatique, puisque les ordinateurs font presque la taille d’un adulte !

Photo - L’ordinateur quantique d’IBM en situation de fonctionnement. Crédits : IBM.

Opportunités Technos - Investir dans le monde de demainhttps://opportunites-technos.com

Résultat de recherche d’images pour ’opportunites-technos.com’

Copyright © 2019 Publications Agora - Source : https://opportunites-technos.com/avez-vous-deja-vu-un-ordinateur-quantique/

Retour au début du sommaire

22.
Volkswagen veut utiliser la puissance du quantique pour améliorer le trafic - Le constructeur pourrait proposer une solution clé en main pour les villes du monde. Par Valentin Cimino Twitter@ciminix 7 novembre 2018 – Document ‘siecledigital.fr’ – Illustration

Volkswagen innove et affiche une ambition forte : optimiser le trafic dans les grandes villes pour permettre aux utilisateurs de gagner du temps. Le constructeur automobile aimerait réaliser cette prouesse grâce à la puissance des ordinateurs quantiques. Son objectif est d’améliorer les performances des services de transports en commun, notamment les flottes de bus publics. D’après la marque allemande les systèmes quantiques pourraient remplacer les modèles de calcul existants. Contrairement aux systèmes quantiques, les modèles classiques sont limités et ne peuvent traiter qu’un certain nombre de tâches à la fois. Alors que, d’après le média Engadget, un ordinateur quantique pourrait prendre en compte les données de mouvement collectées à partir des smartphones ou des émetteurs provenant directement des véhicules.

Dans un billet sur son blog, Volkswagen explique que les routes pourraient être beaucoup mieux gérées grâce à la technologie qu’elle utiliserait. Le constructeur allemand veut mieux servir les usagers, notamment les compagnies de bus ou les flottes de taxis. L’un des enjeux serait de permettre aux compagnies de transports en commun de mieux remplir leurs véhicules.

Volkswagen espère bien se placer en leader dans la gestion des flottes de véhicules autonomes grâce à la puissance des ordinateurs quantiques. Aujourd’hui, cette solution informatique relève davantage du concept que la réalité. C’était au moment du Web Summit de Lisbonne que la marque a présenté son projet. Volkswagen émet des projections et des suggestions pour améliorer le trafic et se positionner mais le projet pourrait mettre du temps à voir le jour.

La manière dont le constructeur présente ce projet ressemble à la création d’une nouvelle marque proposant une solution clé en main que pourrait lui acheter les grandes métropoles du monde. Les premiers test pourraient avoir lieu à Barcelone. La ville offre une base de données suffisamment conséquente. Théoriquement cette solution pourrait même être étendue à la plus grande ville du monde.

Siècle Digitalhttps://siecledigital.fr -Automobile ordinateur quantique voiture autonome

Résultat de recherche d’images pour ’siecledigital.fr logo’

Source : https://siecledigital.fr/2018/11/07/volkswagen-quantique-ameliorer-le-trafic/

Retour au début du sommaire

23.
Une boussole quantique pourrait définitivement mettre le GPS au placard - Un accéléromètre quantique commercialement viable devrait voir le jour prochainement Par Valentin Cimino Twitter@ciminix 13 novembre 2018 – Document ‘siecledigital.fr’ gps ordinateur quantique - Photo

Décidément, les progrès des ordinateurs quantiques font parler d’eux ces derniers temps. Récemment, c’est Volkswagen qui annonçait vouloir utiliser la puissance du quantique pour améliorer le trafic de nos villes. On se souvient qu’IBM apportait il y a quelques semaines, la preuve que les ordinateurs quantiques sont plus efficaces que les classiques.

À l’époque, Engadget expliquait que cette découverte pourrait permettre à l’avenir d’imaginer des algorithmes plus pratiques et très utiles. Aujourd’hui, ce même média, dans un récent billet explique qu’une équipe de scientifiques a fait la démonstration d’un accéléromètre quantique « commercialement viable » qui pourrait fournir une navigation sans GPS.

C’est une petite révolution. En effet, il s’agirait d’un appareil qui utilise des lasers pour refroidir les atomes à des températures extrêmement basses. Ensuite, il permet de mesurer les propriétés des ondes quantiques de ces atomes lorsqu’ils répondent à l’accélération. Cette technologie pourrait offrir un outil extrêmement plus fiable que les GPS actuels. C’est d’ailleurs l’un des projets de Volkswagen. Son objectif est d’améliorer les performances des services de transports en commun, notamment les flottes de bus publics. D’après le constructeur allemand les systèmes quantiques pourraient remplacer les modèles de calcul existants. Contrairement aux systèmes quantiques, les modèles classiques sont limités et ne peuvent traiter qu’un certain nombre de tâches à la fois.

Vous l’aurez compris en apercevant la photo de cet article, cette boussole quantique n’est pas prête de remplacer l’accéléromètre de votre téléphone. Elle ne sera utilisée dans un premier temps que pour les navires, les trains et peut-être les avions. Dans tous les cas, des véhicules de grande taille. Les chercheurs s’attendent à ce que des concepts sous-jacents contribuent aux études scientifiques pour permettre une utilisation grand public de cette boussole. Les recherches sur les ondes gravitationnelles pourraient permettre d’aller plus loin avec cette boussole quantique.

Siècle Digitalhttps://siecledigital.fr -Automobile ordinateur quantique voiture autonome

Résultat de recherche d’images pour ’siecledigital.fr logo’

Retour au début du sommaire

24.
Google annonce une percée majeure dans le calcul quantique Par David Larousserie Publié le 23 octobre 2019 à 10h55 - Mis à jour le 24 octobre 2019 à 15h58 - Document ‘lemonde.fr’ - Photo : Le « réfrigérateur » de Google, pendu au plafond pour limiter les vibrations, permet de maintenir le processeur quantique à - 273 degrés Celsius. GOOGLE

A l’aide d’un ordinateur de sa conception, la multinationale a réussi, pour la première fois, à effectuer un calcul bien plus rapidement que les meilleurs supercalculateurs.

Google a annoncé, mercredi 23 octobre 2019, avoir franchi une étape technologique majeure hors de ses domaines habituels que sont la recherche d’information, l’intelligence artificielle ou la téléphonie. A l’aide d’un ordinateur quantique de sa conception, une de ses équipes à Santa Barbara (Californie) a réussi pour la première fois à effectuer un calcul bien plus rapidement que les meilleurs supercalculateurs classiques.

Le résultat est tombé en 3 minutes et 20 secondes, contre… 10 000 ans s’il avait fallu mobiliser les plus gros ordinateurs. De quoi espérer résoudre des problèmes insolubles jusque-là ou au contraire « casser » des systèmes informatiques réputés robustes.

Climat très concurrentiel

« Cela fait un moment que Google voulait franchir cette étape », rappelle Benjamin Huard, professeur à l’ENS Lyon. L’entreprise américaine avait en effet déjà parié qu’elle y arriverait fin 2017, puis fin 2018. Mi-septembre, leFinancial Timesavait révélé que le succès était proche après la fuite d’un article en cours d’examen par un journal scientifique. Finalement ce dernier a été publié un mois plus tard, le 23 octobre, par la revueNature.

« C’est une prouesse technologique impressionnante et très complexe », saluait Michel Devoret, professeur à l’université de Yale (Connecticut), avant la parution, sur la base des premières fuites. « C’est excitant et une preuve de concept importante, mais nous ne devons pas nous enflammer », estime Paul Ginsparg, professeur à l’université Cornell (Etat de New York).

Lire aussi Entreprises, start-up, Etats… la ruée vers le calcul quantique

Ce n’est en effet pas encore la révolution en informatique. « J’aime comparer cela aux débuts de l’aviation. Plusieurs engins n’ont fait que quelques mètres en l’air », décrit Michel Devoret.

Et comme à cette époque, le climat est très concurrentiel. La veille de l’annonce, IBM, autre géant du secteur, a douché l’enthousiasme. Sur son blog, la société prévient qu’« un titre de presse annonçant que la suprématie quantique est atteinte (…) sera inévitablement trompeur pour le public ». Et d’appuyer sa démonstration par la mise en ligne d’un article proposant une méthode de calcul classique ne nécessitant que deux jours et demi pour résoudre le même problème, au lieu des dix millénaires avancés par Google. Cela relativise ce que l’entreprise californienne appelle la « suprématie quantique », un concept forgé par John Preskill, professeur au California Institute of Technology (Caltech), en 2012…

La suite est réservée aux abonnés. Déjà abonné ? Se connecter - Abonnez-vous à partir de 1 €—[BLOC_RESTREINT_ABO]] - Source : https://www.lemonde.fr/sciences/article/2019/10/23/google-annonce-avoir-franchi-une-etape-technologique-majeure-en-realisant-une-percee-dans-le-calcul-quantique_6016592_1650684.html

Retour au début du sommaire

25.
Ordinateur quantique : IBM ne compte pas se laisser voler la vedette par Google Par Mathieu Grumiaux Contributeur - 23 octobre 2019 à 13h33 – Document ‘clubic.com’ - Photo

IBM conteste dans un billet de blog le fait que Google ait atteint la « suprématie quantique » et met en avant l’un de ses algorithmes qui aurait accompli la même tâche complexe sur un supercalculateur traditionnel.

Google vient tout juste d’annoncer avoir accompli une avancée technologique majeure. Les équipes du moteur de recherche ont expliqué avoir réussi à réaliser à l’aide d’un ordinateur quantique une opération très complexe, accomplie en seulement 3 minutes et 20 secondes.

Une avancée majeure de Google tempérée par IBM

La même opération aurait pris près de 10 000 ans sur un supercalculateur contemporain. Ce résultat amène à dire que Google serait la première entreprise à avoir atteint la « suprématie quantique », même si elle n’évoque jamais le terme dans sa publication.

Seulement quelques heures après cette annonce, IBM vient remettre sérieusement en question cette affirmation via un billet publié sur son blog. Le constructeur américain y explique que ses équipes ont pu accomplir la même tâche sur un supercalculateur traditionnel en deux jours et demi, et ce, à l’aide d’un algorithme classique. IBM dit même que cette estimation est la plus pessimiste et pourrait être améliorée.

Lire aussi :
Informatique quantique : où en est-on ?

IBM estime que l’informatique quantique n’est qu’une aide complémentaire et non la technologie dominante de demain

Les chercheurs d’IBM expliquent que la simulation produite par Google était impossible à exécuter sur un ordinateur classique, qui utilise de grandes quantités de RAM, mais ne tire pas parti du stockage disque. L’algorithme d’IBM, à l’inverse, utilise d’importantes capacités de stockage et de mémoire vive.

Cette démonstration vient appuyer le point de vue d’IBM qui est que les ordinateurs quantiques ne pourront pas se substituer aux ordinateurs classiques, mais les compléteront à l’avenir. Si leur puissance de calcul est indéniable, la résolution d’un problème complexe utilisera les avantages combinés des deux systèmes informatiques.

Lire aussi :
IBM et Red Hat affichent un premier trimestre... compliqué

IBM préfère parler d’ « avantage quantique » plutôt que de « suprématie quantique », un terme qui, selon elle, est utilisé maladroitement.

Source : Tom’s Hardware - Modifié le 23/10/2019 à 13h51

Actualité High-Tech et Numérique, Comparatifs et Logiciels ...https://www.clubic.com -Comparateur de prix Infos légales Publicité CGU Charte de Confidentialité / Cookies Nous contacter

Résultat de recherche d’images pour ’www.clubic.com&#8217;

© Clubic SAS 2019 - Source : https://www.clubic.com/technologies-d-avenir/actualite-873983-ordinateur-quantique-ibm-compte-laisser-voler-vedette-google.html

Retour au début du sommaire

26.
Google dit avoir atteint la « suprématie quantique » avec un calcul réalisé en trois minutes au lieu de 10.000 ans P.B. avec AFP - Publié le 23/10/19 à 20h46 — Mis à jour le 23/10/19 à 21h48 – Document ‘20minutes.fr’

Sciences - Pas si vite, répond IBM, il ne s’agit que d’une expérience limitée et le calcul peut, selon lui, être réalisé en trois jours avec des méthodes traditionnelles.

Illustration - Le processeur quantique Sycamore de Google (à droite) et dans son cryostat (gauche). — GOOGLE

Après la conquête spatiale dans les années 1950, une nouvelle course technologique et scientifique est engagée : celle vers la suprématie quantique. Après des fuites en septembre, des ingénieurs de Google et des chercheurs de l’université de Santa Barbara ont déclaré avoir atteint ce cap en effectuant un calcul avec un processeur quantique en un peu plus de trois minutes (200 secondes) qui aurait pris 10.000 ans au plus puissant des supercalculateurs actuels. Mais son grand concurrent américain, IBM, relativise l’annonce, affirmant que le calcul peut-être effectué en trois jours avec un ordinateur traditionnel. La Maison Blanche, elle, a déjà fait sauter le champagne, bien contente devancer la Chine, qui investit des ressources massives dans l’informatique quantique.

C’est quoi la suprématie quantique ?

Un rappel, pour nous tous, mortels, l’informatique quantique repose sur le principe de superposition. Au lieu d’utiliser des bits ne pouvant prendre que deux valeurs (0 et 1), les processeurs quantiques utilisent des qubits qui, à l’échelle microscopique et dans des conditions de froid extrême, ont une infinité d’états possibles (comme le chat de Schrödinger à la fois mort et vivant). « C’est un parallélisme qui permet de faire plusieurs calculs à la fois », résume Jean-Paul Delahaye, chercheur en informatique. La « suprématie quantique » est un concept qui remonte aux années 80. Il s’agit du cap à partir duquel les ordinateurs quantiques seront capables, grâce à un nombre de qubits suffisants, de résoudre des problèmes qui prendraient trop de temps aux ordinateurs traditionnels.

Google a-t-il atteint ce cap ?

Google répond par l’affirmative, car selon ses mesures, son processeur Sycomore, qui compte 54 qubits, a réalisé 300 secondes un calcul qui aurait pris 10.000 ans au plus puissant des supercalculateurs actuels. Mais IBM n’est pas d’accord, affirmant qu’en couplant de grandes quantités de stockage et de mémoire vive, le calcul ne prendrait que 2,5 jours, et pas 10.000 ans. En attendant que des experts tranchent, il faut préciser que le calcul choisit par Google, qui est lié à une génération de nombres aléatoires, ne peut pas être généralisé à d’autres tâches comme la factorisation de grands nombres. On est loin d’un ordinateur quantique universel capable d’effectuer des calculs variés. Dans un édito, Nature précise qu’il faudra sans doute encore un ou plusieurs décennies avant que les ordinateurs quantiques aient un impact sur notre quotidien.

A quoi cela va servir ?

Google, de son côté, compare sa percée au premier vol motorisé des frères Wright, en 1903, qui n’avait duré que 12 secondes. Il s’agit, en somme, d’une preuve de concept. Quelles seront ses applications pratiques ? Selon Google, l’informatique quantique pourrait faire progresser l’intelligence artificielle à grande vitesse. Des avancées en modélisation moléculaire ouvrent déjà la voie à de nouveaux matériaux pour concevoir des batteries plus efficaces, ou à des catalyseurs réduisant les émissions de carbone lors de la fabrication d’engrais. Les ordinateurs quantiques pourraient également chambouler la cryptographie et rendre obsolètes nos cartes de crédit, qui s’appuient sur l’algorithme RSA pour sécuriser les transactions. Pour parer à cette menace, la recherche en cryptographie résistante a déjà pris les devants. « Elle est même plus avancée que l’ordinateur quantique », assure le physicien Daniel Hennequin. Ouf !

20 Minutes, information en continu, actualités, politique, sport…https://www.20minutes.fr

Image associée

© Copyright 20 Minutes - https://www.20minutes.fr/high-tech/2635171-20191023-google-dit-avoir-atteint-suprematie-quantique-calcul-realise-trois-minutes-lieu-10000-ans

Retour au début du sommaire

27.
« Suprématie quantique » : Google, IBM et un exploit informatique contesté Par Vic Castro, le 25 octobre 2019 à 17:59 – Document ‘frandroid.com’ - Informatique en qubits- Suprématie quantique - Arguments techniques - Questions de langage - Commentaires

Google a officiellement publié un article scientifique où il affirme avoir atteint la « suprématie quantique ». Mais son rival IBM n’est pas du même avis, critiquant les conclusions de Google mais surtout l’usage de ce terme de « suprématie ».

Photo - Une puce contenant deux ions de béryllium piégés dans une expérience d’informatique quantique. Crédit : National Institute of Standards and Technology // Wikimedia Commons

Il y a un mois, Google faisait la une avec un article scientifique au titre très accrocheur : le géant aurait atteint la «  suprématie quantique ». Dans la course au supercalculateur du futur, l’ordinateur quantique a l’aura d’un Graal des informaticiens, capable de résoudre certains problèmes à une vitesse incomparablement plus grande qu’une machine classique. L’article en question avait à l’époque fuité par accident, et il vient maintenant d’être officiellement publié dans la prestigieuse revue Nature.

Mais entre-temps, la controverse s’est installée. Tous s’accordent sur la légitimité des résultats de Google et de sa machine « Sycamore » à 53 qubits. Ce sont les conclusions tirées — et le langage utilisé — qui ne font pas l’unanimité. Les chercheurs d’IBM ont notamment jeté un pavé dans la mare avec un billet de blog critiquant leurs confrères de Google.

Dans l’article, il est affirmé que leur machine a atteint la « suprématie quantique » et qu’un « superordinateur de pointe nécessiterait environ 10 000 ans pour réaliser la tâche équivalente ». Nous soutenons qu’une simulation idéale de la même tâche peut être réalisée sur un système classique en 2,5 jours avec une fidélité bien plus importante.

Pourquoi IBM défie-t-il donc Google dans une bataille de polochons quantiques ? Derrière l’exploit technologique, c’est l’acte même de clamer que la « suprématie quantique a été atteinte » qu’IBM trouve problématique. Avant d’éclaircir tout cela, il faut faire une petite plongée dans le monde subatomique.

Informatique quantique, comment ça marche

Chez les physiciens, on peut opposer deux mondes. Le monde classique opère à grande échelle, nous entoure au quotidien, et est celui sur lequel toute la physique s’est basée jusqu’au début du 20e siècle. Le monde quantique domine l’infiniment petit, à l’échelle des atomes et en dessous. Il s’y passe des choses très étranges : le hasard et l’incertitude règnent, les particules traversent les murs, et selon une célèbre expérience de pensée d’Erwin Schrödinger, les chats peuvent être à la fois morts et vivants.

On explique généralement l’informatique quantique de la manière suivante. Un ordinateur classique fonctionne avec des bits, qui peuvent prendre les valeurs 0 ou 1. Mais l’ordinateur quantique utilise lui des qubits qui, grâce aux merveilles du monde quantique, peuvent avoir une superposition de plusieurs états entre 0 et 1. C’est le même principe que le chat de Schrödinger, qui se trouve dans une superposition des états « mort » et « vivant ».

« Les systèmes classiques ne peuvent généralement pas simuler les systèmes quantiques de manière efficace »

Photo - Crédit : wewiorka_wagner // Flickr

Pour mieux comprendre comment c’est possible, prenons une autre métaphore. Celle-ci vient du physicien John Preskill de Caltech (California Institute of Technology), un grand nom de l’informatique quantique, dans un article scientifique de 2012 (PDF) où est aussi définie la fameuse expression « suprématie quantique ».

Prenons un livre classique de 100 pages. Si on en lit 10 pages, on a lu 10 % de toute l’information contenue dans le livre. Mais dans un livre quantique, l’immense majorité de l’information n’est pas écrite sous forme de texte sur les pages ; elle est codée dans les corrélations entre les pages. Dans le jargon, on dit que les pages sont « intriquées ». Si on lit bêtement 10 pages sur un livre quantique de 100 pages, on n’a perçu qu’une partie infime de l’information qui s’y trouve.

Et en lisant le livre quantique dans sa totalité et sa globalité, on y trouve une quantité d’information colossale qu’il serait très difficile de mettre dans un livre classique. Remplacer ces « pages » par respectivement des bits et des qubits permet de revenir au monde informatique, et plus largement à cette idée : « les systèmes classiques ne peuvent généralement pas simuler les systèmes quantiques de manière efficace ».

Sortir le chat quantique de la boîte

Cette phrase résume selon Preskill pourquoi « nous souhaitons avec ferveur des systèmes quantiques contrôlés qui sont grands, mais démontrent un comportement profondément quantique », et pourquoi « nous trouvons cette quête irrésistible ». En effet, de tels systèmes quantiques à notre échelle pourraient « « dépasser l’entendement », en se comportant de manières que nous trouverons surprenantes et ravissantes ».

De là vient l’idée de suprématie quantique. C’est un concept tout simple, qui désigne le moment où une machine quantique réalisera une tâche qu’un ordinateur classique ne pourrait pas faire en pratique. On est d’accord : il est question d’une tâche, pas de toutes les tâches qu’on veut. Avant d’y arriver, il faut parvenir à prendre des phénomènes quantiques et les conserver à une échelle macroscopique. Et c’est compliqué.

« Est-ce juste vraiment, vraiment difficile, ou alors est-ce absurdement difficile ? »

À cause des lois étonnantes du monde quantique, le simple fait d’observer ce qui se passe à l’intérieur d’un ordinateur quantique suffit à perturber tout le processus. C’est ce qu’on appelle la « décohérence », où la superposition quantique d’états se ramène à un seul état classique. Le chat de Schrödinger est à la fois mort et vivant tant qu’il est dans sa boîte, mais quand on regarde dans la boîte, il se ramène à un seul état, mort ou vivant.

Photo - Crédit : Robert Couse-Baker // Flickr

Preskill pose donc la question avec un peu d’humour : « contrôler des systèmes quantiques à grande échelle, est-ce juste vraiment, vraiment difficile, ou alors est-ce absurdement difficile ? ». Dans le premier cas, construire des ordinateurs quantiques viables ne prendrait que quelques décennies, alors que dans le deuxième il faudrait attendre des siècles (ou jamais).

Google est (au moins) 1.200 fois plus rapide qu’IBM

Dans un billet publié début octobre sur le site d’actualité scientifique Quanta Magazine, Preskill salue la prouesse de Google comme un signe que l’informatique quantique ne serait pas impossible à mettre en place. « Le hic, comme le reconnaît l’équipe de Google, est que le problème que leur machine a résolu avec une vitesse stupéfiante a été soigneusement choisi, juste pour l’objectif de démontrer la supériorité de l’ordinateur quantique », souligne cependant le physicien.

En face, le message d’IBM n’est pas non plu reçu par tout le monde. Une des principales critiques vient du chercheur en informatique Scott Aaronson de l’université d’Austin (Texas). Dans son blog, il souligne qu’IBM appuie son scénario sur son ordinateur Summit à l’Oak Ridge National Lab. C’est le supercalculateur le plus puissant du monde, qui remplit l’équivalent de deux terrains de basket et dispose de 250 pétaoctets de disque dur (soit 250 000 téraoctets) pour stocker l’équivalent du vecteur quantique de Google.

Aaronson trouve plausible que Summit mette 2 jours et demi à effectuer la tâche. Mais l’ordinateur quantique de Google a réussi à faire le travail en 3 minutes, ce qui est 1200 fois plus rapide. En se basant sur le nombre d’opérations de calcul requis par les deux machines, l’informaticien estime personnellement que l’avantage réel de Google s’élèverait à un facteur de 40 milliards.

3 minutes contre 2 jours et demi

Scott Aaronson cite alors une analogie que lui a glissée son confrère Boaz Barak de Harvard. La situation évoquerait les deux matchs d’échecs en 1997 entre le champion Gary Kasparov et l’ordinateur Deep Blue d’IBM — « mais avec l’ironie historique qu’IBM joue maintenant le rôle de Kasparov ! » Kasparov avait gagné le premier match, et Deep Blue le deuxième. « Kasparov peut opposer un combat héroïque, pour une période de transition qui dure un an ou deux, mais la situation fondamentale est qu’il est grillé ».

Illustration - Crédit : chrisgj6 // Flickr

En informatique, on a une autre manière de catégoriser la vitesse d’exécution d’un programme. Deux programmes peuvent réaliser une tâche en un temps soit polynomial (rapide), soit exponentiel (lent). Dans le premier cas, quand le volume de la tâche augmente, le temps mis pour l’accomplir augmente de manière raisonnable et proportionnée. Dans le deuxième cas, ce temps explose de façon exponentielle et devient généralement ingérable.

Sur la tâche en question, l’ordinateur de Google peut la résoudre en un temps polynomial tandis que celui d’IBM se contente d’un temps exponentiel. La machine de Google est donc qualitativement supérieure. « L’estimation de temps concrète n’est pas très importante », avance William Fefferman de l’université de Chicago. « Je ne pense pas que le papier d’IBM invalide les affirmations principales de Google, mis à part l’estimation des 10 000 ans ».

Le terme de suprématie quantique est-il vraiment approprié ?

En bref, tout dépend de ce qu’on entend vraiment par « suprématie quantique », et surtout pourquoi on accorde tant de valeur à l’utilisation de ce terme. Historiquement, les premiers ordinateurs quantiques n’étaient capables que de faire des calculs très simples et inutiles, que n’importe quel ordinateur classique pouvait facilement émuler. Avant d’avoir une machine quantique qui serve à quelque chose, les chercheurs en voulaient au moins une qui « tienne debout ».

Dans cette interprétation, la suprématie quantique désigne l’étape des premières machines quantiques qui marchent à peu près, suffisamment pour montrer qu’elles ont un intérêt par rapport aux ordinateurs classiques. « Avant la suprématie, il y a simplement zéro chance qu’un ordinateur quantique puisse faire quoi que ce soit d’intéressant », décrit le physicien Fernando Brandão de Caltech, qui travaille aussi auprès de Google. « La suprématie est une étape nécessaire ».

Photo - Le superordinateur IBM Summit, le plus puissant au monde. Crédit : Carlos Jones // ORNL

Cette vision des choses n’est pas partagée par tout le monde dans le milieu, à commencer par IBM. «  La suprématie quantique, on n’utilise pas du tout ce terme  », assume ainsi Robert Sutor, chef de la stratégie d’IBM en informatique quantique. « C’est quelque chose qui nous est complètement égal. » Le terme plus neutre d’avantage quantique est d’ailleurs utilisé par beaucoup de chercheurs.

Car le mot « suprématie » n’est pas sans connotations. John Preskill en justifie le choix pour des raisons de nuances. « Pour moi, « avantage » n’a pas le punch de « suprématie ». Dans une course, un cheval a l’avantage s’il gagne d’une tête d’avance. Par contraste, la vitesse d’un ordinateur quantique dépasse largement celle d’ordinateurs classiques, pour certaines tâches. »

Mais il admet aussi que ce terme « exacerbe la couverture médiatique déjà hyperbolique sur l’état de la technologie quantique ». Pour une oreille américaine, le mot est de plus associé aux suprématistes blancs, ce qui n’arrange rien. Les chercheurs d’IBM reprennent ces arguments et rajoutent que « le terme de suprématie est mal compris par pratiquement tout le monde (hors du milieu raréfié des experts en informatique quantique, qui peuvent le remettre dans un contexte approprié) ».

Un titre avec une variante de « La suprématie quantique a été atteinte » est presque irrésistible à publier, mais il induira inévitablement en erreur le grand public. […] Les ordinateurs quantiques ne régneront jamais en « suprématie » sur les ordinateurs classiques, mais ils travailleront plutôt en concert avec eux, vu que les uns et les autres ont leurs forces uniques.

Pour reprendre l’analogie des deux matchs d’échec entre Kasparov et Deep Blue : Google a sans doute triomphé dans le match de la technologie. Mais dans le match des mots et de l’importance du langage, IBM a bien mérité une victoire honorable.

Signaler une erreur dans le texte - Source : Quanta Magazine

Suivez-moi : Vic Castro - Mes passions sont Linux, la (géo)politique, les langues étrangères, et toutes les choses nerd. J’effectue un stage chez FrAndroid sous l’égide de Manuel Castejon et Omar Belkaab. Tous mes articles

Comment ça marche ? Comment fonctionne la technologie ? Culture tech Google Marques IBM - FrAndroid - Tout ce qu’il faut savoir sur Android

Résultat de recherche d’images pour ’frandroid.com logo’

Source : https://www.frandroid.com/marques/google/635013_suprematie-quantique-google-ibm-et-un-exploit-informatique-conteste

Retour au début du sommaire

Voir également :

Dans la saga « suprématie quantique » : Google persiste et signe Par Geneviève Fournier 24 octobre 2019

Photo - Tandis que nous avions relaté les propos d’IBM il y a deux jours, les chercheurs de Google répondent à leurs confrères en présentant leur rapport d’étude dans un article dans la revue scientifique Nature. Conclusion, il s’agit bien pour Google d’une avancée importante dans le domaine de la suprématie quantique, ne serait-ce que pour avoir prouvé qu’il était possible de faire fonctionner un ordinateur quantique. Le physicien John Preskill, à l’origine de la définition, revient quant à lui sur la nécessité de rendre cette machine utile. Une bataille d’écoliers ? Il y a un mois, un article paru dans la Nasa présentait une étude de Google prétendant l’atteinte de la suprématie quantique : l’ordinateur quantique conduit par son équipe de chercheurs du Quantum Al Lab, menée par John Martinis, aurait réussi à produire un algorithme en 200 secondes. Calcul pour lequel un ordinateur classique nécessiterait environ 10.000 ans…

Suprématie quantique : IBM remet en cause les travaux de Google Par Geneviève Fournier 22 octobre 2019 - IBM remet en cause l’article publié par « erreur » par la NASA dans lequel Google affirmait avoir atteint la suprématie quantique….

Retour au début du sommaire

Rubrique C - Les impacts environnementaux des technologies numériques

28.
L’impact écologique de l’infrastructure Internet - Extrait d’une documentation Wikipédia

Comme produit essentiellement « dématérialisé », Internet peut paraître écologique, ou tout du moins comme ayant un impact limité sur l’environnement. En accélérant les transferts d’informations et en facilitant les échanges de données, l’usage d’Internet a fréquemment été présenté comme vertueux de ce point de vue ; cet argument a par exemple été présenté lors de la mise en place de factures électroniques ou de la dématérialisation des marchés publics.

En réalité, le fonctionnement du réseau implique de très fortes consommations énergétiques33. Outre les coûts engendrés par la construction de l’infrastructure, le coût de fonctionnement des centres de données est mis en évidence et traduit en équivalent CO2. Si Internet était un pays, ce serait le cinquième consommateur mondial d’énergie en 201433, le troisième en 201834.

Selon plusieurs études, en 2018, Internet correspond à 6 à 10 % de la consommation mondiale d’électricité et pèserait près de 5 % des émissions de gaz à effet de serre mondiales34, soit plus que le transport aérien. Une heure d’échanges de courriels dans le monde correspond à 4 000 vols Paris-New York[réf. nécessaire].

La construction des centres de traitement de données des principaux acteurs d’Internet, Google, Apple et Facebook, dans l’État de Caroline du Nord aux États-Unis est intimement liée au bas coût de l’énergie dans cet État33. Ce coût bas s’explique par le fonctionnement de centrales thermiques utilisant le charbon des Appalaches, dont l’exploitation à ciel ouvert détruit des montagnes entières33….

Source du document rapporté : https://fr.wikipedia.org/wiki/Internet#Technique

Retour au début du sommaire

29.
Impact environnemental du numérique : il est temps de renouveler Internet – Le 10 janvier 2017 - Document ‘greenpeace.fr’

Véritable système nerveux central de l’économie mondiale et système social à part entière, le web engloutit des quantités considérables d’énergie. Pour ranger nos données, les partager ou les protéger, nous avons recours à un gigantesque « nuage » de mémoire informatique auquel nous pouvons accéder quel que soit l’endroit où nous nous trouvons. Ce cloud n’est pas dénué d’impacts sur l’environnement. Alors qu’internet prend une part de plus en plus importante dans nos vies, ces impacts ne cessent de grandir. Il est temps de pousser les acteurs du numérique à se convertir aux énergies renouvelables.

Une industrie énergivore…

D’énormes quantités d’énergie sont en effet nécessaires pour fabriquer et alimenter nos appareils et faire tourner les centres de données. Selon le rapport Clicking Clean publié le 10 janvier 2017 par Greenpeace, le secteur informatique représente aujourd’hui environ 7 % de la consommation mondiale d’électricité.

En 2020, le trafic Internet mondial pourrait avoir triplé. L’empreinte écologique du réseau sera ainsi encore plus importante, du fait notamment de l’augmentation de notre consommation personnelle de données et du nombre d’utilisateurs à l’échelle mondiale, qui devrait passer de trois milliards aujourd’hui à plus de quatre milliards d’ici à la fin de la décennie. Selon certaines estimations, la pollution générée par l’industrie du net et son impact sur le climat sont équivalents à ceux du secteur de l’aviation. Voir tableau.

La consommation d’électricité du secteur du numérique ne cesse de croître. Aujourd’hui, ce seul secteur a une consommation d’électricité comparable à celle de certains des plus grands pays du monde.

Les choix que nous ferons pour développer et alimenter cette infrastructure seront cruciaux pour la transition énergétique que nous devons opérer à temps afin d’éviter les dangers liés aux changements climatiques.

Si nous prenons le chemin du 100 % d’énergies renouvelables pour alimenter les centres de données et autres infrastructures numériques, notre dépendance grandissante à Internet pourrait devenir un catalyseur de la transition vers une économie reposant sur les énergies renouvelables. À l’inverse, si le développement d’Internet entraîne une demande toujours plus forte en électricité issue du charbon et autres sources d’énergies polluantes, la transition énergétique sera beaucoup plus longue et coûteuse.

…. qui commence à bouger

Dès 2009, Greenpeace a commencé à évaluer les performances énergétiques du secteur informatique. Elle a demandé aux plus grandes entreprises du net de s’engager pour un approvisionnement basé à 100 % sur des énergies renouvelables pour soutenir leur développement rapide. Car en définitive, ce sont les plus gros acteurs du marché qui décideront si notre empreinte sera renouvelable ou polluante.

Aujourd’hui, nous assistons à une mobilisation croissante des leaders du secteur en faveur des énergies renouvelables. Les géants du net Facebook, Apple et Google sont les premiers à s’être engagés, il y a quatre ans, dans la course pour un Internet alimenté à 100 % par les énergies renouvelables. Aujourd’hui, ce sont plus de 20 entreprises qui ont rejoint le mouvement. Parmi elles, des acteurs internationaux du cloud computing et de l’hébergement qui avaient d’énormes progrès à faire.

Voir le tableau illustré ‘Company Scorecard ‘  : le classement de 15 sociétés

Ces engagements de passage à 100 % d’énergies renouvelables se sont traduits par une augmentation importante de la part des renouvelables dans l’alimentation électrique des centres de données. Ils ont de plus stimulé la prise d’engagements de la part d’entreprises issues d’autres secteurs. Aux États-Unis, l’achat direct d’énergie renouvelable par les entreprises a augmenté de façon spectaculaire depuis 2010 pour atteindre plus de 3,4 GW en 2015. Plus des 2/3 de ces achats sont attribuables aux géants du web.

Mais la partie est loin d’être gagnée

Photo - Un des vaisseaux de Greenpeace en train de survoler le siège de Facebook. Sur le flan du vaisseau, on peut lire « Construire un internet plus vert » et « Qui sera le prochain à se mettre au vert ? ». Apple, Facebook et Google se sont engagés à approvisionner leurs centres de données à partir d’énergies renouvelables. Aujourd’hui Greenpeace demande à d’autres entreprises du secteur (Amazon, Twitter, Netflix et Pinterest) de se joindre au mouvement.

Cette année, nous avons étendu notre analyse aux performances des géants du web de l’Asie de l’Est, Tencent, Baidu, Alibaba et Naver, ces derniers ayant fait part de leur intention de développement à l’international. Cependant, dans cette région du monde, les fournisseurs d’énergie bénéficient de situations de monopole et n’offrent qu’un accès limité aux énergies renouvelables : ce pourrait être un véritable frein à un Internet propre. Sans de profondes modifications de la politique énergétique en Asie de l’Est, la croissance rapide d’Internet sera sûrement alimentée par le charbon et d’autres sources d’énergies polluantes.

Il est ainsi indispensable de faire la promotion des énergies renouvelables dans ces régions. Il s’agit également de développer, ailleurs, des opportunités qui permettent à la fois de répondre aux besoins des entreprises et de déployer davantage les énergies renouvelables.

Netflix, géant du streaming vidéo qui carbure aux fossiles

Qui seront les prochains à s’engager pour un Internet plus respectueux de l’environnement ? Netflix, peut-être ? Alors que d’autres leaders du numérique ont montré qu’il était possible d’alimenter les centres de données et d’y héberger nos applications en utilisant les énergies renouvelables, Netflix, géant du streaming vidéo, a toujours recours à des énergies sales, comme le charbon.

En 2015, le streaming vidéo a capté 63 % du trafic web mondial. Alors que les services de Netflix sont en pleine expansion, ce chiffre devrait atteindre 80 % en 2020. Netflix continue d’alimenter notre streaming avec des énergies fossiles et doit d’urgence suivre le chemin d’autres grandes entreprises du numérique. Nous devons aujourd’hui pousser Netflix à abandonner les énergies polluantes qu’elle utilise pour faire tourner ses gigantesques serveurs !

Une entreprise moderne et innovante ne devrait pas utiliser des énergies qui appartiennent au passé et menacent notre santé et notre environnement. Demandons à Netflix de laisser les énergies sales derrière elle et de s’engager pour un approvisionnement 100 % renouvelable !

Adopter des comportements plus vertueux

Pour agir en faveur d’un Internet plus respectueux de la planète, il est important d’adapter aussi notre comportement sur internet : regarder un film en basse définition permet par exemple de consommer quatre à dix fois moins d’énergie qu’un visionnage du même fichier en haute qualité graphique. Puisque tous les gestes comptent, évitons également d’envoyer des mails avec de trop grosses pièces jointes et penser à vider régulièrement votre corbeille, vos emails envoyés et de manière générale tout stockage inutile ou en double dans des centres de données. Quant aux mails publicitaires que nous ne lisons jamais, n’hésitez pas à vous désinscrire de la liste de leurs destinataires !

Conclusion

L’industrie high-tech est partie pour connaître une forte croissance dans les années à venir. Avec cette croissance, c’est la consommation de données qui explosera ainsi que l’impact du numérique sur l’environnement. Au nom de la nécessaire transition énergétique et de l’urgence climatique, cette industrie doit basculer vers les énergies renouvelables. Un autre internet est possible, loin du gaz et du charbon, à la hauteur des défis environnementaux d’aujourd’hui.

https://www.greenpeace.fr/ - Accueil Campagnes ClimatCOP21 : pour un monde 100 % renouvelable, Libérons l’énergie !

Image associée

Source : https://www.greenpeace.fr/il-est-temps-de-renouveler-internet/Recevoir les news

Retour au sommaire

30.
Internet serait le 6ème plus grand « pays » consommateur d’électricité Vendredi 14 juin 2019 10:10 – Document ‘carenews.com’ – Illustration « Internet Pollueur » >>>

https://www.carenews.com/sites/defa...

Envoyer des mails, regarder des vidéos en ligne...autant de gestes qui contribuent à la consommation d’énergie du numérique et, in fine, à la pollution numérique. Selon l’étude de la Global e-Sustainability Initiative (GeSI) en 2015, si Internet était un pays, ce serait le 6e plus grand consommateur d’électricité au monde. Carenews vous présente un livre blanc réalisé par Cleanfox qui décrypte l’usage même d’Internet et ses conséquences sur l’environnement.

Contrairement au nuage noir dû à la pollution de l’air, les impacts des pratiques digitales sont plus difficiles à détecter. La notion de l’empreinte carbone du digital en France a été introduite par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) dans les années 2010. Selon l’étude de la ‘Global e-Sustainability Initiative’ (GeSI) en 2015, si Internet était un pays, ce serait le 6e consommateur d’énergie sur la planète. Cette même étude note que les ‘data centers’ sont responsables de 2 % des émissions de CO2 dans le monde. L’impact du numérique est de ce fait considérable.

Le secteur informatique : une industrie énergivore

Dans ce livre blanc, on apprend que le numérique est par exemple responsable de 2 % des émissions de GES (équivalent CO2), soit autant que l’aviation, selon l’étude du Gartner Group datant de 2007. Alors, même si internet est un levier important d’opportunité et de connectivité entre les personnes, il convient de prêter attention à la pollution numérique. Par définition, elle est la pollution engendrée par le fonctionnement du réseau Internet.

Concrètement, un Français reçoit, en moyenne, 936 newsletters par an. Cela représente plus de 9 kg d’émissions de C02 par an. De plus, chacun email génère 10g de CO₂ chaque année selon Cleanfox, un nettoyeur de boîtes mail. À l’échelle individuelle, ce livre blanc encourage chacun à adopter une démarche écologique en ayant recours à l’option veille de l’ordinateur lors des pauses par exemple ou en ayant recours à la clé USB plutôt qu’à l’envoi de mails avec des pièces jointes lourdes.

Des acteurs du numérique qui prennent en compte les impacts dans l’environnement

Ce livre précise également que certains acteurs du numérique ont pris en compte l’importance de l’environnement dans leurs offres avec le recyclage des déchets d’équipements électriques et électroniques (DEEE), la réutilisation de la chaleur produite dans les datacenters pour chauffer les bâtiments tertiaires, l’organisation annuel d’un challenge étudiant visant à développer l’application la plus ‘ecofriendly’ possible, ou encore l’alimentation énergétique de datacenters grâce aux énergies renouvelables.

Le Baromètre 2017 sur les pratiques Green IT des entreprises confirme que certains éco-gestes sont désormais ancrés dans les mœurs avec la mutualisation des imprimantes individuelles vers des imprimantes collectives ou le paramétrage des imprimantes pour éviter le gaspillage (recto-verso par défaut et des impressions noir et blanc préférablement). Enfin, la sensibilisation des salariés aux gestes responsables s’est également nettement améliorée, accompagnée par l’engagement de la direction à faire respecter ces pratiques.

Carenews PRO - baromètre, étude, internet, pollution numérique, électricité, énergie, cleanfox, livre blanc

L’Auteur vous propose aussi

Carenews : L’info des associations, fondations, entreprises ... www.carenews.com

Source : https://www.carenews.com/fr/news/13301-chiffre-internet-serait-le-6e-plus-grand-pays-consommateur-d-electricite

Retour au début du sommaire

31.
Impact environnemental du numérique d’après un étude Wikipédia

L’impact environnemental du numérique regroupe l’ensemble des effets des technologies de l’information et de la communication sur l’environnement.

L’expression « pollution numérique » désigne les impacts environnementaux négatifs de ces technologies qui ressortent de leur bilan environnemental. La consommation d’électricité non négligeable des systèmes, l’usage de matières premières et d’énergie grise pour la fabrication des appareils, leur transformation en déchets après leur remplacement sont généralement évalués.

Problématique

Les promoteurs des technologies de l’information et de la communication soutiennent que les flux d’information, qu’ils disent « dématérialisés » réduisent l’impact des activités humaines sur l’environnement, en diminuant les ponctions sur les ressources naturelles par une meilleure organisation de la production et de la consommation1. Leurs critiques estiment que cette réduction est illusoire et que cette perception se fonde sur la discrétion des consommations numériques, opposée à la visibilité des moyens de transmission matériels, comme dans le cas d’un courriel remplaçant un courrier2. Pourtant, la plus grande disponibilité de la ressource entraîne par un effet rebond l’augmentation de la consommation, réduisant ou annulant le gain3.

Numérique et papier :

Le remplacement du papier par des documents électroniques peut amener à diminuer la consommation de papier4. Encore faut-il montrer que la facilité d’imprimer rapidement un document papier n’en stimule pas la consommation. La technologie permet l’économie, mais les utilisateurs semblent utiliser plutôt les corrections manuelles sur papier que les systèmes de gestion de versions sur document électronique. La consommation de papier a plus que doublé au cours des vingt dernières années5.

Numérique et transports :

De même, l’informatique a permis la baisse de la consommation des moyens de transport, par l’amélioration des véhicules et de la logistique6. L’effet de cette baisse, cependant, est entièrement effacé et dépassé par l’augmentation des flux, la baisse des coûts ayant permis une augmentation de la quantité de marchandises transportées.

La circulation électronique des données implique au moins une consommation d’électricité, diffuse chez les utilisateurs, concentrée dans les centres de données. La consommation diffuse, plus difficile à évaluer, consomme avec discrétion plus d’énergie qu’il n’y paraît à cause des pertes en ligne et du mauvais rendement énergétique de la recharge des appareils portables, tandis que les opérateurs peuvent construire les centres de données à proximité de moyens de production électrique. Selon l’organisation environnementale Greenpeace, le secteur informatique consomme 7 % du total de la production électrique mondiale, soit environ 1,4 % de la consommation énergétique mondiale. L’impact de cette consommation dépend de la façon dont est produite cette électricité. Certaines des plus importantes organisations industrielles de l’informatique et d’Internet se sont engagées pour un Internet alimenté par des énergies renouvelables7.

La facilité d’envoyer des messages en masse entraîne la prolifération d’usages parasites de l’informatique comme le pourriel, qui pèse lourdement[réf. nécessaire] sur le coût énergétique final des messages utiles.

La fabrication des appareils entraîne la production de déchets, l’exploitation de nouvelles ressources, la mise en circulation de produits qui peuvent être toxiques[réf. nécessaire].

Au crédit des technologies de l’information et de la communication, l’augmentation de la puissance de calcul des ordinateurs et la multiplication des capteurs de toutes natures ont permis la construction des modèles qui alertent sur l’état de la planète et le réchauffement climatique.

Numérique et conversion écologique

Photo - Exemple de centre de données.

S’il est généralement admis que la circulation et le traitement de l’information consomment de 1 à 2 % d’une l’énergie principalement produite à partir de combustible fossile, le numérique peut rendre possible la mise en place d’énergies renouvelables, souvent intermittentes et réparties en petites unités indépendantes sur un vaste territoire, ou faciliter la réduction de la consommation générale d’énergie, par l’optimisation des consommations.

L’organisation d’un réseau de distribution d’électricité en réseau intelligent vise ainsi à diminuer les pertes et à organiser la production dans une vaste zone géographique, malgré les conflits d’intérêts entre producteurs et distributeurs d’une part, et d’autre part entre ces industries en général et l’objectif de réduction de consommation énergétique.

Dans l’industrie et dans les transports, l’optimisation des processus par l’usage des technologies de l’information pourrait réduire la consommation de matières ; cependant, on constate souvent que l’effet de cette réduction est la diminution du prix, aboutissant finalement à une augmentation de la consommation par effet rebond, ce qui pousse à conclure que les relations sociales, plus qu’une technologie en particulier, sont en cause8.

L’impact du numérique sur l’environnement sera positif en ce qui concerne l’énergie si l’économie d’électricité qu’il permet dépasse sa propre consommation. Cette condition ne semble pas remplie actuellement9.

Pollution numérique

La « pollution numérique » désigne exclusivement les conséquences négatives de l’utilisation des technologies de l’information et de la communication10.

Concept

La pollution numérique se décompose en conséquences de la fabrication du matériel et en consommation énergétique du réseau Internet11.

Réseaux 

La consommation en énergie des réseaux représente en 2016 environ 2 % des émissions de gaz à effet de serre12, plus que l’émission de l’aviation civile, dans laquelle l’introduction du calcul numérique a permis la réduction de la consommation des aéronefs. La part de la production d’électricité dans les émissions de gaz à effet de serre est difficile à calculer ; on estime qu’elle a doublé depuis le début du XXIe siècle et que l’essor des nouvelles technologies la fera encore doubler vers 202013.

Outre les émissions de gaz polluants, les effets négatifs de l’émission d’ondes électromagnétiques sur la santé, inquiètent, aussi bien celle de lumière bleue que de rayonnements non visibles, aux effets encore incertains. Leur croissance oblige à des normes de compatibilité électromagnétique pour assurer le fonctionnement des appareils électroniques.

Matériel 

La fabrication des outils numériques (serveurs, ordinateurs personnels, tablettes, smartphones, infrastructures réseau diverses, écrans) consomme une quantité de matières relativement petite, en comparaison avec les autres produits industriels, mais, de la quarantaine de métaux différents contenus dans un smartphone, un grand nombre ne sont disponibles qu’en quantités limitées dans la nature14. De plus, au cours de sa vie utile, le matériel présent dans la plupart des nouvelles technologies entraîne une pollution particulaire15 et la dispersion de matières plastiques mêlées à des métaux et des terres rares. Enfin, une fois parvenus en fin de vie, les déchets d’équipements électriques et électroniques (DEEE) sont d’autant plus difficiles à recycler qu’ils sont complexes16 et conçus à l’encontre des principes d’écoconception17 ; plus nombreux chaque année, ils aboutissent dans des décharges, parfois informelles, où ils contaminent leur environnement et, dans les pays en développement, les populations qui en vivent18,19,20.

Déchets

Article connexe : Impacts environnementaux des DEEE.

Un ordinateur de bureau classique est composé de 36 éléments différents dont de nombreux éléments rares ou précieux.

La fabrication d’appareils numériques, ordinateurs, téléphones, tablettes, etc. consomme des ressources non-renouvelables, de l’énergie et des pollutions industrielles11. Un ordinateur fixe contient près de 25 % de silice, à peu près 23 % de matières plastiques, un peu plus de 20 % de fer, 14 % d’aluminium, 7 % de cuivre, 6 % de plomb et 2 % de nickel. Le zinc, l’étain, les matériaux plus rares (manganèse, cobalt, argent, barium, arsenic, bismuth, titane, berylium, galium, germanium, cadmium, chrome, selenium, mercure, palladium, rhutenium, etc., tous à moins de 1 %, composent les 2 % restant. La fabrication d’ordinateurs portables emploie une forte proportion d’éléments de la famille des terres rares (lanthanides) dont l’accès est jugé particulièrement critique par les instances internationales21. En moyenne, il faut mobiliser de 50 à 350 fois leur poids en matières pour produire des appareils électriques à forte composante électronique, soit par exemple 800 kg pour un ordinateur portable et 500 kg pour un modem22.

Photo - Décharge sauvage d’anciens ordinateurs aux États-Unis.

Composition des déchets électroniques et électriques23
Matériaux Quantité (%)
Plastiques 31
Oxydes réfractaires 30
Cuivre 20
Fer 8
Etain 4
Nickel 2
Plomb 2

Énergie

Les appareils numériques consomment de l’électricité. Une recherche sur internet, l’envoi d’un courriel requièrent, de plus, un passage par plusieurs centres de données. Ces ensembles de serveurs informatiques et d’ordinateurs de traitement de données numériques consomment eux aussi, au premier chef pour leur refroidissement (qui représente environ 40 % de la facture énergétique pour ces installations)24. Cette énergie est nécessairement électrique, dont la production et le transport engendrent eux aussi des pollutions13.

Impacts de cette pollution

Les impacts de la pollution numérique sont très différents, entre autres selon le moment de la consommation, la source d’énergie servant à produire l’électricité et les méthodes utilisées pour refroidir les serveurs. Il est donc nécessaire de considérer toute estimation avec prudence. Certaines données du groupe Grenoble Alpes Recherche français suggèrent qu’environ 7 grammes de CO2 sont émis pour une simple recherche sur Google et 20 grammes pour l’envoi d’un courriel avec une pièce jointe d’un mégaoctet25.

Environ 500 milliards de courriels sont envoyés chaque jour dans le monde. L’utilisation des TIC représente entre 6 et 10 % de la consommation d’électricité sur Terre25. Plus de 80 % de nos courriels reçus ne sont jamais ouverts, pourtant la suppression de 30 courriels équivaut à la consommation d’une ampoule allumée pendant 24 heures et l’utilisation d’une boite courriel par une entreprise de 100 salariés produit environ 136 kg de CO2 par employé chaque année26. Plus largement, une donnée numérique (mail, téléchargement, vidéo, requête web…) parcourt en moyenne 15 000 km27.

La part du numérique dans les émissions de gaz à effet de serre a augmenté de moitié de 2013 à 201828. Selon le groupe de réflexion The Shift Project, le numérique émet en 2019 4 % des gaz à effet de serre du monde ; sa consommation énergétique s’accroît de 9 % par an, qui se répartit en 55 % pour l’usage du numérique et 45 % pour la production des équipements. La vidéo en ligne génère 60 % des flux de données mondiaux et plus de 300 millions de tonnes de CO2 par an, soit 20 % du total des émissions de gaz à effet de serre dues au numérique, soit encore 1 % des émissions mondiales de gaz à effet de serre. Elle se répartit en quatre types de contenus : la vidéo à la demande (VoD) (34 %), la pornographie (27 %), les « tubes » (YouTube, Dailymotion, etc) (21 %) et les autres vidéos (18 %)29.

Mesures de réduction

Différentes solutions sont envisageables pour réduire la consommation énergétique du numérique ou en tirer parti, qui évoluent de la même manière que les façons de les utiliser.

  • Mettre en place des centres de données qui n’utilisent que de l’énergie renouvelable. Certaines grandes entreprises du numérique ont choisi d’alimenter leurs centres de données uniquement avec de l’énergie verte12.
  • Récupérer la chaleur produite par les serveurs informatiques des centre de données pour chauffer des bureaux ou des habitations30.
  • Diminuer l’envoi de courriels, leur taille et le nombre de destinataires12.
  • Une écoconception des logiciels, pour diminuer leur demande en puissance de calcul, qui surconsomme de l’électricité et oblige à renouveler le matériel12.
  • Limiter les impressions sur papier12.
  • Améliorer le recyclage des appareils numériques en fin de vie, qui reste compliqué, coûteux et encore mal maîtrisé.
    Annexes - Bibliographie

Document utilisé comme source pour la rédaction de cet article : Fabrice Flipo, Michelle Dobré et Marion Michot, La face cachée du numérique. L’impact environnemental des nouvelles technologies, Montreuil (France), L’Échappée, 2013 (ISBN 978-29158307-7-4, présentation en ligne [archive]).

Articles connexes Informatique durable Sobriété numérique Impact social déchets d’équipements électriques et électroniques (DEEE)

Liens externes

Retour au début du sommaire

Voir aussi Pollution numérique selon Novéthic

Retour au début du sommaire

32.
Entretien. Jeremy Rifkin prédit la fin de la «  civilisation fossile  » Ouest-France Modifié le 20/10/2019 à 11h06 – Document ‘ouest-france.fr’

Photo - L’essayiste et économiste américain Jeremy Rifkin. | ERIC PIERMONT / AFP

À l’occasion de la parution en français de son dernier ouvrage, « Le New Deal vert mondial », l’essayiste et économiste américain publie prédit la fin de la « civilisation des carburants fossiles ». Selon lui, « 11 000 milliards de dollars se sont déjà détournés de ces secteurs ». Les énergies douces, gratuites, renouvelables, vont prendre le relais pour nous permettre d’élaborer une nouvelle civilisation.

La civilisation centrée sur les énergies fossiles va s’effondrer d’ici à 2028 pour être remplacée par une nouvelle économie basée sur le solaire, l’éolien, le numérique, et sans nucléaire, prédit l’essayiste et économiste américain Jeremy Rifkin.

«  La civilisation des carburants fossiles, qui est à la base des deux premières révolutions industrielles, seffondre en temps réel  », estime-t-il à l’occasion de la parution en français de son dernier ouvrage, «  Le New Deal vert mondial  » (éditions Les liens qui libèrent).

«  Le solaire et l’éolien deviennent bon marché  »

Jeremy Rifkin, qui a conseillé des responsables européens et des dirigeants chinois, part du constat que «  le solaire et l’éolien deviennent si bon marché que leur coût moyen est désormais moindre que celui de l’énergie nucléaire, du pétrole, du charbon ou même du gaz naturel  ».

«  Cest un tournant majeur et nous commençons à voir des milliers de milliards de dollars d’actifs perdus dans le complexe mondial des énergies fossiles  », souligne-t-il.

«  Les actifs perdus, ce sont les droits dexploration (pétrolière et gazière) qui resteront inutilisés, tous les hydrocarbures qui ne seront jamais extraits, tous les pipelines qui seront abandonnés, les centrales électriques qui ne seront pas utilisées parce qu’elles ne seront jamais amorties.  »

Pour lui, le marché agit comme «  une force puissante  » dans cette évolution : «  11 000 milliards de dollars se sont déjà rapidement détournés des énergies fossiles, les investisseurs ne voulant pas perdre leur mise  », indique-t-il, relevant : la banque américaine «  Citigroup estime que nous pourrions voir 100 000 milliards dactifs perdus. Cest la plus grosse bulle de l’histoire économique  ».

«  Pas besoin de nouvelles taxes  »

Pour l’essayiste, convaincu de l’avènement d’une nouvelle forme de capitalisme, c’est «  la nature de linfrastructure qui détermine la nature du système économique  ».

Il imagine ainsi un monde futur reposant sur trois grands types d’infrastructures, réunissant les populations au niveau local comme mondial dans ce qu’il appelle la «  glocalisation  » : des réseaux de communication par smartphones ; de l’énergie renouvelable, produite de manière décentralisée et distribuée par des réseaux intelligents ; et enfin des transports électriques ou à pile à combustible, intégrés dans des chaînes logistiques intelligentes.

Cela nécessitera de gérer beaucoup de données. Elles ne seront toutefois plus contrôlées par les Google, Facebook et autres Amazon, mais stockées dans de petits centres reliés entre eux et contrôlés par des «  assemblées de pairs  » (des experts nommés par des responsables locaux ou régionaux).

Des projets pilotes existent aujourd’hui, avec quelques autobus à hydrogène ou bâtiments à énergie positive.

Dans le nord de la France, Jeremy Rifkin a conseillé en la matière le président de région Daniel Percheron et continue de collaborer avec son successeur Xavier Bertrand.

Mais il plaide pour un changement d’échelle, où les décideurs politiques auront un rôle important à jouer.

«  Ce sont les gouvernements qui créent linfrastructure pour la révolution industrielle du XXIe siècle. Les États doivent créer des banques vertes, les régions françaises doivent mettre sur pied leurs propres banques vertes et émettre des obligations vertes  » qui séduiront les fonds d’investissement recherchant «  des rendements à long terme, stables, qui sont ceux que fournissent les infrastructures  », détaille M. Rifkin.

En revanche, «  vous navez pas besoin de nouvelles taxes  », assure-t-il, un peu moins d’un an après le début de la crise des Gilets jaunes.

Le nucléaire condamné

Avec ces infrastructures, des millions de personnes, d’associations, de petites entreprises pourront «  créer des coopératives pour leur énergie solaire et éolienne et réinjecter ce quelles nutilisent pas dans un Internet de l’énergie renouvelable de plus en plus numérisé qui pourra traverser les pays et même les continents  ».

Exit donc la production d’énergie centralisée qui domine aujourd’hui.

«  Construire une nouvelle centrale électrique est complètement absurde  », affirme-t-il, «  le prix réel de l’énergie nucléaire sur la durée de vie dune centrale est de 112 dollars par mégawatt  », contre «  entre 29 et 40 dollars par mégawatt  » pour le solaire et l’éolien.

Et «  il y a un autre problème  : le manque deau  », prévient-il. «  Une part importante de l’eau douce sert à refroidir les réacteurs. Mais avec le changement climatique, l’eau des rivières et des lacs se réchauffe  » et deviendra inutilisable l’été pour refroidir les centrales. Cela s’est déjà produit dans le sud de la France.

Ouest-France : toute l’actualité en direct, l’info en continu en ...https://www.ouest-france.fr -Mentions légales Données personnelles Cookies Qui sommes-nous ? Tarifs de références Charte utilisateur Plan du site Plan des élections ABONNEZ-VOUS

Résultat de recherche d’images pour ’Ouest-France’

© Ouest-France - Source : https://www.ouest-france.fr/environnement/climat/entretien-jeremy-rifkin-predit-la-fin-de-la-civilisation-fossile-6573397

Retour au début du sommaire

33.
Jeremy Rifkin prédit la fin des énergies fossiles, du nucléaire et du contrôle des données par les GAFA Par Pascal Samama avec AFP - 20/10/2019 à 11h12 Mis à jour le 20/10/2019 à 11h15 – Document ‘bfmtv.com/economie’

Photo - ’La civilisation des carburants fossiles, qui est à la base des deux premières révolutions industrielles, s’effondre en temps réel’, constate l’essayiste et économiste américain Jeremy Rifkin - Eric Piermont - AFP

Selon l’essayiste et économiste américain

Selon l’essayiste et économiste américain Jeremy Rifkin, la civilisation centrée sur les énergies fossiles va s’effondrer d’ici à 2028 pour être remplacée par une nouvelle économie basée sur le solaire, l’éolien, le numérique, et sans nucléaire.

’La civilisation des carburants fossiles, qui est à la base des deux premières révolutions industrielles, s’effondre en temps réel’, annonce Jeremy Rifkin à l’occasion de la parution en français de son dernier ouvrage, ’Le New Deal vert mondial’ (éditions ‘Les liens qui libèrent’). 

L’économiste américain, qui a conseillé des responsables européens et des dirigeants chinois, explique que ce constat repose sur le coût de ces énergies : ’Le solaire et l’éolien deviennent si bon marché que leur coût moyen est désormais moindre que celui de l’énergie nucléaire, du pétrole, du charbon ou même du gaz naturel’. Il prédit même que ce basculement aura lieu dès 2028.

’C’est un tournant majeur et nous commençons à voir des milliers de milliards de dollars d’actifs perdus dans le complexe mondial des énergies fossiles’, souligne l’essayiste. ’Les actifs perdus, ce sont les droits d’exploration (pétrolière et gazière) qui resteront inutilisés, tous les hydrocarbures qui ne seront jamais extraits, tous les pipelines qui seront abandonnés, les centrales électriques qui ne seront pas utilisées parce qu’elles ne seront jamais amorties.

Pour lui, « le marché agit comme ’une force puissante’ dans cette évolution : ’11.000 milliards de dollars se sont déjà rapidement détournés des énergies fossiles, les investisseurs ne voulant pas perdre leur mise’, indique-t-il, relevant la banque américaine ’Citigroup’ qui estime que nous pourrions voir 100.000 milliards d’actifs perdus. C’est la plus grosse bulle de l’histoire économique ».

Le contrôle des données par Google, Facebook et Amazon

’Pas besoin de nouvelles taxes’. Jeremy Rifkin est convaincu de l’avènement d’une nouvelle forme de capitalisme, c’est ’la nature de l’infrastructure qui détermine la nature du système économique’. Pour lui, le monde futur pourrait reposer sur trois grands types d’infrastructures, réunissant les populations au niveau local comme mondial dans ce qu’il appelle la ’glocalisation’ : des réseaux de communication par smartphones ; de l’énergie renouvelable, produite de manière décentralisée et distribuée par des réseaux intelligents ; et enfin des transports électriques ou à pile à combustible, intégrés dans des chaînes logistiques intelligentes.

À lire : Le plan de la France pour combler son retard dans les éoliennes en mer

Cela nécessitera de gérer beaucoup de données. Elle ne seront toutefois plus contrôlées par les Google, Facebook et autres Amazon, mais stockées dans de petits centres reliés entre eux et contrôlés par des ’assemblées de pairs’ (des experts nommés par des responsables locaux ou régionaux). Des projets pilotes existent aujourd’hui, avec quelques autobus à hydrogène ou bâtiments à énergie positive.

Dans le nord de la France, Jeremy Rifkin a conseillé en la matière le président de région Daniel Percheron et continue de collaborer avec son successeur Xavier Bertrand. Mais il plaide pour un changement d’échelle, où les décideurs politiques auront un rôle important à jouer. ’Ce sont les gouvernements qui créent l’infrastructure pour la révolution industrielle du XXIe siècle’.

Les Etats doivent créer des banques vertes, les régions françaises doivent mettre sur pied leurs propres banques vertes et émettre des obligations vertes’ qui séduiront les fonds d’investissements recherchant ’des rendements à long terme, stables, qui sont ceux que fournissent les infrastructures’, détaille Jeremy Rifkin. En revanche, ’vous n’avez pas besoin de nouvelles taxes’, assure-t-il, un peu moins d’un an après le début de la crise des ’gilets jaunes’.

Le nucléaire condamné par son prix

Avec ces infrastructures, des millions de personnes, d’associations, de petites entreprises pourront ’créer des coopératives pour leur énergie solaire et éolienne et réinjecter ce qu’elles n’utilisent pas dans un internet de l’énergie renouvelable de plus en plus numérisé qui pourra traverser les pays et même les continents’. Exit donc la production d’énergie centralisée qui domine aujourd’hui.

’Construire une nouvelle centrale électrique est complètement absurde’, affirme-t-il, ’le prix réel de l’énergie nucléaire sur la durée de vie d’une centrale est de 112 dollars par mégawatt’, contre ’entre 29 et 40 dollars par mégawatt’ pour le solaire et l’éolien.

Et ’il y a un autre problème : le manque d’eau’, prévient-il. ’Une part importante de l’eau douce sert à refroidir les réacteurs. Mais avec le changement climatique, l’eau des rivières et des lacs se réchauffe’ et deviendra inutilisable l’été pour refroidir les centrales. Cela s’est déjà produit dans le sud de la France.

BFMTV - Actualités en continu et info en direct et replay -

Résultat de recherche d’images pour ’bfmtv.com logo’

Source : https://www.bfmtv.com/economie/jeremy-rifkin-predit-la-fin-des-energies-fossiles-du-nucleaire-et-du-controle-des-donnees-par-les-gafa-1790777.html

Retour au début du sommaire

34.
Climat - Pollution et numérique : début d’une prise de conscience Justin Delépine 28/10/2019 – Document ‘alternatives-economiques.fr’

Deux rapports, de Green IT et de l’Arcep, pointent la pollution exponentielle du numérique. Les chiffres et les rapports s’accumulent et le constat est sans appel : le numérique pollue. Emissions de gaz à effet de serre, épuisement de certaines ressources naturelles… le développement des nouvelles technologies, immatérielles en apparence, a un impact environnemental notoire.

Le cabinet Green IT détaille, dans un rapport paru le 22 octobre 2019, l’empreinte environnementale du numérique mondial : « Si le numérique était un pays, il aurait environ deux à trois fois l’empreinte de la France ». Signe d’un début de prise de conscience, le gendarme français du secteur, l’Arcep (l’Autorité de régulation des communications électroniques et des postes), s’est également saisie du sujet et a publié une note le 23 octobre… » (Lire la suite à la source)

Sur le même sujet > Lien Ecologie ; Pollution numérique : cinq gestes pour sauver l’environnement- Les impacts environnementaux risquent surtout de continuer à progresser, comme la croissance du trafic internet et la production d’équipement ne cesse d’augmenter : « L’empreinte du numérique double ou triple en 15 ans », résume Frédéric Bordage… »

A lire également :

Entretien Réchauffement climatique : « s’adapter est-ce renoncer ? » Recueilli par Catherine André 25/10/2019

Bonnes feuilles Le tic-tac de l’horloge climatique Christian de Perthuis 23/10/2019

Chronique Et si la Convention citoyenne pour le climat créait la surprise ? Anne Bringault 23/10/2019

Alternatives Economiqueshttps://www.alternatives-economiques.fr -Soutenez-nous :Alternatives Economiques’ est une coopérative 100% indépendante qui appartient à ses salariés et qui ne vit que grâce à ses lecteurs. Nous avons besoin de vous pour faire vivre ce projet. Contactez-nous : Service relations clients Rédaction Signaler un contenu illicite Qui sommes-nous ? CGV/CGU Mentions Légales Politique de protection des données personnelles FAQ

Résultat de recherche d’images pour ’alternatives-economiques’’

Source : https://www.alternatives-economiques.fr//pollution-numerique-debut-dune-prise-de-conscience/00090844?utm_source=emailing&amp ;utm_medium=email&utm_campaign=NL_Les_plus_lus%2F31102019

Retour au sommaire

Retour au début de l’introduction

Retour au début du résumé

Retour au début du dossier


Publications antérieures postées sur le site ISIAS

A propos des MOOC, TICE…

’Faut-il se réjouir, s’inquiéter ou se moquer des MOOC qui se répandent dans l’enseignement et les formations ?’ par Jacques Hallard ; lundi 18 décembre 2017 par Hallard Jacques - français

’Les pratiques d’apprentissage à l’école … et ailleurs, à partir de l’observation du cerveau par les neurosciences, et à l’aide des technologies de l’information et de la communication pour l’enseignement (TICE), des formations en ligne ouvertes à tous ou MOOC (de l’anglais ‘massive open online course’) et des ‘classes inversées’’ par Jacques Hallard ; mardi 2 janvier 2018 par Hallard Jacques - français

’Les MOOC se mettent en place mais les risques qui les accompagnent doivent être pris en compte’ par Jacques Hallard ; samedi 17 octobre 2015 par Hallard Jacques - français

’La santé des jeunes est menacée par les ondes’ par Jacques Hallard ; samedi 9 juillet 2016 par Hallard Jacques - français

Conférence interactive de Jacques Hallard : La santé des jeunes est-elle menacée par les ondes, les MOOC et autres TIC (technologies de l’information et de la communication) ? ; mercredi 10 avril 2019 par Hallard Jacques - français

Conférence de Jacques Hallard à l’Association Franco-allemande dimanche 11 février 2018 à 16h30 à la ‘Salle Municipale Mérindol’ 84000 AVIGNONISIAS Histoire Pédagogie  ; mardi 9 janvier 2018 par Hallard Jacques - français

’Arrivée des ‘MOOC’ et des outils pédagogiques interactifs. Usages et risques sanitaires, sociaux, écologiques et psychologiques’, par Jacques Hallard ; dimanche 4 octobre 2015 par Hallard Jacques - français

A propos du transhumanisme

’A propos du transhumanisme L’Homme augmenté dans un monde recomposé’, dossier de Jacques Hallard ; vendredi 21 octobre 2016 par Hallard Jacques - français

« Humanisons le transhumanisme ! » par Edgar Morin ; mercredi 9 novembre 2016 par isias - français

A propos de l‘Intelligence Artificielle (IA)

’Faire connaissance avec l’Intelligence Artificielle (IA)’ par Jacques Hallard , vendredi 30 novembre 2018

’La nébuleuse des opérateurs économiques du numérique de l’électronique et des télécommunications’ par Jacques Hallard , dimanche 30 décembre 2018

’Offres et perspectives du numérique et de l’IA, usages et acceptabilité des utilisateurs, clients et consommateurs ; actions politiques et administratives en cours’ par Jacques Hallard , mardi 16 avril 2019 par Hallard

Conférence de Jacques Hallard, Ingénieur CNAM, sur l’Intelligence artificielle : miracle ou mirage, promesse ou périls ? Le vendredi 26 Avril 2019 à 18h30 à la Salle des Fêtes d’Eygalières 13 , lundi 22 avril 2019

’Etat de l’art et prospective concernant l’intelligence artificielle (IA) dans les domaines artistiques (arts numériques) en France, au Québec Canada et en Californie’ par Jacques Hallard avec Bastien Maleplate, mardi 03 septembre 2019

’L’incorporation des intelligences artificielles (IA), faible et forte, et donc des réseaux de neurones artificiels, dans les arts numériques, les médias et les réseaux sociaux ; la politique française pour implémenter l’IA dans des secteurs jugés prioritaires’ par Jacques Hallard & Bastien Maleplate ; dimanche 22 septembre 2019

’Quelques méthodes et techniques aboutissant à l’Intelligence Artificielle (IA) : de l’Histoire des sciences du 17ème siècle, jusqu’aux applications numériques actuelles, avec une revue rapide des impacts sanitaires ’ par Jacques Hallard , mardi 19 novembre 2019

Conférence Publique sur l’Intelligence Artificielle et les Arts, au Ciné-Palace de Saint-Rémy-de-Provence, par Jacques Hallard, organisée par l’association ‘Cour des Arts’ le 12 décembre 2019 à 19h00, dimanche 1er décembre 2019 : « L’Intelligence Artificielle (IA) e(s)t l’avenir de l’Homme ? » 1ère partie….

Retour aux accès sur les publications antérieures postées sur le site ISIAS

Retour au début du sommaire

Retour au début de l’introduction

Retour au début des définitions scientifiques préalables

Retour au début du résumé

Retour au début du dossier


Auteurs : Jacques HALLARD, Ingénieur CNAM, consultant indépendant et Bastien (conseils scientifiques et techniques) – 05/12/2019

Site ISIAS = Introduire les Sciences et les Intégrer dans d
es Alternatives Sociétales

http://www.isias.lautre.net/

Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS IA Les perspectives des réseaux informatiques, téléphonie mobile 5G (et bientôt 6G), futurs ordinateurs quantiques et impacts environnementaux des équipements numériques et objets connectés aux réseaux.7

Mis en ligne par Pascal Paquin de Yonne Lautre, un site d’information, associatif et solidaire(Vie du site & Liens), un site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti.

http://yonnelautre.fr/local/cache-v...

— -

Portfolio