ISIAS

"Quand l’ordinateur ambitionne de devenir un cerveau humain" par le Dr Mae-Wan Ho

Traduction et compléments de Jacques Hallard
lundi 22 avril 2013 par Ho Dr Mae-Wan

ISIS Biologie Informatique
Quand l’ordinateur ambitionne de devenir un cerveau humain
The Computer Aspires to the Human Brain
Non, l’ordinateur ne fonctionnera jamais comme un cerveau humain, mais il peut inspirer l’industrie informatique pour surmonter le goulot d’étranglement actuel et passer vers des ordinateurs encore plus rapides et plus efficaces. Dr Mae-Wan Ho

Rapport de l’ISIS en date du 14/03/2013
Une version entièrement référencée et illustrée de cet article intitulé The Computer Aspires to the Human Brain est disponible et accessible par les Membres de l’ISIS sur le site http://www.i-sis.org.uk/The_Compute... - Elle est par ailleurs disponible en téléchargement ici
S’il vous plaît diffusez largement et rediffusez, mais veuillez donner l’URL de l’original et conserver tous les liens vers des articles sur notre site ISIS. Si vous trouvez ce rapport utile, s’il vous plaît, soutenez ISIS en vous abonnant à notre magazine Science in Society, et encouragez vos amis à le faire. Ou jeter un oeil à notre librairie ISIS bookstore pour d’autres publications

 Pour lire cet article en profitant de tous les liens cliquer ici

  Une prochaine grande percée scientifique ?

Les scientifiques tentent de simuler le cerveau humain avec un supercalculateur [1]. Le Human Brain Project (HBP) [Projet Cerveau Humain] est la ‘Big Science’ de l’Europe qui va coûter 1 milliard d’€ pendant les dix prochaines années, et la Commission européenne en a décidé son financement en janvier 2013. Il s’agit d’un reforcement du projet ‘Blue Brain’ basé en Suisse [2] ; il est dirigé par le neuroscientifique Henry Markram de l’Ecole Polytechnique Fédérale de Lausanne, qui prétend avoir créé une réplique de l‘ordinateur virtuel d’une partie du néocortex de rat, une région du cerveau qui contrôle la pensée consciente, le raisonnement et le mouvement.
Le projet HBP a l’objectif ambitieux de cartographier tous les quelques 100 milliards de neurones dans le cerveau humain et de leurs ‘100 trillion’ de connexions (synapses) [100.000 milliards ou 10-12 selon le code US ou bien 10-18 selon le code UK ?] [3], d’une part, et de « simuler de façon réaliste le cerveau humain », d’autre part, de sorte qu’il va nous indiquer « comment l’esprit humain fonctionne », et comment « guérir les maladies du cerveau », et il v a, entre autres, trouver l’inspiration pour de nouveaux ordinateurs "neuromorphiques".
Pour ne pas être en reste, le New York Times a révélé que l’administration Obama est en train de dévoiler le projet Brain Activity Map (BAM) [Projet de cartographie de l’’activité cérébrale [4] qui doit « en fin de compte élargir considérablement notre compréhension du cerveau humain en bonne santé et du cerveau malade », que beaucoup ont comparé au Projet du génome humain, avec une demande d’un financement de la recherche de la même échelle de grandeur, soit 300 millions de dollars par an pendant dix ans. D’autres scientifiques ont critiqué le projet pour son manque d’objectifs clairs, et qui va engloutir des fonds au moment où les temps sont durs ; ces sommes auraient pu prendre en charge plusieurs petites études et recherches [5].
Ensemble, les projets HBP et BAM ont tous les ingrédients d’une dystopie [ou contre-utopie] de science-fiction dans laquel le cerveau humain supercalculateur tente de conquérir le monde, en supposant que le projet arrive à télécharger un cerveau humain dans un ordinateur électronique qui est totalement inapproprié pour ce qui concerne les émotions humaines comme l’amour et l’empathie – qui font vraiment partie de la chimie du cerveau humide réel des êtres humains et qui est inséparable du reste du corps (voir [6] Quantum Coherence and Conscious Experience, ISIS publication scientifique ; [7] Living Rainbow H2O, ISIS publication) *
* Voir "Un arc-en-ciel dansant au sein de l’eau vivante" par le Dr. Mae-Wan Ho. Traduction et compléments de Jacques Hallard ; accessible sur http://isias.transition89.lautre.ne...
Nous pensons donc que tous ces projets ne serviront à rien d’autre qu’à exterminer les êtres humains réels avec leurs stupides erreurs humaines.
L’issue la plus probable est un exaflop [exaflop = 1018 flops], un échec spectaculaire de dimensions galactiques. (L’objectif final dans l’industrie informatique est bien de construire un super-ordinateur qui traite 1018 opérations par seconde – également un exaflop - et je traiterai de cela plus tard). A l’heure actuelle, nous en sommes venus à attendre que les grands projets scientifiques échouent de façon spectaculaire.
Le projet du génome humain nous avait promis de nous dire comment faire un être humain, comment nous libérer de la maladie et d’autres conditions humaines indésirables [8] ] (Ten years of the Human Genome, SiS 48)*.
* Voir "Dix ans d’études sur le génome humain : d’énormes quantités de données et pas de progrès en vue" par le Dr. Mae-Wan Ho. Traduction et compléments de Jacques Hallard ; accessible sur http://isias.transition89.lautre.ne...
Au lieu de cela, malgré les progrès technologiques qui permettent aux généticiens de ramasser de l’information à travers des génomes entiers et à des prix avantageux, ils n’ont même pas réussi à identifier les gènes qui nous prédisposent à des maladies chroniques courantes [9] (Mystery of Missing Heritability Solved ? SiS 53), ISIS Report 14/03/13 *
* Voir "Le mystère de l’héritabilité manquante est-il résolu en génétique des pathologies humaines ?" par le Dr Mae-Wan Ho - Traduction et compléments de Jacques Hallard ; accessible sur http://isias.transition89.lautre.ne...
Et ils ont également constaté qu’il n’existe aucun gène pour l’intelligence dans le génome humain [10 ] No Genes for Intelligence (SiS 53) *
* Voir "Il n’existe aucun gène pour l’intelligence dans le génome humain" par le Dr Mae-Wan Ho. Traduction et compléments de Jacques Hallard ; accessible sur http://isias.transition89.lautre.ne...
De même, le collisionneur de hadrons est largement vanté comme ayant confirmé le modèle standard de l’univers physique en ayant trouvé un boson de Higgs. Même si cela est vrai, le modèle standard ne représente pas plus de 5% de l’univers, le reste étant de la ‘matière noire’ et de l’’énergie noire’, dont onne peut pas dire grand’ chose [11].
Les résultats du collisionneur de hadrons ont jusqu’ici échoué à valider les théories de supersymétrie qui sont nécessaires pour valider le modèle standard, telles que la prise en compte de la matière noire [12], laissant les physiciens dans des états allant du désespoir et du découragement à la défensive et au défi. Assurément, ils devraient être au moins un peu humbles et contrits, après avoir déjà perdu des milliards provenant de l’argent des contribuables.

  Pourquoi le Projet du Génome Humain et la carte des activités cérébrales ne sont-ils pas censés réussir ?

Il est très peu probable que le Human Brain Project réussira à nous dire comment fonctionne le cerveau, sans parler de l’esprit. Tout d’abord, comment le cerveau humain va- t’il être simulé ? À ce stade, nous savons déjà que même les cerveaux des vrais jumeaux sont câblés différemment en raison de l’expérience individuelle et de leur vécu [10]. Et pourtant, les personnes dont les neurones sont câblés différemment peuvent néanmoins fonctionner normalement et se comprendre sans aucune difficulté.
Deuxièmement, il n’existe aucune preuve que les souvenirs distincts soient stockés dans les synapses de neurones spécifiques, mais les scientifiques du cerveau purs et durs ont essayé de les rechercher là. Au lieu de cela, la mémoire est plus susceptible d’être stockée dans un lieu de mémoire holographique [6, 13], c’est à dire, délocalisée sur l’ensemble du cerveau (probablement sur le corps et dans un univers holographique quantique [6]. [On peut se reporter à l’article de Leonard Susskind « L’Univers est un hologramme » ; dossier - 01/02/2009. Propos recueillis par Franck Daninos dans ‘La Recherche’, mensuel n°427 à la page 38 (Gratuit), accessible sur http://www.larecherche.fr/savoirs/d... ].
La mémoire est capable de survivre à des lésions cérébrales importantes, et il ne faut que très peu de temps pour que le cerveau humain se souvienne d’événements qui ont eu lieu il y a très longtemps.
Enfin, le cerveau ne fonctionne pas comme un ordinateur, ce qui était déjà tout à fait évident pour les pionniers de l’informatique tels que John von Neumann [14]. Les neurones sont beaucoup plus complexes que les processeurs de l’informatique : ils ne fonctionnent pas comme de simples portes logiques et ils peuvent avoir une approche totalement différente du mode de fonctionnement.
Comme dans le cas des autres projets de la ‘Big Science’, le Human Brain Project est erroné dès le départ par la science mécaniste qui est déjà dépassée et discréditée.
Néanmoins, une ambition plus modeste - impliquant en conséquence de travailler à une échelle plus réduite financièrement – est de rendre les ordinateurs plus semblables au cerveau et pourrait s’avérer plus fructueuse.

  Le cerveau humain contre l’ordinateur

Le cerveau humain, qui a une mémoire estimée à 3,5 x 1015 octets, fonctionne à une vitesse de 2,2 petaflops (1015 opérations par seconde) ; il a un volume d’environ 1,2 L et il consomme 20 W de puissance. En comparaison, le plus rapide supercalculateur au monde, existant en juin 2011 a été l’ordinateur K de Fujitsu, avec une mémoire de 30 x 1015 octets, fonctionnant à une vitesse de 8,2 pétaflops : il a la taille d’un petit entrepôt, et il consomme 12,6 MW [15]. En juin 2012, l’ordinateur K a été évincé de son poste d’ordinateur le plus rapide du monde par le ‘Sequoia américain IBM’, le supercalculateur Blue Gene/Q qui travaille à 16.325 pétaflops, utilisant 123% de Central Processing Unit (Unité centrale de traitement) et qui ne consomme que 7,9 MW, soit 37% de moins que l’ordinateur K [16].
La course en la matière est clairement que l’appareil supercalculateur soit le plus rapide du monde et le plus économe en énergie. L’énorme quantité d’énergie consommée par les ordinateurs actuels génère une grande quantité de chaleur qui doit être évacuée par des systèmes de refroidissement volumineux qui consomment encore plus de puissance.. Le cerveau humain se place de loin et de toute évidence à la première place en termes de taille et de consommation.
L’ordinateur a parcouru un long chemin depuis le premier ordinateur électromécanique de la taille d’une pièce d’habitation qui a été mis au point dans les années 1940. Les transistors électroniques ont été introduits en 1960, et les ordinateurs personnels ont diminué de taille aux alentours de 1980. Depuis lors, la densité des transistors (opérations / seconde / L) a augmenté de façon exponentielle avec leur efficacité (opérations / J) (figure 1) [17]. Le prochain objectif est l’exaflop (1018 flops). Mais la technologie actuelle, qui consomme des centaines de MWatts et qui génère encore plus de chaleur, nécessite un refroidissement encore plus important.
Figure 1 - Efficacité de l’ordinateur et densité de l’ordinateur
L’industrie est face à un nouveau goulot d’étranglement. Les transistors sont positionnés aussi de manière aussi dense que possible sur une puce 2D, et la nécessité pour le transport de données a aggravé le problème, ce qui nécessite plus de fils, plus de volume et plus de refroidissement. C’est là que l’industrie se tourne vers le cerveau humain pour rechercher une inspiration.
Le cerveau humain ne représente que 2% du volume du corps et consomme 20% de la demande totale d’énergie. Mais il est incroyablement efficace. Il peut atteindre cinq ou six ordres de grandeur informatique de plus pour chaque joule d’énergie consommée (tout en effectuant en parallèle toutes les activités nécessaires pour maintenir en vie les cellules du cerveau, qui fait partie de la raison pour laquelle certains d’entre nous pensent que les organismes vivants sont en cohérence quantique [18] The Rainbow and the Worm, The Physics of organismes , ISIS publication).
Dans un ordinateur classique, un millième de 1% du volume est utilisé pour les transistors et les autres dispositifs logiques, et jusqu’à 96% sont utilisés pour transporter la chaleur, et 1% est utilisé pour la communication électrique (c’est-à-dire pour le transport de l’information), et 1% pour la stabilité structurale. En revanche, le cerveau utilise seulement 10% de son volume pour l’approvisionnement en énergie, le transport thermique et la stabilité structurelle, et donc 70% pour la communication et 20% pour le calcul. La mémoire du cerveau et des modules de calcul sont positionnés de façon très rapprochée, afin que les données stockées depuis longtemps puissent être rappelées en un instant.
La densité fonctionnelle dans les ordinateurs actuels est de 10.000 transistors / mm3, par rapport à 100.000 neurones / mm3 (chaque neurone est considéré comme l’équivalent d’environ 1.000 transistors). Donc la densité fonctionnelle de l’ordinateur est 1010 / L alors que celle du cerveau est de 1014 / L).

  Rendre les ordinateurs plus semblables au cerveau humain

Une équipe d’IBM Research Division de Zurich, en Suisse, dirigée par Bruno Michel a pris la signal de l’architecture 3D du cerveau humain pour améliorer la réduction du volume et l’efficacité énergétique [17].
Dans certains modèles proposés en 3D, des piles de puces microprocesseurs individuels - sur lequel les transistors peuvent être câblés en un réseau de branchement - sont encore empilées et interconnectées sur les circuits, et ceux-ci à leur tour sont empilés ce qui permet une communication verticale entre eux. Le résultat est une sorte de structure fractale ordonnée (Figure 2). Le tout peut être refroidi par un fluide (liquide), et à une date ultérieure, la puissance pourrait même être délivrée par des composés chimiques énergétiques (comme dans le cerveau) qui n’ont que de très petits besoins de pompage.
Figure 2 - Puces empilées dans des structures fractales pour réduire le volume efficace, pour une meilleure efficience énergétique et des communications
Avec des empilement volumétriques de puces de transistors emplilées, le volume global est comprimé par un facteur de 105 à 106,, d’où il résulte les partitions volumiques suivantes : transistors et dispositifs 5%, interconnexions 25%, alimentation de puissance 30%, transport thermique 30% et stabilité structurelle 10%.
Si les ingénieurs informaticiens aspirent encore à une vitesse de fonctionnement de l’ordre du Zetaflop (1021 opérations par seconde), une structure d’un type semblable à celle du cerveau sera nécessaire [19]. Avec les architectures actuelles, un tel dispositif serait plus grand que le mont Everest et consommerait plus d’énergie que la demande mondiale totale actuellement.
Michel estime que ces innovations devraient permettre aux ordinateurs d’atteindre l’efficacité, si ce n’est la capacité du cerveau humain, aux environ de 2060, soit une centaine d’années après l’introduction des ordinateurs électroniques.

  Les derniers résultats

En utilisant le superordinateur qui est actuellement le plus rapide du monde et la nouvelle architecture informatique évolutive, à puissance ultra-basse décrite ci-dessus, IBM affirme avoir simulé 530.000.000.000 neurones et ‘100 trillion’ de connexions (synapses) [100.000 milliards ou 10-12 selon le code US ou bien 10-18 selon le code UK ?], ce qui correspond au nombre dans le cerveau humain. Mais ils n’ont pas un super-ordinateur qui fonctionne de la façon dont cela se déroule dans le cerveau humain.
Le cerveau humain peut à la fois rassembler des milliers de stimuli sensoriels ; les interpréter dans leur ensemble et réagir de manière appropriée, en faisant de l’abstraction, de l’apprentissage, de la planification et de l’invention, le tout avec une puissance de 20 W. Un ordinateur de complexité comparable et utilisant la technologie actuelle, exigerait une puissance d’environ 100 MW.
Une partie de la capacité du cerveau pour économiser l’énergie est considérée comme fonctionnant selon les évènements : c’est-à-dire que les neurones individuels, les synapses et les axones ne consomment de l’énergie que lorsqu’ils sont activés. (En fait, ce n’est probablement pas vrai, car la cellule du cerveau au repos est toujours occupée avec son métabolisme qui doit la maintenit en vie).
Les neurones peuvent recevoir des signaux d’entrée provenant de dix mille neurones voisins, élaborer les données, puis émettre un signal de sortie. Environ 80% des neurones sont des excitateurs et les 20% restants sont des inhibiteurs. Les synapses relient des neurones différents, et on soupçonne que c’est là que l’apprentissage et la mémoire ont lieu (mais voir ci-dessus).
Dans le cerveau virtuel, chaque synapse a une valeur de poids associée qui reflète le nombre de signaux déclenchés par les neurones virtuels qui se déplacent le long d’eux. Quand un grand nombre de signaux générés par les neurones, voyagent à travers le synapse, la valeur pondérée augmente et le cerveau virtuel commence à apprendre par association.
L’algorithme vérifie régulièrement si chaque neurone est un signal de déclenchement : si c’est le cas, les synapses voisins seront informés, et ils mettront à jour leurs valeurs pondérées et interagiront en conséquence avec d’autres neurones. Fondamentalement, l’algorithme ne consacrera du temps de CPU (Unité centrale de traitement) que sur une très petite fraction des synapses qui ont réellement besoin d’être excités, plutôt que sur la totalité d’entre eux : cela économise énormément de temps et d’énergie.
Ainsi, le cerveau virtuel, tout comme le cerveau réel, est piloté par les événements, distribué, très soucieux de puissance et il surmonte certaines des limites des ordinateurs standards.
Le but ultime d’IBM est de construire une machine ayant la complexité du cerveau humain dans un volume relativement petit, et avec une consommation électrique faible, de l’ordre d’environ 1 kW. Pour l’instant, le cerveau virtuel du supercalculateur Sequoïa Blue Gene / Q utilise 1.572.864 modules de processeurs, avec 1,5 x 1015 octets de mémoire, 6.291.456 fils ; il consomme quelques MW et il est encore de la taille d’un entrepôt.

© 1999-2013 The Institute of Science in Society
Contact the Institute of Science in Society
MATERIAL ON THIS SITE MAY NOT BE REPRODUCED IN ANY FORM WITHOUT EXPLICIT PERMISSION. FOR PERMISSION, PLEASE CONTACT ISIS

 Compléments

De la cohérence quantique à température ambiante en biologie !
Par Laurent Sacco, Futura-Sciences
Certaines algues utiliseraient les amplitudes de probabilité de la mécanique quantique pour optimiser la photosynthèse, ce qui signifie que ces cellules ont franchi l’obstacle de la décohérence quantique qui devrait rendre ce processus impossible à température ambiante. De quoi relancer les spéculations sur la biologie quantique, le fonctionnement du cerveau mais aussi de rendre plus crédibles les ordinateurs quantiques. Les fondateurs de la mécanique quantique, Bohr, Heisenberg et Schrödinger l’avaient suspecté depuis longtemps.
Si la matière ne peut pas être ultimement comprise comme des sortes de boules de billard dans l’espace et dans le temps gouvernées par des lois déterministes, il fallait aussi s’attendre à des limitations des images issues de la physique du XIXe siècle lorsqu’il s’agit de comprendre plus en profondeur les systèmes biologiques.
On sait que le grand physicien Roger Penrose avait suggéré depuis presque 20 ans que des processus quantiques étaient peut-être à l’œuvre dans le cerveau humain, rendant vains les espoirs des tenants de la conscience artificielle de pouvoir un jour obtenir l’équivalent d’une conscience à partir d’un ordinateur classique possédant la puissance de calcul suffisante. Beaucoup lui avaient objecté, avec raison, que les processus d’intrication-supperposition quantiques qu’il supposait pouvoir opérer dans le cerveau ne pouvaient exister car ils seraient très rapidement détruits par le processus de décohérence, inévitable pour un système physique fonctionnant à température ambiante. Le même genre d’objection avait été avancé à tous ceux qui prévoyaient monts et merveilles avec les ordinateurs quantiques. Là encore, pour pouvoir surpasser les superordinateurs classiques, les systèmes quantiques utilisés pour exploiter le principe de superposition des états au cœur de la mécanique quantique, et calculer avec un grand nombre de qubits, auraient nécessairement été bien trop gros et chauds pour permettre à la cohérence quantique d’exister suffisamment longtemps pour effectuer les calculs…
Lire l’article complet sur le site http://traimer.free.fr/Guilde-guppy...
Esprit quantique – D’après Wikipédia
L’esprit quantique est une hypothèse qui suggère que des phénomènes quantiques, tels l’intrication et la superposition d’états, sont impliqués dans le fonctionnements du cerveau et en particulier, dans l’émergence de la conscience. Cette hypothèse part du principe, controversé, que la physique classique et son déterminisme ne peut totalement expliquer la conscience. Ses fondements théoriques ont été posés dans les années 1960 en sciences mais depuis ses partisans ne sont pas encore parvenus à la démontrer.
Cette théorie n’en est qu’à ses débuts, elle a pourtant le soutien le Roger Penrose et de Stuart Hameroff. Karl H. Pribram et Henry Stapp ont, de leurs côtés, proposé une variante.
Sommaire
1 Motivation
1.1 La conscience décentrée
1.2 Réduction du mystère
2 Quelques théories
2.1 David Bohm
2.2 Gustav Bernroider
2.3 Roger Penrose
2.4 Max Tegmark
3 Débats
3.1 Scientifique
3.2 Philosophique
4 Notes et références
Article complet sur le site http://fr.wikipedia.org/wiki/Esprit...
Les oiseaux utilisent la cohérence quantique !
Jeudi, 23 juin 2011 | Tags : biologie, écologie, physique | Catégorie : Scientifiction | Guillaume | 10 commentaires
« Depuis la mise en évidence de la magnétoréception chez les Oiseaux, c’est-à-dire leur capacité à détecter le champ magnétique terrestre et à s’en servir comme instrument de vol, plusieurs équipes s’intéressent aux mécanismes biologiques responsables de cette perception sensorielle animale… »
Copyright © 2013 Traqueur Stellaire - un blog de Guillaume - Reproduction des billets interdite. Source pour lire l’article complet : http://www.traqueur-stellaire.net/2...

  Traduction, compléments et inclusion des accès aux définitions en français

Jacques Hallard, Ing. CNAM, consultant indépendant.
Relecture et corrections : Christiane Hallard-Lauffenburger, professeur des écoles.
Adresse : 585 Chemin du Malpas 13940 Mollégès France
Courriel : jacques.hallard921@orange.fr
Fichier : ISIS Biologie Informatique The Computer Aspires to the Human Brain French version.2
— -


titre documents joints

22 avril 2013
info document : PDF
159.7 ko

Accueil | Contact | Plan du site | | Statistiques du site | Visiteurs : 621 / 303949

Suivre la vie du site fr  Suivre la vie du site Pour en savoir plus  Suivre la vie du site Biotechnologies & Nanotechnologies   ?    |    titre sites syndiques OPML   ?

Site réalisé avec SPIP 3.2.1 + AHUNTSIC

Creative Commons License