Accueil > Pour en savoir plus > Phi Nombre d’or > "Histoire de Phi - Partie 3 : la proportion d’or en musique et dans le (...)

"Histoire de Phi - Partie 3 : la proportion d’or en musique et dans le cerveau" par Dr Mae-Wan Ho

Traduction et compléments de Jacques Hallard

dimanche 20 décembre 2020, par Ho Dr Mae-Wan



ISIAS Série Phi Partie 3

Sciences des organismes vivants - Histoire de Phi - Partie 3 : la proportion d’or en musique et dans le cerveau - De la dynamique chaotique des processus naturels à la musique sublime et au traitement de l’information dans le cerveau Dr Mae-Wan Ho

Ajout d’une étude sur Tas de sable et criticalité auto-organisée

Traduction du 20 décembre 2020 par Jacques Hallard d’un Rapport de l’ISIS en date du 17/03/2014 - Une version entièrement illustrée et référencée de cet article, intitulé Golden Music of the Brain, avait été publiée est accessible en archives sur le site suivant : https://www.i-sis.org.uk/Golden_Music_of_the_Brain.php

Note du traducteur - L’auteure Dr. Mae-Wan HO précise que la notation utilisée dans les articles de cette série est la suivante : phi (minuscule) est 0,618..., tandis que Phi (lettre majuscule) est la réciproque égale à 1,618.

Pourquoi parler tout d’abord de la criticalité auto-organisée ?

Qu’est-ce qu’il pourrait y avoir de commun entre l’écoulement en cascade d’un tas de sable, les avalanches, la musique, les ondes cérébrales et d’autres choses encore ? C’est ce qui est désigné par le terme de « criticalité auto-organisé », qui avait été décrit dans un article publié en 1987 par Per Bak (1948-2002), un physicien théoricien danois qui avait co-écrit l’article académique inventant le terme « criticité auto-organisée » [1].

La criticité auto-organisée est l’une propriété des systèmes dynamiques qui se ressemblent à des échelles différentes et qui sont donc appelés autosimilaires, ou ‘à invariance d’échelle’ [2].

Cette propriété se retrouve au point critique d’une transition de phase [ou changement d’état], quand l’eau se transforme en glace, ou lorsqu’un phénomène ferromagnétique devient entièrement magnétique [ou paramagnétique].

La criticité auto-organisée est aussi une façon de comprendre les systèmes complexes qui sont rencontrés dans la nature. Elle découle de la découverte que la complexité peut être générée comme une caractéristique émergente (nouvelle et inattendue), par une extension des systèmes d’interactions locales simples.

On trouve par exemple cela dans les travaux sur les automates cellulaires présentés par le mathématicien polonais Stanislaw Marcin Ulam (1909-1984), un mathématicien polonais qui aida à développer la théorie qui permit la bombe à hydrogène, et le mathématicien américano-hongrois John von Neumann (János Lajos Neumann) (1903-1957), un physicien américano-hongrois qui avait apporté d’importantes contributions en mécanique quantique, en analyse fonctionnelle, en théorie des ensembles, en informatique, en sciences économiques et dans beaucoup d’autres domaines des mathématiques et de la physique. Il avait, de plus, participé aux programmes militaires américains.

Cette notion de criticité auto-organisée a également fait l’objet d’un grand nombre de travaux sur la géométrie fractale - structures mathématiques auto-similaires - par le mathématicien français d’origine polonaise Benoît Mandelbrot [biographie et historique de sa découverte] (1924-2010), un mathématicien polo-franco-américain. Il est le découvreur des fractales, nouvelle classe d’objets mathématiques, dont fait partie l’ensemble de Mandelbrot. Il a également travaillé sur des applications originales de la théorie de l’information, telles que la démonstration de la loi de Zipf, et sur des modèles statistiques financiers. Jugeant le modèle Black-Scholes trop simpliste — il est fondé sur une distribution normale aux variations modérées — et tenant son application pour partie responsable de la crise bancaire et financière de l’automne 2008[réf. nécessaire], il propose un modèle fondé sur les lois stables de Lévy, puis sur une approche fractale

Suite de l’article traduit

Par la suite, des recherches approfondies sur les transitions de phase, réalisées dans les années 1960 et 1970, ont montré comment les fractales à invariance d’échelle et des lois de puissance émergent au point critique. Une loi de puissance est une relation mathématique que l’on appelle aussi ‘loi de 1 /f’ (d’après le bruit électronique 1 / f des transistors), dans lequel la distribution de densité de puissance, à des fréquences différentes (de densité spectrale de puissance), est proportionnellement l’inverse de la fréquence, à savoir la formule (1) :

http://www.i-sis.org.uk/graphics/Golden_Music_of_the_Brain2.gif{{

f est la fréquence et a est un exposant compris en général entre 0 et 2. Notez que f peut être n’importe quelle quantité, et pas seulement du bruit ou une fréquence provenant d’un signal électronique. Elle pourrait s’appliquer à une taille, ou à une amplitude ou à une durée (une période de temps).

Les chercheurs Per Bak, Chao Tang et Kurt Wiesenfeld ont pu mettre toutes ces idées ensemble dans leur publication [1]. Ils ont utilisé l’analogie d’un tas de sable au bord de l’effondrement, lorsque les avalanches prennent toutes les tailles, petites et grandes, et qu’elles sont distribuées selon la loi de puissance 1 / f, de sorte que la fréquence des avalanches, à des tailles différentes, s’adaptent selon l’inverse de la taille : les petites sont plus fréquentes que les moyennes et les moyennes sont plus fréquentes que les très grosses. Un tracé log-log de ​​la fréquence en fonction de la taille, donne une droite dont la pente indique l’exposant.

Le principal résultat des auteurs de la publication (les chercheurs Bak, Tang et Wiesenfeld) était de démontrer comment la complexité observée émerge spontanément d’une manière robuste qui ne nécessite pas de réglage ou de régulation fine, comme l’effondrement d’un tas de sable par gravité, du moment qu’il est entassé sur une hauteur suffisamment haute et qu’il est assez volumineux.

Cependant, ce n’est qu’une partie de l’histoire des systèmes complexes et, à ce jour, les chercheurs se demandent si la loi de puissance 1 / f peut être vraiment applicable à des phénomènes naturels, et exactement ce que cela implique sur les mécanismes sous-jacents.

Avant de s’aventurer plus loin, voyons ce que la distribution 1 /f peut nous indiquer dans le domaine de la musique.

https://www.i-sis.org.uk/graphics/Golden_Music_of_the_Brain1.jpg

Le temps musical est de nature fractale

Pourquoi aimons-nous la musique ? L’une des raisons pour laquelle nous aimons la musique, réside dans son équilibre entre la prévisibilité et la surprise, d’après ce que nous disent les chercheurs.

Ils ont trouvé que le spectre de la ‘hauteur musicale’ (la fréquence) suit une loi de puissance de 1 / f, qui réalise cet équilibre de la prévisibilité et de la surprise, mais qu’en est-il des rythmes musicaux ?

Les rythmes musicaux, en particulier ceux de la musique classique occidentale, sont-ils très réguliers et prévisibles ? Daniel Levitin de l’Université McGilll au Canada, Parag Chordia du ‘Georgia Institute of Technology’ d’Atlanta et Vinod Menon de l’Université Stanford en Californie, aux États-Unis ont décidé de mettre cela à l’épreuve par l’analyse des spectres de rythmes à partir de 1.788 mouvements émanant de 558 compositions de musique classique occidentale [3].

Le contenu rythmique des compositions a été systématiquement mesuré en notant les durées des notes et des silences, en transformant les durées en Hz (cycles par seconde), en traçant les données et en définissant l’exposant spectral dans la pente de la courbe obtenue.

Les chercheurs ont procédé à travers les œuvres de 40 compositeurs, répartis dans 16 sous-genres, et ils ont trouvé une écrasante majorité de rythmes qui suivent une loi de puissance * 1 / fa l’exposant allant de 0,5 environ à 1, à peu près.

[* Loi de puissance – D’après Wikipédia, « En science, une loi de puissance est une relation entre deux quantités x et y qui peut s’écrire de la façon suivante :

y = ax^k

a est une constante, dite constante de proportionnalité, et k est une autre constante, dite exposant, puissance, indice ou encore degré de la loi. On observe des lois de puissance dans beaucoup de domaines scientifiques (physique, biologie, psychologie, sociologie, économie, linguistique). Elles permettent en effet de décrire tous les phénomènes qui présentent une invariance d’échelle… » Article complet sur le site : http://fr.wikipedia.org/wiki/Loi_de_puissance ].

Suite de l’article traduit

Un exposant de 0 serait un bruit blanc pur, complètement imprévisible, alors qu’un exposant de 2 et au-dessus serait très prévisible. Notamment, pour des compositeurs de musique de type classique, dont les compositions sont connues pour présenter un spectre de valeurs presque identiques de 1 / f, il a été observé des spectres de rythmes bien distincts pour 1 / f  : les rythmes de Beethoven sont étaient parmi les plus prévisibles et ceux de Mozart figurent parmi les moins prévisibles, tandis que ceux de Haydn se situent entre les deux auteurs précédents (Figure 1 ci-après).

La différence de prévisibilité rythmique est de nature à permettre d’identifier les compositeurs à partir d’une seule de leurs compositions et pour les distinguer des œuvres des autres auteurs qui furent leurs contemporains.

Figure 1 - Spectres de puissance et exposants de rythmes dans des compositions de musiques classiques occidentales selon les compositeurs

Des études antérieures, analysant les compositions classiques du 18ème au 20ème siècle, ont rapporté des structures de 1 / f presque identiques parmi les divers compositeurs, avec une fourchette très étroite de l’exposant spectral, qui se situe entre 1,79 et 1,97.

En revanche, l’exposant spectral des rythmes varie largement et systématiquement parmi les compositeurs, en s’étendant de 0,48 à 1,05. Les mêmes compositeurs appartenant à la même époque musicale classique - Beethoven, Haydn et Mozart - ont montré des spectres de rythme bien distincts.

Des fractales d’espace-temps biologiques et des multiples irrationnels pour caractériser le ’jazz quantique’

[Rappel sur les nombres irrationnels - Nous suggérons de se référer à ces sources : Histoire des nombres irrationnels – Ou bien : https://fr.wikipedia.org/wiki/Nombre_irrationnel

Ou encore : http://oer2go.org/mods/fr-wikipedia-static/content/a/nombre_irrationnel.html ].

Suite de l’article traduit

La structure du temps dans la musique classique se révèle être beaucoup plus nuancée qu’on ne le pensait. C’est d’un grand intérêt pour moi car toute cette recherche autour du nombre d’or a commencé parce que je voulais savoir comment cela pourrait être impliqué dans la structure des espaces-temps chez les organismes vivants, à savoir tout particulièrement l’espace-temps biologique quantique (par opposition au temps de l’horloge mécanique de l’univers de Newton).

Les espace-temps biologiques ont été un thème majeur de nos travaux présentés dans la publication [4] The Rainbow and the Worm, The Physics of organismes (publication ISIS) depuis sa première édition de 1993.

J’avais deviné que l’espace-temps biologique était de nature fractale, depuis que l’astrophysicien français Laurent Nottale avait proposé que l’espace-temps relativiste quantique était une fractale [5].

L’espace-temps biologique est organisé sous forme de cycles d’activité (ou oscillations) qui se déroulent à plusieurs échelles [4] : il est généralement reconnu que les rythmes biologiques omniprésents vont de quelques fractions de secondes à des durées beaucoup plus longues : des jours et même des années ; cela avait déjà également préoccupé les physiologistes et les écologistes, au moins depuis le 18ème siècle [6].

Les cycles sont couplés de telle sorte que les activités produisent un transfert d’énergie directement à ceux qui en ont besoin, avec une perte ou une dissipation minimum, et dont les directions peuvent être inversées en cas de besoin [4].

Cette structure d’espace-temps avec une invariance d’échelle est la clé de l’efficacité et de la rapidité du transfert d’énergie dans les systèmes vivants. L’énergie peut être tirée à partir de n’importe quel niveau local jusqu’au niveau global et, à l’inverse, elle peut être concentrée à n’importe quel secteur à partir de l’ensemble du système.

Dans l’idéal, le système tend vers la cohérence quantique [Voir l’article *] - un « jazz quantique’ incroyablement dynamique sur tous les espaces-temps - qui maximise à la fois la liberté locale (autonomie) et la cohésion globale. Comment cela pourrait-il être atteint ? Comment pourrions-nous avoir l’autonomie locale et être en mesure de transférer de l’énergie rapidement du local au global et vice versa  ?

[* Voir l’article « L’eau en cohérence quantique et la vie » par le Dr. Mae-Wan Ho. Traduction et complément de Jacques Hallard, dimanche 1er février 2015 – ISIS Biologie Eau. « L’eau est en cohérence quantique dans les conditions normales, conformément à la théorie des champs de l’électrodynamique quantique, qui peut expliquer beaucoup de ses propriétés les plus paradoxales, y compris la vie elle-même… « - Article complet sur le site : ’L’eau en cohérence quantique et la vie ’ par le Dr. Mae-Wan Ho traduction par Jacques Hallard, samedi 5 décembre 2015].

Suite de l’article traduit

J’ai suggéré que le seul moyen par lequel on pourrait réaliser cela, serait que les fréquences des rythmes biologiques soient des multiples irrationnels de l’un à l’autre [7] dans des conditions de défaut de l’état d’équilibre, peut-être même avec des multiples du nombre d’or. (Thermodynamics of Organisms and Sustainable Systems, Conférence de l’ISIS) [8] *

* Voir l’ouvrage ‘Thermodynamique circulaire des organismes et des systèmes durables’. Mae-Wan Ho in Systems 2013, 1 (3), 30-49 ; doi : 10.3390/systems1030030
Résumé : Une thermodynamique circulaire des organismes vivants et des systèmes durables est présentée sur la base des fermetures dynamiques qui sont réalisées dans les domaines imbriqués et réticulés d’espaces-temps : elles permettent au système d’approcher l’idéal de la production d’entropie nulle simultanément à l’équilibre et loin des conditions d’équilibre.
Mots-clés : économie circulaire de la nature, fermeture dynamique, structure espace-temps, modèle zéro-entropie, cohérence quantique, production d’entropie minimum, états d’équilibre et de non-équilibre.
L’article en anglais est disponible en téléchargement gratuit par l’accès ouvert : http://www.mdpi.com/2079-8954/1/3/30 - Article d’annonce en français sur le site http://www.isias.lautre.net/spip.php?article323 ].

Cependant, les fréquences sont suffisamment proches des multiples rationnels pour qu’elles puissent glisser vers des multiples irrationnels pour atteindre la synchronie de phase ou le verrouillage de phase, ce qui permet un transfert d’énergie par résonance ou interférence positive.

Il n’existe encore aucune preuve que les rythmes biologiques soient en général organisés en multiples irrationnels. Cependant, les fluctuations ou oscillations des potentiels de champs locaux dans le cerveau se retrouvent à des multiples approximatifs du nombre le plus irrationnel, la proportion d’or ; c’est ce qui semble essentiel dans la façon dont le cerveau traite l’information ou fait de la musique.

Les fréquences d’or du cerveau au repos

Les activités électriques des couches de surface du cerveau sont facilement enregistrées via un réseau d’électrodes sensibles positionnées sur le cuir chevelu. Cette procédure, l’électroencéphalographie (EEG), enregistre des fluctuations de la tension électrique (voltage) dans les champs locaux ou dans les potentiels de champ locaux (LFP), autour de groupes de milliers de neurones, situés à proximité de chaque électrode.

Belinda Pletzer, Hubert Kerschbaum et Wolfgang Klimesch à l’Université de Salzbourg en Autriche ont reconnu l’importance des fréquences du cerveau qui ne se synchronisent pas dans le cerveau au repos. Ils ont expliqué que si les oscillations électriques dans le cerveau sont impliquées dans la communication entre les différentes structures et réseaux, il est important pour les groupes de cellules de conserver leurs rythmes distincts sans interférences avec ceux provenant d’autres groupes, et sans interférer avec les rythmes des autres groupes. Et c’est bien cela qui est en effet réalisé par des fréquences avec des multiples irrationnels dans le cerveau au repos [9].

Le cerveau fonctionne d’une manière massivement parallèle et distribuée.

Quels processus sont responsables de la communication entre les structures cérébrales largement distribuées ? Une possibilité réside dans les oscillations. Au cours de la phase très excitable, les neurones sont très vraisemblablement sollicités (pic dans un potentiel d’action), alors que pendant la phase d’excitabilité faible, l’activité est réduite ou supprimée. En conséquence, les oscillations facilitent l’activation simultanée des cellules cibles communes et renforcent l’action par un ensemble de cellules, et elles peuvent être très importantes dans l’activation et la désactivation des processus cognitifs (en particulier dans un cerveau en cohérence quantique, voir [10] Quantum Coherence and Conscious Experience, ISIS publication scientifique).

Il est généralement admis que l’interaction fonctionnelle entre les ensembles de cellules se traduit par un couplage d’oscillatoire de plusieurs types, de synchronisation de phase et de verrouillage de phase. Cependant, il est tout aussi important d’éviter un couplage parasite qui interfèrerait avec la fonction principale. Par conséquent, les fréquences de l’état de repos par défaut doivent être disposées de façon à ne jamais se synchroniser. La meilleure façon d’y parvenir est d’avoir des fréquences qui sont des multiples irrationnels : la proportion d’or qui est le plus irrationnel des nombres irrationnels (voir [11 The Story ofPhi, SiS 62) *.

[* Version en français : « Histoire de Phi - Partie 1 : Les mathématiques » par le Dr Mae-Wan Ho. Traduction et complément de Jacques Hallard, samedi 4 avril 2015 - ISIS Sciences des organismes vivants - Histoire de Phi - Partie 1 : Les mathématiques. « Une non-mathématicienne décrit son initiation aux secrets du nombre d’or magique situé au cœur des mathématiques, et la façon dont ce nombre se retrouve dans le monde physique et dans le vivant ». Article complet sur le site : ’Sciences des organismes vivants - Histoire de Phi - Partie 1 : Les mathématiques’ par la Dr Mae-Wan Ho -

Suite de l’article traduit

Pour prouver leur point de vue, Pletzer et ses collègues ont réunis, sous forme de tableau, les fréquences typiques de l’électroencéphalogramme (EEG) dans les enregistrements effectués la plupart du temps lorsque les sujets sont dans un état de « repos », c’est-à-dire non engagés dans des tâches de traitement mental (tableau 1 à consulter dans l’article original : Golden Music of the Brain - The Institute of Science In Society).

Les bandes de fréquences classiques de l’EEG peuvent en effet être décrites comme une série géométrique avec un rapport entre les fréquences voisines qui se situe à F = 1,618 approximativement. Non seulement le rapport entre les fréquences maximales voisines se rapprochent de la proportion d’or, mais les fréquences successives sont la somme des deux précédents, ce qui est une approximation de la suite de Fibonacci (voir [11] pour la relation entre F et la suite de Fibonacci).

La synchronisation des phases d’excitation des deux excitateurs d’oscillations est impossible. Ainsi, la proportion d’or donne un état de traitement parfaitement non couplé (mais cohérent), ce qui reflète probablement le cerveau au repos.

Cependant, les phases d’excitation des deux oscillations sont parfois assez proches pour coïncider. Plus ces coïncidences sont fréquentes, plus élevées sont les fréquences de f1 et f2. Ainsi, au moins intuitivement, on peut voir que la proportion d’or fournit l’état désynchronisé le plus élevé qui est physiologiquement possible et ceci dans le même temps, de sorte que le potentiel de couplage et de découplage est diversifié et spontané entre les rythmes, ainsi qu’une transition rapide du passage de l’état de repos à l’activité. Ceci est confirmé par les résultats d’autres laboratoires.

La musique d’or du cerveau

Dietmar Plenz à l’Institut national de la santé mentale des États-Unis [Critical Brain Dynamics, Laboratory of Systems Neuroscience], a identifié des « avalanches neuronales » - des cascades d’activités neuronales qui suivent des lois de puissance 1 / f précises - dans les neurones excitateurs des couches superficielles à partir de préparations de néocortex isolées in vitro, ainsi que chez les animaux éveillés et chez les êtres humains in vivo [12].

Le néocortex des mammifères est un feuillet de 6 couches pliées à l’intérieur du crâne. Les entrées dans le cortex se situent sur la couche IV, tandis que les sorties, vers l’extérieur des structures cérébrales du cortex, sont fournies par les neurones dans les couches profondes V et VI. Les couches superficielles II et III sont seulement des lieux où les neurones corticaux communiquent entre eux, tandis que la couche I est principalement composée de faisceaux de fibres qui supportent la communication intra-corticale.

Une combinaison d’expériences, de théories et de modélisations a montré que l’avalanche neuronale de l’état au repos par défaut, avec la signature 1 / f de « criticalité auto-organisé », donne une réponse optimale aux entrées, ainsi qu’une capacité maximum d’informations.

Le plus intéressant est que la dynamique des avalanches donne lieu à des potentiels de cohérence, des sous-ensembles d’avalanches dans lesquels la forme d’onde précise, provenant du potentiel de champ local, est répliquée avec une grande fidélité dans des sites éloignés du réseau.

Le processus est indépendant de la distance spatiale et il comprend des activités neuronales instantanées proches, ainsi que des activités séquentielles sur plusieurs échelles de temps. La plupart des potentiels de cohérence sont spatialement disjoints, c’est-à-dire qu’ils ne respectent pas les relations de voisinage les plus proches.

Les potentiels de champ locaux, des potentiels de cohérence successifs, ne sont pas tout à fait similaires, mais ils sont pratiquement identiques dans un potentiel de cohérence donné parmi tous les sites participants, et il n’y a pas de croissance ni de dissipation lors de la propagation.

Curieusement, cela donne à penser que la forme d’onde d’un potentiel de cohérence est un espace de codage de grande dimension lors des processus de traitement des informations dans le cerveau. Pendant des décennies, l’activité neuronale à verrouillage de phase a été enregistrée de façon fiable en utilisant les potentiels de champ locaux et l’électroencéphalographie et cette activité s’est révélée en corrélation avec la présentation du stimulus chez les animaux et avec la perception visuelle chez les êtres humains.

Une autre équipe de chercheurs, dirigée par Miles Whittington à l’Université de Newcastle au Royaume-Uni, a commencé à révéler les subtilités de la musique d’or du cerveau par l’enregistrement à partir de plusieurs couches du néocortex simultanément. Ils ont trouvé plusieurs circuits neuronaux locaux d’appui à différentes fréquences discrètes dans le réseau de néocortex ; par ailleurs, les relations entre les différentes fréquences apparaissent conçues pour minimiser les interférences, d’une part, et pour permettre le couplage d’activités diverses par l’intermédiaire d’interactions de phase stables et le contrôle de l’amplitude d’une fréquence par rapport à la phase de l’autre, d’autre part [13].

Il existe même une transformation qui combine les oscillations de deux fréquences voisines de façon séquentielle pour générer une troisième fréquence, dont la période est la somme des deux fréquences originales concaténées. Avec une telle interaction, la périodicité intrinsèque dans chaque circuit local la composant est préservée : de simples périodes suppléantes de chaque rythme original forment une période d’une nouvelle fréquence, ce qui suggère un mécanisme robuste pour combiner les informations traitées sur plusieurs échelles spatio-temporelles simultanées afin de générer ce qui doit être le jazz quantique d’or le plus étonnant.

Le modèle 1 / f de l’électroencéphalogramme (EEG) est vraiment une collection de moyennes lissées avec une moyenne temporelle de multiples fréquences discrètes, et il ne représente pas toutes les fréquences et les combinaisons de fréquences qui sont présentes dans le cerveau. (C’est comme un enregistrement d’une symphonie de Mozart qui donne les moyennes de tous les sons émis dans les périodes de temps discrètes, de sorte que la musique est complètement ‘enterrée’.)

Des observations détaillées, faites par l’équipe de chercheurs, ont montré qu’au moins trois fréquences discrètes : d (1-3 Hz), q (6-9 Hz) et g (30 à 50 Hz) sont souvent exprimées simultanément et qu’elles peuvent être associées à des rythmes ultérieurs beaucoup plus lents, aussi bien in vivo qu’ in vitro.

Des fréquences discrètes g, allant de faibles à élevées, peuvent être produites à partir d’une seule zone du néocortex isolé in vitro, avec des fréquences de pointe réparties selon la proportion d’or. Toutes les tentatives pour générer des fréquences uniques ont échoué, et le phénomène a fait référence à une transformation spectrale.

Pour maintenir simultanément les fréquences qui se produisent à part, et minimiser les interférences, la solution est d’avoir des rapports de fréquences qui sont des nombres irrationnels.

Par exemple, la coexistence des rythmes g 1 et b 2, est générée dans deux couches différentes et ces rythmes survivent par la séparation physique des couches du cortex. Le rapport des fréquences de crête est d’environ F, d’où il résulte un changement de motif périodique dans un synchronisme de bas niveau entre les couches, avec une période égale à la somme des deux périodes d’oscillations présentes.

Ce phénomène peut se produire dans une certaine mesure avec n’importe quelle paire de fréquences co-exprimées. Mais l’utilisation de F comme un rapport commun entre les fréquences adjacentes dans le spectre d’EEG, permet que le néocortex s’exprime dans l’espace de fréquence disponible (en maximisant ainsi la capacité de traitement de l’information, ou la capacité de produire le plus de musique). Si le cortex utilise des bandes de fréquences pour traiter différents aspects de l’information entrante, alors il doit également y avoir la possibilité de combiner les informations contenues dans ces bandes pour reconstruire l’entrée, d’où l’importance de les garder séparées, comme le fait la proportion d’or.

La synchronie de phase se produit bel et bien et elle a été vue dans les enregistrements effectués avec la technique MEG (magnétoencéphalographie utilisant un arrangement de magnétomètres avec un dispositif d’interférence ou brouillage super-quantique très sensible (SQUID)), lorsque les rapports de fréquence sont des valeurs entières. Les relations de phase entre les fréquences stables avec des ratios de 2, 3 et 4 sont visibles lors de tâches de calcul mental dans des régions localisées du néocortex, et le phénomène a également été proposé pour être impliqué dans l’appariement de la mémoire et de l’attention.

La forme la plus facilement observable de l’interaction croisée entre fréquences est celle de « nidification ». Ici, l’amplitude (puissance) d’une bande de fréquence discrète est modifiée en fonction de la phase d’un rythme coexistant de fréquence inférieure. Cela se voit quand des rythmes g coexistent avec des fréquences q dans l’hippocampe. Des hiérarchies de rythmes imbriqués sont également observées. L’imbrication de rythmes d, q et g existe à la fois dans l’hippocampe et dans le néocortex. Cet agencement assure que les hautes fréquences successives sont exprimées au maximum d’une manière dépendant des fréquences les plus basses dans la hiérarchie et ne signifie pas en soi des relations de phases précises, donc des interrelations de phase stables peuvent être maintenues.

Il est également possible qu’un circuit local générant un rythme de fréquence simple puisse changer de fréquence. Ces changements sont facilités par une série de mécanismes, y compris des changements dans des conductances intrinsèques neuronales et des interactions non réciproques avec d’autres régions oscillant à une fréquence similaire. Après stimulation, les fréquences g peuvent transformer les fréquences b (environ de moitié) dues à des potentiels post-synaptiques inhibiteurs sur les cellules principales qui génèrent des potentiels d’action.

Un autre type d’interaction, la concaténation, implique une fréquence g engendrée par une couche superficielle qui interagit avec un fréquence b 2 dans une couche plus profonde, se combinant en une nouvelle fréquence b 1, mais les fréquences d’origine intrinsèques sont préservées dans des périodes simples et alternées ; les périodes individuelles de chaque rythme original forment une période d’une nouvelle fréquence. La concaténation est possible pour n’importe quelle paire donnée de rythmes.

Ces interactions entre les différentes échelles spatio-temporelles de l’activité peuvent-t-elles nous dire quelque chose sur la façon dont le cortex traite l’information sensorielle ?

Dans le domaine temporel, la capacité d’un système à trier des caractéristiques qui se modifient rapidement, de caractéristiques qui changent beaucoup plus lentement, fournit un moyen efficace de reconnaître des objets. Un arrangement hiérarchique de détection de caractéristiques, sur une gamme d’échelles temporelles, peut reproduire de nombreuses propriétés des neurones individuels dans le cortex visuel.

Ainsi, d’un point de vue computationnel, il y a un avantage pour le cortex à traiter séparément les différentes échelles temporelles des informations, en utilisant des fréquences différentes. Il a été démontré que les rythmes avec des échelles temporelles plus grandes (fréquences plus lentes) facilitent les interactions sur de plus grandes distances dans les réseaux corticaux, c’est-à-dire qu’ils peuvent synchroniser sur de plus grandes zones de la carte visuelle dans la rétine des yeux.

Ainsi, des fréquences différentes peuvent avoir un rôle pour le traitement de l’information sensorielle à différentes échelles spatiales. Dans une tâche visuelle conçue pour tester le décalage de perception des caractéristiques d’un objet avec une faible fréquence spatiale, par rapport à celles à haute fréquence spatiale, une corrélation directe a été observée entre l’échelle spatiale de l’objet sensoriel et l’échelle temporelle (fréquence) des rythmes corticaux associés.

Donc, la synchronisation de phase des fréquences croisées est un moyen possible de combiner des informations provenant de différents canaux de fréquence pour représenter pleinement un objet sensoriel.

Golden_Music_of_the_Brain_170

Références

  • Bak P, Tang C and Wiesenfeld K. Self-organized criticality : an explanation of 1/f noise. Phys Rev Lett 1987, 59, 381-4.
  • Self-organized criticality, Wikipedia, 5 November 2013, http://en.wikipedia.org/wiki/Self-organized_criticality
  • Levitin DJ, Chordia P and Menon V. Musical rhythm spectra from Bach to Joplin obey a 1/f power law. PNAS 2012, 109, 3716-20.
  • Ho MW. The Rainbow and the Worm, the Physics of Organisms, World Scientific, Singapore, London, 1st ed. 1993 ; 2nd ed. 1998 ; 3rd ed. 2008.
  • Nottale L. Scale Relativity and Fractal Space-Time : A New Approach to Unifying Relativity and Quantum Mechanics, World Scientific, Singapore, 2011.
  • Chronobiology, Wikipedia, 12 December 2013, http://en.wikipedia.org/wiki/Chronobiology#History
  • Ho MW. Thermodynamics of organisms and sustainable systems. Invited lecture on conference on Environment, Agriculture, Food, Health and Economy, World Food Day, 17 October 2006, La Sapienza University, Rome, Italy. https://www.i-sis.org.uk/ThermodynamicsOfOrganisms.php
  • Ho MW. Circular thermodynamics of organisms and sustainable systems. Systems 2013, 1, 30-49 (open access). http://www.mdpi.com/2079-8954/1/3/30
  • Pletzer B, Kerschbaum H and Kliesch W. When frequencies never synchronize : the golden mean and the resting EEG. Brain Research 2010, 1335, 91-102.
  • Ho MW. Quantum coherence and conscious experience. Kybernetes 1997, 26, 265-76. https://www.i-sis.org.uk/brainde.php
  • Ho MW. Story of phi part 1. Science in Society 62.
  • Plenz D. Neuronal avalanches and coherence potentials. Eur Phy J Special Topics 2012, 205, 259-301.
  • Roopun RK, Kramer MA, Carracedo LM, Kaiser M, Davies CH, Traub RD, Kopell NJ and Whittingon MA. Temporal interactions between cortical rhythms. Frontiers in Neuroscience 2008, doi:10.3389/neuro.01.034.2008
    search | sitemap | contactb - © 1999 - 2020 i-sis.org.uk

Retour au début de l‘article traduit

Ajout


Tas de sable et criticalité auto-organisée

Auteurs : Jean-René Chazottes, Marc Monticelli- Mardi 24 septembre 2013 – Document ‘espace-turing.fr’ / CNRS

Avant-propos : L’objet de cet article est de présenter le modèle emblématique de la théorie de la « criticalité auto-organisée » dont le but est de rendre compte du comportement de nombreux systèmes complexes.

Ce modèle, inspiré des tas de sable, a été proposé en 1987 par les physiciens Bak, Tang et Wiesenfeld. Nous verrons le contraste saisissant entre le caractère élémentaire de ses règles d’évolution et les structures que celles-ci peuvent engendrer.
Nous proposons au lecteur d’expérimenter lui-même certains aspects de ce modèle grâce à une simulation numérique interactive.

D’un point de vue mathématique, ce modèle possède de fascinantes propriétés algébriques et probabilistes largement incomprises à ce jour ; nous conclurons cet article par quelques problèmes ouverts.

Prélude : le tas de sable de Per Bak

En 1987, le physicien danois Per Bak propose une approche originale pour essayer de comprendre toute une classe de systèmes dont l’archétype est la dynamique des tas de sable. Imaginons une expérience qui consiste à ajouter régulièrement des grains à un tas de sable situé sur un plateau circulaire. Petit à petit, le tas grossit et sa pente augmente jusqu’au moment où l’ajout d’un grain supplémentaire provoque une avalanche effondrant partiellement le tas. On continue d’ajouter des grains jusqu’à la prochaine avalanche. Il est pratiquement impossible de prédire si l’ajout d’un grain produira quelques éboulements ou bien une avalanche.

Vidéo d’une expérience avec du vrai sable : voir à la source

« Criticalité auto-organisée » : késako ?

A partir de cet exemple, Bak dégage le concept de « criticalité auto-organisée » [1] pour décrire de façon unifiée les systèmes possédant un seuil de stabilité intrinsèque autour duquel ils tendent spontanément à se maintenir. Tant que l’on fournit de la matière, le système va évoluer de telle sorte qu’il se rapproche de son seuil de stabilité ; dès que ce seuil est dépassé, le système relaxe rapidement pour se retrouver dans un état provisoirement stable jusqu’à la prochaine « avalanche », à l’instar du tas de sable.

Dans son livre [Bak-1996], Bak développe hardiment ses idées pour les appliquer à de nombreux systèmes complexes comme, par exemple, les tremblements de terre, les embouteillages routiers, les krachs boursiers, les extinctions massives dans l’évolution des espèces, la percolation d’invasion, la géométrie des soudures, les décharges neuronales, les réseaux urbains, etc. Récemment, on a mis en évidence un comportement critique auto-organisé pour de grands groupes d’Étourneaux sansonnets. On peut consulter un article sur ce sujet ici et y visionner un film spectaculaire.

Le point clé de la criticalité auto-organisée est qu’une même perturbation (l’ajout d’un grain de sable par ex.) peut avoir des effets minimes (locaux) ou bien des effets à grande échelle. Plus précisément, la probabilité pour que des avalanches de grande taille ait lieu est suffisamment élevée pour que les avalanches n’aient pas de taille moyenne définie, c’est-à-dire, pas de taille caractéristique autour de laquelle les tailles d’avalanches fluctueraient de façon normale [2]. Mathématiquement, on parle de lois de puissance. De telles lois quantifient la présence de corrélations à très longue portée dans le système.

C’est en fait en physique statistique que de telles lois ont été d’abord observées : par exemple, un matériau ferromagnétique est aimanté à suffisamment basse température tandis qu’il perd son aimantation dès qu’une température critique est dépassée. C’est l’exemple emblématique de ce qu’on appelle une « transition de phase ». Quand la température vaut exactement la valeur critique, tous les éléments (« spins ») du matériau s’influencent mutuellement. Les physiciens parlent de « phénomènes critiques ».

Le ferromagnétisme qu’on observe dans la nature est un phénomène extrêmement compliqué à décrire mathématiquement. Les physiciens se sont donc résignés à introduire un modèle ultra-simplifié mais néanmoins capable de capturer l’essence de cette transition de phase. Il s’agit du modèle d’Ising [3] pour lequel on est effectivement capable de démontrer (en dimension deux) la criticalité pour la température critique.

En savoir plus sur la criticalité dans le modèle d’Ising

Dans le cas du modèle d’Ising et de nombreux autres modèles de Physique Statistique, le point est qu’il faut un expérimentateur attentionné qui ajuste le bon paramètre à la bonne valeur pour mettre le système dans son état critique. Jusqu’au début des années 1980, on pensait que les phénomènes critiques étaient en effet des phénomènes qui n’apparaissent que dans des circonstances exceptionnelles, contrôlées par un paramètre extérieur.
Le but de Bak, Tang et Wiesenfeld dans leur article fondateur [BTW-1987] était de proposer le modèle le plus simple possible capable de se placer, sans paramètre d’ajustement, dans une phase critique [7]. C’est ce modèle, appelé « tas de sable abélien » [8] ou modèle de Bak-Tang-Wiesenfeld, que nous allons maintenant décrire et partiellement explorer.

Le modèle du tas de sable abélien

Mécanisme de base. Imaginons un quadrillage de 3×3 cases. Dans chaque case, nous pouvons empiler des « grains » avec une capacité maximale de trois grains. S’il y a quatre grains dans une case donnée, un éboulement se produit : la case se vide de ses quatre grains qui sont envoyés dans les quatre cases voisines, un par case.
Que se passe-t-il au bord ? Un des grains est définitivement perdu, ou deux s’il s’agit d’une case située dans l’un des coins.

Un exemple d’avalanche sur un quadrillage 5×5

Le lecteur se doute qu’un éboulement peut déclencher de nouveaux éboulements de proche en proche : une avalanche peut ainsi se produire. Le fait que des grains disparaissent quand l’avalanche atteint le bord du quadrillage (en supposant qu’elle y parvienne) assure que ce processus finisse par s’arrêter. On atteint ainsi une configuration stable dans le sens que chaque case contient au maximum trois grains.
Voici un exemple concret :

PNG - 12.9 ko

Une question se pose : quel rôle joue l’ordre dans lequel on procède aux éboulements ? En effet, à un instant donné, plusieurs cases peuvent être instables et il faut bien choisir un ordre dans lequel opérer les éboulements. On peut démontrer que la configuration finale ne dépend pas de l’ordre des éboulements : les éboulements « commutent » entre eux ! (C’est de là que vient le qualificatif « abélien » du modèle.)

Expérience Numérique Interactive

Mode d’emploi

Cliquez sur une case pour rajouter un grain. Pour rajouter une « source » de grains, appuyez un court instant sur une case de la grille jusqu’à ce qu’elle apparaisse en vert. Puis appuyez sur « Activer les sources » pour lancer la simulation. Clickez sur une source pour la supprimer. Pour tester si une configuration est récurrente, cliquez sur « Test de combustion ». La configuration est récurrente lorsque toutes les cases sont « brûlées » (apparaissent en rouge). En cas de problème avec cette expérience, rechargez la page. Expérience numérique interactive disponible sur experiences.math.cnrs.fr

Exemple de configuration remarquable.
Prenons un quadrillage d’environ 600×600 cases [9] et plaçons deux grains dans chaque case. Voici la configuration stable qu’on obtient après l’ajout de 150000 grains au centre du quadrillage :

PNG - 234.6 ko

Nous verrons d’autres configurations remarquables dans la suite de l’article.

Le tas de sable abélien vu comme une chaîne de Markov

L’algorithme de « combustion » ou comment tester si une configuration est récurrente

Il semble a priori difficile de déterminer si une configuration est récurrente ou non. Mais D. Dhar a trouvé un algorithme simple pour le déterminer. Cet algorithme équivaut à tester si la configuration donnée contient des sous-configurations dites « interdites ». Le lecteur peut deviner qu’il existe en effet des sous-configurations qui ne vont jamais être créées par additions de grains et relaxations, à moins qu’elles ne soient présentes dans la configuration initiale. Voici quelques exemples :

PNG - 3.7 ko

Exemples de sous-configurations impossibles dans une configuration récurrente

Il est possible de démontrer qu’une configuration est récurrente si et seulement si elle ne contient aucune configuration interdite.

L’algorithme de combustion est le suivant :
On choisit arbitrairement une case qu’on « brûle » si le nombre de grains qu’elle contient est supérieur ou égal au nombre de ses voisins non brûlés.

Une case qui se trouve dans un coin a deux voisins. Une case qui se trouve au bord mais pas dans un coin en a trois et une case qui n’est pas sur le bord en a quatre.
On peut commencer par tester les cases du bord puis continuer récursivement vers le centre du quadrillage.

PNG - 7.1 ko

Exemple de test de combustion

PNG - 4.3 ko

Exemples de configurations récurrentes

On peut démontrer qu’une configuration est récurrente si et seulement si on peut brûler toutes les cases. La simulation ci-dessus permet d’appliquer l’algorithme de combustion.
Demandez d’afficher le test de combustion, et essayez de trouver une configuration récurrente. Quand une case peut être « brulée » elle apparaît en vert. Commencez par une grille 3x3, puis augmentez la taille de la grille.

Additionner des configurations récurrentes définit un groupe abélien

On peut empiler deux configurations stables en ajoutant case à case le nombre de grains. Bien sûr, des avalanches sont à prévoir, donc l’opération d’addition qu’on veut définir comporte la phase de relaxation vers une configuration stable. Notons ⊕cette opération. Comme le lecteur peut s’en douter, l’ensemble des configurations récurrentes est le bon ensemble de configurations sur lequel définir ⊕ [12]. Qui dit groupe, dit élément identité, c-à-d une configuration particulière qui, ajoutée à toute configuration récurrente au sens de ⊕, laisse la configuration invariable.
La question qui se pose immédiatement est la suivante :

Comment calculer l’identité du groupe ?

Un peu de travail montre qu’on peut l’obtenir avec l’algorithme suivant : on part du quadrillage sans aucun grain puis on ajoute un grain dans chaque case qui se trouve sur le bord, excepté les quatre cases qui forment les coins auxquelles on ajoute deux grains.
On continue d’ajouter cette configuration spéciale (en laissant bien sûr le système relaxer entre chaque addition) jusqu’à ce qu’on obtienne une configuration qui n’évolue plus. Voici ce que l’on obtient avec la simulation ci-dessus pour différentes tailles du quadrillage :

PNG - 69 ko

Identité du groupe pour différentes tailles du quadrillage

Quelques résultats mathématiques et problèmes ouverts

Notre but est de donner au lecteur une idée des questions que se posent les mathématiciens sur ce modèle. Nombreuses sont celles
qui demeurent complètement ouvertes à ce jour, certaines pouvant sembler très basiques. Nous n’en mentionnons qu’un petit échantillon.

Avant de les aborder, observons qu’il y a deux paramètres dans le modèle :
la taille du quadrillage et sa dimension.
Nous avons décrit le modèle en dimension deux, sur un réseau carré identifié à Z2

[13], mais il est possible de le formuler en dimension d quelconque, c’est-à-dire sur le réseau hypercubique Zd.

Faire tendre la taille du réseau vers l’infini, c-à-d considérer le système en volume infini, est une démarche naturelle pour le mathématicien et le physicien théoricien qui veulent se débarrasser des « effets de bord ». En effet, l’étendue d’une avalanche va être limitée par le bord du système. C’est donc seulement en volume infini que chercher à démontrer une distribution de la taille des avalanches en loi de puissance a un sens.

Loi de probabilité stationnaire en volume infini et criticalité

Il y a une loi de probabilité très simple dont le support est l’ensemble des configurations récurrentes : celle qui donne un poids identique à chaque case, indépendamment du nombre de grains qu’elle contient [14]. Cette loi de probabilité est en fait l’unique mesure de probabilité stationnaire pour le système [15]. Notons-la μN puisqu’elle dépend de la taille du système (dont le volume est Nd). On peut démontrer que si N→∞, μN tend vers une mesure de probabilité μ, ce qui donne un sens à l’expression « tirer une configuration infinie selon μ  ».

Pour d=2, on peut par exemple calculer exactement la probabilité qu’une configuration contienne un seul grain dans la case (0,0) : elle vaut 2π2(1−2π).

On sait également démontrer que certaines fonctions de corrélations suivent des lois de puissance, mais seulement lorsque d≥3

[16]. Il y a donc des corrélations à longue portée dans le système. Le cas d=2 n’a pas été mathématiquement traité à ce jour.

Une question naturelle concerne la finitude des avalanches. Prenons une configuration typique du système, en volume infini, et ajoutons un grain à l’origine. Une avalanche peut se produire. Si elle se produit, est-elle de taille finie ? A l’heure actuelle, on sait démontrer qu’une avalanche est finie avec probabilité un mais seulement lorsque d≥3. . Le cas d=2 reste ouvert.

Une question plus précise concernant les avalanches est la distribution de leurs rayons. Les simulations numériques montrent que cette distribution suit une loi de puissance. Le seul résultat qui va dans ce sens se trouve dans un article récent [Jarai-Redig-Saada-2011] : si d≥3, la probabilité en volume infini qu’une avalanche ait un rayon plus grand que r est comprise entre c1/rd et c2/rd−2, où c1,c2 sont deux constantes positives. Rien n’est démontré à ce jour pour d=2

Forme limite et fractalité

On peut observer que si on dépose M grains au centre d’une configuration initiale homogène, la configuration finale sera sur un quadrillage de N×N cases, avec N proportionnel à M−−√ sans qu’aucun grain ne soit perdu à cause du bord.
Si nous voulons ajouter 1000 grains, il faudra donc un quadrillage d’environ 30×30 cases. Si nous voulons ajouter 10000 grains, un quadrillage d’environ 100×100 cases sera nécessaire. Et ainsi de suite.

Si on divise à chaque fois le côté du quadrillage par la racine carrée du nombre de grains qu’on a ajoutés, cela revient à garder la taille du système constante et à prendre des cases de plus en plus petites qui vont devenir quasiment des points lorsque le nombre de grains ajoutés est très grand. La question est : obtient-on une forme limite par ce processus ? Voici par exemple ce qui se passe si on part de la configuration homogène avec 0 grain par case et qu’on ajoute de plus en plus de grains :

PNG - 363.6 ko

Configurations obtenues après l’ajout de 1000, 10 000, 100 000 et 1 000 000 grains à l’origine

PNG - 404.7 ko

Configuration obtenue après l’ajout d’environ 1 milliard de grains à l’origine.

Il semble qu’une forme limite émerge et qu’elle soit fractale.
A l’heure actuelle, personne n’est en mesure de démontrer quoi que ce soit dans ce sens, à part l’existence de la limite dont l’énoncé est trop technique pour être donné ici. Le lecteur peut consulter l’article [Pegden-Smart-2012].

Mentionnons enfin que le modèle du tas de sable abélien peut être défini sur d’autres graphes que Z2

. On peut par exemple prendre un réseau triangulaire [17]. En fait, le modèle peut être défini sur un graphe connexe arbitraire dans lequel un sommet est considéré comme un « puits », à savoir que tout grain qui arrive sur ce sommet disparaît du système.

Bibliographie (commentée)

[Bak-1996]

P. Bak. Quand la nature s’organise ; avalanches, tremblements de terre et autres cataclysmes. Flamarion, 1999. Trad. de « How Nature Works : The Science of Self-Organized Criticality ». New York : Copernicus (1996). Livre grand public stimulant.

[BTW-1987]

P. Bak, C. Tang and K. Wiesenfeld. Self-organized criticality : an explanation of 1/ƒ noise. Physical Review Letters 59 (1987) 381-384. Disponible librement ici. C’est l’article où le modèle présenté dans cet article a été introduit.

[Dhar-2006]

D. Dhar. Theoretical studies of self-organized criticality. Physica A : Statistical Mechanics and its Applications, 369 (2006) p. 29-70. Disponible librement ici C’est un article de synthèse qui présente divers modèles de criticalité auto-organisée, notamment le tas de sable abélien. L’auteur est le premier à l’avoir étudié rigoureusement. Il a eu de nombreuses idées fondamentales pour la suite.

[Jarai-Redig-Saada-2011]

A. Jarai, F. Redig, E. Saada. Zero dissipation limit in the abelian avalanche model.
Disponible ici. Article de recherche, le premier à démontrer des bornes compatibles avec une loi de puissance pour la distribution de la taille des avalanches en dimension trois et plus.

[Pegden-Smart-2012]

W. Pegden, C. Smart. Convergence of the Abelian sandpile (2012). Disponible ici.
Article de recherche.

[Redig-2006]

F. Redig. Mathematical aspects of the abelian sandpile model. Mathematical statistical physics, 657–729, Elsevier (2006). Disponible librement ici.
Article de synthèse qui donne l’état de l’art en 2006. Il contient les
preuves détaillées de tous les résultats de base mentionnés dans notre article.

[Sornette-2004]

D. Sornette. Critical Phenomena in Natural Sciences. Springer (2004).
Ce livre est remarquable par le panorama qu’il offre. Il ne s’agit pas d’un livre de mathématique mais de physique théorique.

Notes

[1] En anglais, cela donne « Self-Organized Criticality » ou SOC en abrégé.

[2] Nous voulons dire en adéquation avec le théorème central limite.

[3] introduit en fait par Wilhelm Lenz, directeur de thèse de Ernst Ising

[4] En dimension un, il n’y pas de transition de phase pour le modèle d’Ising. Ce n’est qu’à partir de la dimension deux que c’est possible. Nous aurions pu discuter le modèle d’Ising en dimension trois mais il est beaucoup plus compliqué qu’en dimension deux et cela n’apporte rien à ce que nous voulons souligner ici.

[5] Dans un système d’unités normalisé, Tc=2ln(1+2√)

[6] Consulter par exemple cet article de Scholarpedia.

[7] Insistons sur le fait que leur but n’était pas de modéliser un vrai tas de sable.

[8] « abelian sandpile model » en anglais.

[9] Nous avons limité la taille maximum du quadrillage de l’expérience numérique de cet article pour des raisons de temps de calcul.

[10] c-à-d que toute case a une probabilité 1/N2 d’être tirée.

[11] On peut également démontrer qu’il y a une unique probabilité stationnaire dont le support est l’ensemble des configurations récurrentes : on donne un poids égal à chaque case puis on normalise par la cardinalité de cet ensemble, qui est égale au déterminant du laplacien discret, avec condition au bord libre, qui vaut approximativement 3,21N (alors qu’il y a 4N configurations stables en tout).

[12] Pour le lecteur initié, nous avons en fait défini une marche aléatoire sur le groupe formé des configurations récurrentes et de l’addition ⊕.

[13] Mathématiquement, le modèle est défini sur les sommets de Z2 vu comme un graphe. Pour des raisons évidentes de visualisation, chaque sommet est au centre d’une case. Ainsi, quand on dit par exemple qu’on ajoute un grain à l’origine, on veut dire qu’on ajoute un grain dans la case centrée sur (0,0).

[14] rappelons que l’ensemble des configurations récurrentes est un sous-ensemble des configurations stables, c-à-d des configurations pour lesquelles il y a au plus trois grains par case.

[15] Elle est en fait ergodique et même ‘mélangeante’.

[16] Pour être précis :

limN→∞μN(un grain à l’origine,un grain dans la casei)−μN(un grain à l’origine)2≃1|i|2d

o\`u i∈Zd et |i|=i21+i22+⋯+i2d−√ (la notation akbk signifie que ak/bk→1 quand k→∞).

[17] Le lecteur peut visiter la galerie de W. Pedgen pour voir divers exemples.

 RSS 2.0 | Plan du site | Espace privé |

SPIP| squelette| Contact site : marc.monticelli [at] unice [point] fr

A propos de l’Espace-Turing | Partenaires | Nous contacter - Accueil> Actualité & Articles - Source : http://www. /Tas-de-sable-et-criticalite-auto.html

La criticité auto-organisée observée expérimentalement pour la première fois - 16/01/2020 – Document ‘recherche.unistra.fr’

Avalanches, propagation des incendies ou des maladies… des systèmes complexes trouvés dans la nature en apparence très différents peuvent présenter des propriétés similaires qui intriguent les scientifiques.

Problème : ces systèmes sont difficiles à étudier dans des conditions expérimentales contrôlées. Pour la première fois, des chercheurs du Centre européen de sciences quantiques (CESQ) de Strasbourg, en collaboration avec les Universités de Heidelberg, de Cologne et du California Institute of Technology, sont parvenus à observer les trois signatures clés de ce comportement. La découverte a fait l’objet d’une publication dans la revue Nature.

http://www.recherche.unistra.fr/fileadmin/_processed_/c/4/csm_Shannon_Whitlock_8bbe0b8499.jpg

Tobias Wintermantel et Shannon Whitlock utilisent des lasers pour exciter les atomes.
Photo MR

Shannon Whitlock et une équipe de six personnes travaillent sur un gaz d’atomes de potassium qu’ils préparent à des températures très basses, proches du zéro absolu. « Un état plus facile à contrôler et approprié pour étudier les propriétés quantiques fondamentales des atomes », souligne le chercheur du CESQ de l’Institut de science et d’ingénierie supramoléculaires (Isis).

En utilisant des lasers pour exciter les atomes, ils peuvent influencer les interactions entre ces derniers. « Lorsque les atomes sont excités, ils peuvent soit créer de nouvelles excitations secondaires, soit se désexciter spontanément et s’échapper du piège », explique Tobias Wintermantel, doctorant dans l’équipe de Shannon Whitlock. Cette fuite de particules est d’ordinaire considérée comme un problème. Mais dans ce cas, cela a influencé l’évolution du gaz d’une manière qui intrigue les chercheurs.

Des phénomènes observés dans la nature

« Lorsque le laser est allumé, de nombreuses particules s’échappent rapidement puis leur nombre se stabilise, toujours à la même valeur. » Autre constat : le nombre de particules restantes dépend de l’intensité du laser de manière universelle, c’est-à-dire caractérisée par un seul paramètre. « En comparant nos résultats expérimentaux avec un modèle théorique, nous avons pu établir que ces deux effets ont la même origine sous-jacente », détaille Shannon Whitlock qui précise qu’ils sont caractéristiques de la « Self-organized criticality » ou criticité auto-organisée.

« Selon ce phénomène, théorisé par Bak, Tang et Wiesenfeld en 1987, certains systèmes peuvent évoluer d’eux-mêmes jusqu’à leur point critique de transition de phase. » Jusqu’à présent, le concept n’avait pas été expérimenté dans un système physique aussi hautement contrôlable.

http://www.recherche.unistra.fr/fileadmin/_processed_/1/2/csm_graphic_cf6e70ee3d.jpg

Gaz atomique ultrafroid qui, lorsqu’il est excité par un laser, s’auto-organise jusqu’à un état critique. ©Laboratoire de matière quantique exotique

Vers de nouvelles technologies quantiques

Suite à leur expérience, les chercheurs sont retournés en laboratoire pour confirmer une troisième caractéristique, la plus frappante du phénomène : les avalanches d’excitation suivant une loi de puissance. Des caractéristiques similaires ont été observées dans d’autres systèmes tels que les avalanches, les tremblements de terre, les éruptions solaires ... « Ainsi, pour la première fois nous avons pu observer expérimentalement les trois éléments clés de la criticité auto-organisée et établir un système expérimental atomique contrôlable de manière ciblée et spécifique », se réjouit Shannon Whitlock.

Prochaine étape : « Nous aimerions voir comment la nature quantique des atomes influence le mécanisme d’auto-organisation. Nous pourrions alors éventuellement l’utiliser pour créer de nouvelles technologies quantiques ou résoudre certains problèmes computationnels, difficiles à traiter avec les ordinateurs classiques », conclut le chercheur.

Marion Riegert - Retrouvez l’intégralité de cet article dans Nature.

Le projet est soutenu financièrement par le programme Investissements d’avenir de l’Initiative d’excellence de l’Université de Strasbourg (Idex) et la « Deutsche Forschungsgemeinschaft (DFG) », dans le cadre du centre de recherche collaborative « SFB 1225 (ISOQUANT) »

Source : http://www.recherche.unistra.fr/index.php?id=31278

Retour au début de l’article traduit

Traduction, inclusion des figures et des liens hypertextes donnant accès à des informations détaillées : Jacques Hallard, Ing. CNAM, consultant indépendant. Relecture et corrections : Christiane Hallard-Lauffenburger, professeure des écoles. Adresse : 585 Chemin du Malpas 13940 Mollégès France

Courriel : jacques.hallard921@orange.fr

Fichier : ISIAS Série Phi Partie 3 version 3

Mis en ligne par le co-rédacteur Pascal Paquin du site inter-associatif, coopératif, gratuit, sans publicité, indépendant de tout parti, géré par Yonne Lautre : https://yonnelautre.fr - Pour s’inscrire à nos lettres d’info > https://yonnelautre.fr/spip.php?breve103

http://yonnelautre.fr/local/cache-vignettes/L160xH109/arton1769-a3646.jpg?1510324931

— -