Le niveau intermédiaire : la terra incognita
On ne voit pas tout ce qui se passe...
Sommaire
- Ce que l'on voit au niveau micro et ce que l'on voit au niveau macro
- De la mécanique statistique à la thermodynamique
- Le seuil de validité des statistiques
- Le seuil de notre incapacité
- La différence des niveaux micro et macro
- Le niveau intermédiaire (meso) : la rencontre du micro et du macro
- Quand le méso envahit tout
Ce que l'on voit au niveau micro et ce que l'on voit au niveau macro
Cette fois nous allons chercher à savoir pourquoi il est aussi difficile de passer d'une compréhension des propriétés et des interrelations entre différents constituant (le niveau micro) et ce que l'on observe parfois au niveau plus global (le niveau macro). Nous sommes dans ce que nous avons appelé le domaine de "l'émergence synchronique".Un exemple simple peut être donné par la reconnaissance d'un visage dans un tableau pointilliste : en regardant chaque point il est quasiment impossible de se faire une idée d'ensemble. Par contre en prenant du recul, le visage apparaît (émerge). Cette fois ce sont les points qui deviennent moins visibles. D'ailleurs, changer un seul point de place ou de couleur change peu notre capacité à reconnaître le visage..
De la mécanique statistique à la thermodynamique
L'exemple que l'on donne généralement est celui des molécules de gaz qui, en grand nombre dans un espace clos, permettent de définir des valeurs globales : la température, la pression et le volume. La thermodynamique est définie dans un domaine macroscopique. Pourtant chaque molécule est régie par les lois de la mécanique avec des notions telles que l'énergie cinétique... Pour être exact, il faudrait parler de mécanique statistique, car il ne nous est pas possible de suivre individuellement chaque molécule. Un des grands succès du réductionnisme a été de définir le rapport entre la thermodynamique (macroscopique) et la mécanique statistique (microscopique).Le fait de se situer au niveau global permet une description bien plus concise que celle qui consisterait à décrire individuellement chacun des constituants. Mais cela n'est possible que grâce à la loi des grands nombres : lorsque l'on fait un tirage aléatoire sur un échantillon d'une population, plus l'échantillon est grand et plus les caractéristiques statistiques de l'échantillon se rapprochent des caractéristiques statistiques de la population. Plus on lance une pièce en l'air, plus la somme des lancers va se rapprocher de 50% de lancers piles et de 50% de lancers face. Pour notre exemple précédent, la moyenne des énergies cinétiques des molécules de gaz va converger vers une valeur que l'on appelle la température.
Le seuil de validité des statistiques
Pour que la loi des grands nombres s'applique et que l'on puisse avoir une très bonne chance que la valeur moyenne obtenue par un ensemble d'éléments converge, il faut... un grand nombre de constituants. Il est possible de calculer la probabilité que le résultat obtenu s'écarte beaucoup de la valeur donnée par les statistiques (qui ne dépend que de la structure macroscopique et non des tirages individuels) : Si on lance 1000 pièces, il n'y a qu'une chance sur 20 que le résultat ne s'écarte de plus de 10% de ce que prévoient les statistiques.
En fait on ne considère les statistiques comme acceptables en mécanique statistiques qu'à partir d'un millier de constituants. Ainsi, on ne peut pas parler de température d'un ensemble de 4 molécules. Bien qu'elles aient une énergie cinétique et qu'il soit possible d'en calculer la moyenne, cette valeur risque d'être trop variable d'une expérience à l'autre pour être utilisée.
Tout se passe comme si on passait progressivement d'une vision où il est possible pour une molécule qui aurait une valeur atypique d'influencer le résultat d'ensemble à une valeur plus globale qui ne dépend que de la structure générale (l'essence comme dirait Spinoza).
En dessous d'un certain seuil, il est nécessaire d'observer chaque constituant d'un ensemble car n'importe lequel peut apporter une "fluctuation" qui changerait le résultat global. Mais si le nombre de constituants dépasse un certain seuil, alors on peut, sans prendre un grand risque, ne plus s'intéresser à chaque élément individuellement. Dans ce cas, les statistiques convergent vers une valeur qui ne dépend plus que de la structure globale du système.
En dessous du seuil de validité statistique, c'est la vision micro qui a le plus d'importance. Au-delà, il nous faut adopter une vision du niveau macro pour voir les valeurs structurelles.
Le seuil de notre incapacité
Mais il existe un deuxième seuil : celui de notre capacité à étudier la multiplicité des constituants. pour nous en faire une vision globale. Ce seuil concerne à la fois nos capacités cognitives à connaître le détail de chaque élément mais également les outils que nous avons pour les traiter.
Nos bonnes vieilles mathématiques sont vite limités dans ce champ. A partir de trois éléments en interaction, elles ne permettent plus de constituer une vue d'ensemble (une équation globale). Cela a été montré par Poincarré dans le problème des trois corps (voir aussi "Certains peuples comptent en "un , deux, beaucoup" ou Jacques Lacan). Heureusement, les techniques de simulations évolutionnaires viennent à notre secours. Elles présentent un tel intérêt que Stephan Wolfram les considère comme un "nouveau type de science" selon le titre de son dernier livre. Mais dans ce cas, nous devons abandonner les facultés d'obtenir un résultat pour n'importe quel instant dans le temps simplement en modifiant la variable du même nom. Au contraire, l'approche évolutionnaire nous oblige à parcourir une à une les étapes pour connaître le résultat global qui sera obtenu. Cela limite notre capacité de prévision par exemple pour les phénomènes de longue durée (comment calculer l'évolution de l'univers très précisément avec des outils qui font parti de l'univers...) ou pour les phénomènes dont la moindre variation ponctuelle peut modifier le tout (ce qui nécessite de faire des étapes les plus petites possibles pour ne pas manquer un seul phénomène ponctuel). Cette dernière approche utilise la théorie du chaos.
Pour ce qui est de nos capacités cognitives , elles sont vite limitées. On parle de trois choses que notre cerveau peut appréhender dans sa mémoire courte (mémoire écho) : d'où la phrase "j'ai trois choses à vous dire" des politiciens... Notre capacité à "garder en tête" plusieurs traitement (que nous ferons en série car notre multiplex ou memeplexe du conscient traite les choses une à une) semble tourner autour de dix (je suis preneur de références plus précises dans ce domaine). Quant à notre capacité de numération sans utiliser de langage symbolique est limitée à 5 par le nombre de groupes de neurones dédiés à un nombre précis (pour le reste nous faisons soit du "calcul approximatif", soit nous utilisons notre capacité de langage symbolique pour utiliser les outils mathématiques la simulation évolutionnaire.
Notre capacité cognitive à appréhender un ensemble de choses dans leur individualité et à en tirer une vision globale (la vision micro) est très limitée au niveau de nos capacité (tout au plus une dizaine sinon moins) et par nos outils mathématiques (au plus deux lorsque les phénomènes interagissent fortement entre eux...). Il ne nous reste que la simulation évolutionnaire pour, étape par étape, construire une vision globale à partir d'une vision micro.
La différence des niveaux micro et macro
Nos deux types de visions sont limitées par des seuils :- La vision macro devient moins valide au dessous du seuil de validité statistique. Celui-ci tourne autour de 1000 unités au minimum (et plus si on veut que les fluctuations des constituants n'influencent pas le résultat global).
- La vision micro devient plus limité au-delà de quelques unités du fait des limitations de notre cerveau et des mathématiques. Seule la simulation évolutionnaire, avec ses capacités prédictives plus limités, peuvent aller plus loin.
- Le monde micro ou chaque élément ne peut être prévu autrement que statistiquement (par exemple le résultat du lancer d'une pièce de monnaie, mais aussi l'action d'une personne)
- Le monde macro qui est déterminé par sa structure propre qui dépend surtout des règles qui assemblent les différents éléments (voir la morphogénèse)
- Un lancer de pièce (ou de dé) ne donne qu'un résultat aléatoire lorsqu'il est unitaire mais s'ordonne suivant une distribution bien particulière lorsqu'il y en a un grand nombre.
- La météorologie n'est pas prévisible sur le court terme (quelques jours ou semaines avec l'effet papillon) mais le redevient "globalement" sur le long terme avec les mécanismes de convection (voir la discussion dans "Demains - imprévisibilité")
- La mécanique quantique ne permet pas de prédire autrement que statistiquement l'état dans lequel une particule va se trouver, mais avec un très grand nombre de particules, on retrouve des lois bien prévisibles : celles de la mécanique classique.
- Une personne est dotée du libre arbitre mais aussi reçoit un certain nombre d'influences. Son action va être imprévisible sauf de façon statistique et ne pourra donc pas être prévue à coup sûr. Mais un grand nombre de personnes peuvent avoir en général un comportement prévisible. C'est ce que l'on observe en coopération (à l'exception des phénomènes de foule tels que la panique que nous verrons plus loin), c'est peut être bien le cas aussi en économie.
Ils sont dus donc soit à notre manque de connaissance (ce qui rend les choses imprévisibles mais pas indéterminées), soit à des phénomènes indéterministes (le libre arbitre, l'indéterminisme des systèmes qui parlent d'eux même décrits par Epiménide en philosophie ou Gödel en mathématiques). Quant à la mécanique quantique, il semble que nous ne savons pas si l'imprévisibilité est du à notre ignorance ou à un indéterminisme fondamental (bien que dans le premier cas notre ignorance n'est pas due à des variables cachées, comme l'ont conclu les expériences de Alain Aspect sur le paradoxe EPR)
Nous avons donc deux mondes séparés, difficilement réductibles l'un à l'autre. Deux seuils semblent les séparer. Seule la simulation évolutionnaire semble pouvoir faire le pont du monde micro vers le monde macro.
Le niveau intermédiaire (meso) : la rencontre du micro et du macro
Mais que se passe-t-il au dessus du seuil de notre capacité cognitive et en dessous du seuil de validité statistique ? Il semble y avoir une continuité entre l'influence du micro (d'éléments individuels) et du macro (les règles structurelles de l'ensemble).
- Au dessous du seuil de notre capacité cognitive, nous pouvons utiliser notre rationalité pour comprendre ce qui se passe pour chaque élément sans prendre en compte l'influence des règles globales (parfois ce qui se passe au niveau micro est prévisible, parfois il ne l'est pas comme nous l'avons vu)
- Au dessus du seuil de validité statistique, nous pouvons comprendre le règles générales du système sans prendre en compte les éléments individuels. La probabilité qu'une fluctuation individuelle influence le résultat global est très faible.
- Entre les deux nous sommes désarmé : nous devons prendre en compte en même temps l'influence des éléments individuels et celle des règles globales. Nous sommes dans le niveau méso...
Quand le méso envahit tout
Mais il existe des cas où nous nous trouvons dans cette zone inconfortable. Par exemple, les systèmes "au bord du chaos" ont tendance à propager la portée des actions individuelles loin dans l'échelle. Parfois même ils envahissent ce qui nous semblait être le niveau macro, là où les statistiques auraient du rendre très improbable une autre influence que celle des règles globales. On retrouve cela dans l'effet papillon en météorologie (mais à un autre niveau d'échelle plus élevé encore, l'effet papillon est de nouveau maîtrisé et remplacé par les mécanismes de convection). C'est le cas aussi de la mécanique quantique (avec les phénomènes quantiques utilisables au niveau macroscopique comme le laser), en sciences humaines (la propagation de rumeurs ou de panique dans les foules), etc.Une autre façon de propager l'influence du micro le plus loin possible et reculer ainsi le seuil de validité statistique, est de fabriquer une hiérarchie de niveau. Imaginons une population de plusieurs millions de personnes. Sa réaction globale dépend normalement plus des règles structurelles du groupe que de leur choix personnels. Cependant, si on constitue un groupe de quelques personnes à quelques dizaine de personnes, on se trouve au niveau mesoscopique et l'influence des personnes individuelles se fait de nouveau sentir. Si on constitue ensuite un "groupe de groupe" d'une taille limitée pour rester également au niveau mésoscopique, on peut ainsi constituer de proche en proche une hiérarchie de niveau qui permettent chacun le passage du niveau inférieur au niveau supérieur. Les règles obtenues pour la population de plusieurs millions de personnes ne seront plus simplement dictées par la structure même du groupe mais prendrons en compte le niveau micro : les personnes individuelles.
Il semble que c'est ce type d'analyse qu'a réalisé un chercheur et qui lui a permis de montrer avant l'instauration du débat en France sur la constitution que contrairement à ce que tout le monde prévoyait à l'époque, le non risquait de l'emporter. Je n'ai pas retrouvé la référence mais je suis preneur (chercher sur le net avec comme mots clés "constitution européenne" et "complexité" donne beaucoup de résultats ;-)
Ainsi, le domaine de la complexité est celui où se retrouvent l'influence à la fois du niveau micro (les élément individuels) et du niveau macro (les règles structurelles). On le retrouve même en thermodynamique et en mécanique statistique (qui sont pourtant l'exemple type de succès du réductionnisme). Il semble qu'il y ait toujours un niveau meso du fait de la différence entre nos capacités cognitives et les besoins de grand nombres pour la convergence des lois statistiques.
Mais dans d'autres cas de figure, le seuil de validité statistique peut être repoussé et des phénomènes imprévisibles viennent alors perturber "l'ordre global" obtenu au niveau macroscopique. c'est le cas des phénomènes issus de la théorie du chaos par exemple, mais aussi de la mise en place d'une hiérarchie de niveau, chacun restant en dessous du seuil de validité statistique. Ainsi, la complexité envahi également ce qui nous semblait être le niveau macro. C'est ce que nous verrons dans les prochains articles de cette série...
Ce billet est inspiré de l'excellent article de Anouk Barberousse, l'émergence statistique, in Sciences et Avenir 143 H "l'énigme de l'émergence", juillet/août 2005.
Par Jean-Michel Cornu | Avant | 24/12/2005 08:08 | Après | Complexité | 3 commentaires | Lu 9640 fois |
par Cornu, le Dimanche 26 Mars 2006, 10:37
Peut être, mais j'ai le sentiment que contrairment à l'espace et au temps, il faut prendre la complexité comme un dimension à part entière (à la différence qu'elle semble utiliser des nombres ordinaux - premier, deuxième... - plutôt que des nombres cardinaux - un, deux... ) et du coup on perd ... l'addition.Répondre à ce commentaire
Wolfram pense qu'il existe un automate simple capable de générer l'ensemble de l'univers. Mais comme la simulation nécessite de passer par tous les résultats intermédiaires pour arriver à un résultat (contrairement aux mathématiques qui permettent de se "téléporter" à une situation simplement en modifiant une variable telle que le temps) : comment simuler l'univers avec des éléments (ordinateurs...) qui font eux même parti de l'univers ? Bref cela ne va pas être simple à vérifier ;-)
Commentaires
1 - 7±2 et le mésopar David Latapie, le Dimanche 26 Mars 2006, 01:10 Répondre à ce commentaire