Mots-clés :

Un texte de René Thom, " halte au hasard, silence au bruit ", a relancé le débat sur le déterminisme (Le Débat n°3 juillet-août 1980 éditions Gallimard, Paris, 192p.). Les arguments pour et contre sont repris dans l’ouvrage " la Querelle du déterminisme " (éditions Gallimard, Paris, 1990). Au début, la question était de savoir si le hasard dans les systèmes sensibles aux conditions initiales n’est pas autre chose que " notre ignorance d’un ordre déterministe microscopique ". Rapidement, le débat a évolué vers le fait de savoir si le monde est entièrement déterminé ou bien s’il laisse une place pour autre chose qui pourrait être au choix : la liberté, le hasard ou la transcendance.

Les différents acteurs de cette querelle font référence aux chercheurs et aux penseurs qui les ont précédés et y ajoutent leurs propres réflexions. Le texte ci-dessous, tente de d’identifier les différents domaines où pourraient se cacher l’indéterminisme.

Le déterminisme

Le débat, a été posé de façon précise en 1814 par Pierre-Simon Laplace dans son " essai philosophique sur les probabilités " avec ce qui est devenu le " démon de Laplace " :

Nous devons donc envisager l'état présent de l'Univers comme l'effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'Univers et ceux du plus léger atome. Rien ne serait incertain pour elle, et l'avenir, comme le passé, serait présent à ses yeux "

Le déterminisme global de Laplace a servi de base à la science. Il commence cependant a être remis en cause à partir du XIXème siècle.

La nécessité en philosophie ou le déterminisme en science ?

Le texte introductif de Krzysztof Pomian, " histoire d’une problématique ", permet de distinguer plusieurs approches :

  • Le nécessitarisme en philosophie : rien n’arrive qui ne soit nécessaire à la vue des événements antérieurs (Hobbes, Spinoza ou encore Diderot dans " Jacques le fataliste). Baruch Spinoza indique : " une chose sera dite libre, qui existe sur la seule nécessité de sa nature et est déterminée par soi seule à agir ; une chose sera dite nécessaire, ou plutôt contrainte, qui est déterminée par autre chose à exister et à opérer suivant une loi certaine et déterminée " (Ethique I, déf. VII)
  • Le fatalisme des stoïciens : la " nécessité fatale ", l’événement se produira nécessairement quel que soit ce qui se passe auparavant
  • Le déterminisme en science : chaque événement est déterminé par le principe de causalité scientifique (il s’agit d’une nécessité non pas philosophique ou spéculative mais calculable)
 

Pour se poser la question du déterminisme, il est donc fondamental de bien comprendre le principe de causalité.

Le principe de causalité : une cause, un effet

Il s’énonce en deux points fondamentaux (Wikipédia) :

  • tout phénomène a une cause
  • dans les mêmes conditions, la même cause est suivie du même effet.

Le principe de causalité est un axiome de pensée, c’est un principe non démontré et non réfuté (au moins dans les sciences " dures " macroscopiques comme la chimie ou la physique classique).

Reste-t-il une place pour l’indéterminisme ?

Charles Renouvier, dans ses réflexions sur le libre arbitre et le déterminisme, considère que le libre arbitre est une condition de la conscience. Il précise : le nombre de conceptions réellement différentes en philosophie, est beaucoup plus petit qu’on ne paraît généralement s’en apercevoir. Le nombre de questions contradictoirement débattues depuis vingt quatre siècles, j’entends de celles dont la solution est d’une importance capitale pour l’homme et autour desquelles toutes les autres gravitent, est lui-même très petit " (esquisse d’une classification des systèmes, au bureau de la critique philosophique, 1885, tome II, p241)

La vision d’une science physique microscopique non déterminée ne plaisait pas à Albert Einstein qui lança son célèbre : " Dieu ne joue pas aux dés ". Niels Bohr lui répondit par : "Einstein, cessez de dire à Dieu ce qu’il doit faire ".

René Thom pour sa part, conclue dans " halte au hasard silence au bruit " en disant : " le déterminisme en science n’est pas une donnée mais une conquête ". Dans sa réponse " au-delà du déterminisme : le dialogue de l’ordre et du désordre ", Edgar Morin explique que " le problème est non pas de diviniser ou d’exorciser le hasard, mais de ne plus chercher à l’éliminer idéalement du monde ".

Que vous soyez pour ou contre le déterminisme, vous trouverez toujours un contradicteur. Si le débat est aussi animé, c’est que l’idée même d’un monde déterminé semble exclure la possibilité de notre liberté. Pourtant nous devons d’abord chercher à découvrir le monde tel qu’il est plutôt que selon nos a priori.

Ilya Prigogine et Isabelle Stengers dans " la querelle du déterminisme, six ans après " résument les positions de chacun pour montrer que trois notions reposent la question du déterminisme :

  • Les systèmes dynamiques étudiés entre autre par Leibniz (qui peuvent être instables)
  • Plus particulièrement les systèmes sensibles aux conditions initiales sur lesquels Prigogine a travaillé
  • La mécanique quantique (dont la mesure ne peut être prévue autrement que par les probabilités)

Il faudrait y ajouter

  • Les premières recherches des philosophes sur la place de la liberté pour l’homme
  • Et les systèmes qui rétroagissent sur eux-mêmes, ne permettant qu’une étude incomplète de leur fonctionnement

Nous allons regarder plus en détail chacune de ces possibilités.

Les premières pistes des philosophes

Krzysztof Pomian dresse une histoire de l’idée de déterminisme complété par Jean Largeault dans " causes, causalité, déterminisme "

L’indéterminisme cantonné à l’homme ou au monde terrestre

Pour Aristote, si le monde du ciel est régit par la nécessité et donc absolument prévisible, le monde sublunaire est radicalement indéterminé et voit se produire des accidents qui ne se laissent constater qu’à posteriori.

Mais cette conception nécessite une distinction nette entre le monde céleste et le monde terrestre. Celle-ci est remise en question par l’évolution de l’Astrologie. En passant de Mésopotamie en Grèce plus de 40 ans après la mort d’Aristote, l’astrologie change de nature : alors qu’elle était la description des avenirs possibles que les dieux envisagent de réaliser si rien n’est fait pour infléchir leur décision, elle devient en arrivant en Grèce un lien fort entre le ciel et le destin des hommes. Elle fut donc combattue par les continuateurs d’Aristote.

Saint Augustin propose un déterminisme très différent de l’Astrologie : c’est Dieu qui a tout déterminé (y compris le monde sublunaire contrairement à l’idée Aristotélicienne). L’homme est libre de transgresser (comme l’indiquait la distinction des stoïciens entre ce qui est entre notre pouvoir et ce qui ne l’est pas) mais son autonomie est négligeable. Dieu ne crée que le bien. Le mal lui, provient exclusivement du péché de l’homme. L’homme est incapable de rompre avec le pécher par ses propres forces, c’est Dieu qui choisit ses élus en leur offrant la grâce.

Saint Thomas d’Aquin considère que le monde est à la fois déterminé par une préconception de Dieu (finalisme) et indéterminé dans sa mise en œuvre par l’homme, intermédiaire de Dieu. Cela introduisit une controverse entre l’œuvre de salut de la grâce divine de Saint Augustin et le mérite humain réintroduit par Saint Thomas d’Aquin.

Le retour du déterminisme

Mais l’indéterminisme du monde sublunaire d’Aristote ou bien celui de l’homme pour St Augustin (produisant le péché en transgressant l’œuvre de Dieu) et St Thomas d’Aquin (pour mettre en œuvre la préconception de Dieu) se voit remis en cause par les progrès de la Science. René Descartes et Isaac Newton, bien qu’en désaccord sur la causalité, ne laissent plus de place à l’indétermination.

René Descartes, introduit un nouveau monde au XVIIème siècle, un monde géométrique composé de matière qui s’identifie à l’étendue et au mouvement. Il faut cependant Dieu pour imprimer la quantité de mouvement à la matière. Descartes considère qu’il n’y a qu’un seul type de causalité – le changement d’état des parties ; et une seule cause – le choc des corps.

Isaac Newton au contraire, considèrent qu’il existe des forces qui ne se laissent pas voir. Pour Newton, le déterminisme des forces coexiste avec la liberté de Dieu.

 

Un monde déterministe et une connaissance indéterminée

Il faut distinguer le déterminisme du " problème pratique "

Gottfried Wilhelm von Leibniz se situe entre Descartes et Newton tout en laissant une petite place à la liberté. Il considère que le monde est entièrement déterministe mais que la liberté y est possible car il n’est qu’un des mondes possibles choisis par Dieu conformément au principe de la " raison suffisante " (dans ce cas, minimaliser le mal). Dieu fait le choix du monde pour expliciter la raison suffisante et en tenant compte du monde déjà créé (ou plutôt : actualisé).

Il est accusé par Samuel Clarke, ami et disciple de Newton, dans une célèbre controverse de " nier la spontanéité animale et la liberté humaine, qui ne peuvent être qu’apparences dans un monde régi par la raison suffisante, un monde ou Dieu n’intervient plus dès lors qu’il l’a créé le meilleurs des possibles " (cité dans Ilya Prigogine, Isabelle Stengers, la querelle du déterminisme, six ans après, à partir de Correspondance Leiniz-Clarke, édité par A. Robinet, Paris, P.U.F., 1957). Le Dieu augustinien, irrationnel, est combattu par le Dieu de Leibniz, rationnel et armé du principe de raison suffisante.

Cependant la question métaphysique du déterminisme est à distinguer du problème pratique de la liberté. Il reprend l’exemple de l’âne de Buridan qui dans la fable citée par Spinoza (Ethique, II, 49) meurt de faim et de soif devant un seau d’eau et une brassée de paille à égale distance, faute de pouvoir choisir entre commencer par l’un ou par l’autre. Mais pour Leibniz, l’âne peut choisir malgré la raison suffisante car les deux éléments et leur distance, mais aussi deux parties de l’âne sont toujours légèrement différents (Leibniz, théodicée, Nouveaux essais…, Paris Garnier-Flammarion, p39). Pourtant cette différence peut être infiniment petite, au-delà de notre connaissance à un moment donné.

Connaître n’est toujours qu’une approximation

De même, dans " au-delà du déterminisme : le dialogue de l’ordre et du désordre ", Edgar Morin explique que le champ de la connaissance parle " non d’un univers en soi, mais d’univers vu/perçu/conçu par un esprit humain hic et nunc ".

Pour Ilya Prigogine et Isabelle Stengers dans " la querelle du déterminisme, six ans après ", si le Dieu de Laplace est infini, le démon de Laplace ne fait que tendre vers l’infini. l’un parle de l’être, l’autre de la connaissance que l’on peut en avoir. Il y a une distance infranchissable entre l’être et le connaître. Le démon de Laplace, comme le physicien développe une connaissance qui ne fait que tendre vers ce qui est.

Voir aussi " l’univers irrésolu " publié par Karl Popper en 1982 qui est un plaidoyer pour l’indéterminisme. Il y distingue 3 mondes :

  1. Le monde physico-chimique (le monde observable)
  2. Le monde de la conscience (le monde subjectif qui peut être inclus dans le monde 1 qui devient alors ouvert
  3. Le monde de nos connaissances objectives (c’est le monde des idées, des théories mais aussi des formes)

Pour Jean Petitot, dans " note sur la querelle du déterminisme ", l’appréhension est subjective et la réalité est objective. C’est ce qui oppose la phénoménologie (la science des " vécus ") à la physique (la science de la Nature), ou encore l’aristotélisme au galiléisme. Il prône une " description objective " (une eidétique) incluant la dimension phénoménologique. La théorie du chaos permet une telle réconciliation entre la science et la phénoménologie en proposant une eidétique descriptive géométrique.

L’objectif de la connaissance est-il la prévision ?

René Thom indique dans " en guise de conclusion " qu’il y a une différence entre le savant et l’expert. Ce dernier étant plus proche du pouvoir : " le pouvoir exécutif des experts se fonde plutôt sur l’existence du risque, de l’aléa, que sur son absence ", alors que le savant devrait au contraire rechercher à réduire l’aléa et le hasard.

On observe un passage du passéisme à un futurocentrisme initié par David Hume et qui domine à partir du milieu du XIXème siècle. Il s’observe par exemple dans la notion de connaissance :

  • Vue comme la capacité de trouver les causes (dans le passé ou dans l’au-delà). Dans ce cas la prévision sert principalement à démontrer
  • Vue comme la capacité d’en prévoir les variations. Dans ce cas la prévision est l’objectif à atteindre.

Ce renversement entre le passé et le futur cause le deuxième divorce entre la philosophie et la science qui a fait de la prévisibilité une fin en soi.

René Thom dans sa " postface au débat sur le déterminisme ", considère que la liberté de l’homme pour agir s’appuie sur les régularités et la capacité à agir : " Ainsi, la liberté humaine qui, a priori, fait échec au déterminisme, s’appuie sur lui pour agir, pour forger ses intentions et déterminer ses projets. Ce paradoxe, je crois est au cœur du déterminisme ‘scientifique’ ".

Mais prévoir n’est qu’une des méthodes d’actions. Celle-ci utilise le choix a priori. Il existe d’autres approches comme la recherche d’un équilibre au moment même du choix par exemple dans les systèmes économiques (négociation pour équilibrer l’offre et la demande) ou encore le choix a posteriori à partir d’une abondance de solutions potentielles (cf l’introduction de Internet tome 2 http://cornu.viabloga.com/news/introduction-de-internet-tome-2-services-et-usages-de-demain )

Des sciences de la complexité déterministes mais imprévisibles

En physique classique on utilise les fonctions mathématiques pour connaître une situation à n’importe quel instant simplement en donnant à la variable temps la valeur adéquate. Mais cela n’est plus possible dans les sciences de la complexité : il est nécessaire de parcourir toutes les étapes intermédiaires pour connaître l’état à un instant donné. Cependant, l’imprévisibilité relative des sciences de la complexité n’est pas considérée comme indéterminée. La valeur trouvée est déterminée par les conditions initiales et les règles qui donnent à situation identique le même résultat et respectent donc bien le principe de causalité. L’imprévisibilité n’est que le résultat de la limite de notre connaissance (en particulier en cosmologie où nous ne pouvons pas découvrir les états successifs de l’univers plus rapidement qu’il ne le fait lui-même…)

Des lois déterministes, et le reste ?

Les phénomènes ayant une sensibilité aux conditions initiales

Les systèmes sensibles aux conditions initiales posent d’autres problèmes lorsque les variations de conditions initiales qui produisent des résultats mesurables sont trop faibles pour être mesurées (on parle de fluctuations). C’est cette piste là qui est débattue dans les années 80 dans la querelle du déterminisme, à partir de plusieurs théories étudient ces systèmes :

  • les structures dissipatives de Ilya Prigogine et Isabelle Stengers qui étudient les systèmes loin de l’équilibre thermodynamique qui voient l’apparition spontanée d’une structure complexe et parfois chaotique avec des phénomènes d’auto-organisation. Il a montré que la thermodynamique, conformément au sens commun, était le siège de phénomènes irréversibles (Ilya Prigogine et Isabelle Stengers, la nouvelle alliance, Gallimard, Paris, 1979)
  • la théorie des catastrophes fondée en 1968 par René Thom qui recherche des phénomènes stables à partir non pas des systèmes dynamiques mais de la théorie mathématique des singularités. (René Thom, stabilité structurelle et morphogenèse, Interédition, Paris, 1977)
  • d’autres ouvrages dans des domaines variés, s’intéressent aux systèmes sensibles aux conditions initiales et aux phénomènes d’auto-organisation : le hasard et la nécessité de Jacques Monod (Editions du Seuil, Paris, 1970), La méthode, tome 1 : la nature de la nature d’Edgar Morin (Seuil, Paris, 1977), Entre le cristal et la fumée (Henri Atlan, Seuil, Paris, 1979)

La théorie du chaos formalisée à partir des années 1970 est aujourd’hui considérée comme déterministe.

Une science basée sur les statistiques

Ces théories (à l’exception de la théorie des catastrophes) font largement appel aux statistiques et introduisent la question de savoir si ce hasard est primordial reposent différemment la question du déterminisme.

En résumé, on peut distinguer quatre façons d’aborder le déterminisme :

  1. L’Astrologie à partir des Grecs qui considère que les influences astrales déterminent les affaires humaines (les événements sublunaires) : détermination par le ciel
  2. La vision chrétienne de Saint Augustin, qui insiste sur la providence et la prédestination : détermination par Dieu
  3. La vision mécaniste, qui se concentre sur la prévision comme moyen de démontrer les causes : détermination par des causes observables
  4. La vision statistique qui est celle des Sciences Humaines et Sociales mais aussi de certains domaines physiques comme les systèmes sensibles aux conditions initiales ou la mécanique quantique : détermination par des causes non observables. Elle affiche un futurocentrisme où la prévision est moins un moyen de vérifier les causes mais devient une fin en soi.

On assiste à une séparation entre la philosophie de l’histoire et les sciences sociales qui deviennent incompatibles dans le dernier tiers du XIXème siècle. La philosophie de l’histoire réfléchit au passé et se base sur les événements historiques alors que les sciences sociales étudie le présent à l’aide des statistiques et s’intéressent aux faits sociaux modestes.

Une mesure approximative des conditions initiales

Du fait du processus même de mesure, on ne connaît les conditions initiales qu’avec une précision approximative. Ainsi, des systèmes sensibles aux conditions initiales peuvent très bien avoir des variations trop petites de leurs conditions initiales pour être observées tout en donnant un résultat final très différent : attiré par un " attracteur " différent (une infime variation dans la main au moment du lancé et le dé tombera sur une face différente). Cela est encore plus vrai dans les sciences humaines où certaines grandeurs sont non mesurables (pour être mesurable, une grandeur doit pouvoir être comparée de façon précise à un étalon objectif commun à tous, ce qui n’est pas le cas pour des données " internes " telles que la confiance, l’estime, l’amour…). Lorsqu’une grandeur est évaluable mais non mesurable, il n’est alors possible que de lui donner une valeur approximative.

 

Pierre Duhem, insiste sur l’importance d’une mathématique de l’à-peu-près : "  les " mathématiques de l’à-peu-près " qui permettent seules de traduire sans le trahir le langage du physicien, ne sont pas du tout une forme plus simple et plus grossière des mathématiques, mais au contraire une forme plus complète et plus raffinée " (la théorie physique, son objet – sa structure ed 1914 rééditée en 1981 chez Vrin p214

Beaucoup de systèmes dynamiques sont ainsi imprévisibles mais ont un faible nombre " d’attracteurs " (d’états stables) : comme par exemple le dé qui comporte 6 faces planes.

David Ruelle, dans " Hasard et déterminisme, le problème de la prédictibilité " considère que l’on est " mieux équipé " avec les attracteurs étranges " pour discuter de la contradiction entre déterminisme et libre arbitre "

Hasard par ignorance ou hasard primitif : l’indéterminisme est-il dans les conditions initiales ?

Dans " halte au hasard, silence au bruit ", René Thom considère que le darwinisme a introduit le hasard de façon illégitime en science : " le hasard ne serait-il entre autre chose qu’un substitut laïc de la finalité divine ? " (la querelle du déterminisme, halte au hasard, silence au bruit, p63)

Pour lui, la science consiste à décrire, que ce soit en langue naturelle ou dans un formalisme mathématique. Il existe d’énormes blocs de phénomènes que l’on peut décrire de façon satisfaisante en langue naturelle et où une description mathématique rigoureuse serait non seulement difficile mais de plus non pertinente. Dans d’autre cas au contraire, le formalisme linguistique perd toute efficacité (c’est le cas par exemple de l’entropie de Kolmogorov-Sinaï). Dans ce cas, on doit abandonner une description fine du système pour se concentrer sur une conception grossière statistique. Ce que l’on appelle les " lois du hasard " sont en fait notre ignorance d’un ordre déterministe microscopique, trop petit pour être observé mais qui donne des conséquences observables. Dans ce cas, la langue naturelle perd du sens et nous devons utiliser les statistiques mathématiques pour décrire ces systèmes.

Pour sa part, Henri Atlan, dans " postulats métaphysiques et méthodes de recherche " indique que le hasard par ignorance et le déterminisme caché promu par René Thom est aussi gênant que le hasard essentiel.

Dans " le roi Olav lançant les dés ", Ivar Ekeland explique qu’il existe deux types de hasard véritable :

  • Le hasard primitif, il est différent du hasard par ignorance (par exemple le hasard en mécanique quantique s’il n’existe pas de variables ou de dimensions cachées).
  • Le hasard comme intersection de deux séries causales indépendantes (par exemple le bruit est une série causale secondaire trop petite pour être visible de la série causale principale).

Ainsi, si les lois sont déterministes, les conditions initiales sont-elles au contraire parfois indéterministes ?

Le marquis de Condorcet fait d’ailleurs la distinction entre la contingence des conditions initiales (le système du monde) et la nécessité des lois d’évolution (la mécanique) (lettres sur le système du Monde et sur le calcul intégral, 1768, pp 4-5). Le spinozisme, revu par Einstein considère que le déterminisme est concentré dans la Loi.

En dehors des lois (déterministes) et des conditions initiales (où la question se pose), il existe d’autres éléments à prendre en compte comme l’explique Edgar Morin dans " au-delà du déterminisme : le dialogue de l’ordre et du désordre " : " à l’idée de lois souveraines […] s’est substitué l’idée de lois d’interactions, c’est à dire dépendant des interactions entre corps physiques qui dépendent de ces lois ". L’ordre construit par ses interactions est plus riche que l’idée de lois souveraines car il s’y ajoute des contraintes, des invariances, des régularités dans notre univers qui dépendent de conditions singulières ou variables. Cet ordre s’auto-produit dans l’univers, il est à la fois le coproducteur mais aussi le produit de phénomènes organisationnels. C’est dans cet univers qui s’auto-produit non pas seulement à partir des lois mais aussi de contraintes et de régularités, que pourrait se découvrir le hasard.

Déterminisme global et déterminisme local

Stephan Amsterdamski dans " Halte aux espoirs, silence aux accusations ", distingue deux notions du déterminisme :

  • Le détermine global : l’état de l’univers est déterminé à chaque instant par ses états précédents (il est non prouvable car aucune science ne peut traiter de l’univers sans définir son environnement). Dans ce cas le déterminisme est identique à la notion de prévisibilité. C’est le déterminisme de Laplace.
  • Le déterminisme local : pour chaque classe du système, il existe un système ou l’état du système est déterminé par ses états précédents

Si le déterminisme global est vrai alors le déterminisme local est vrai également mais la réciproque n’est pas vraie

Pour cela, il donne deux visions de la place des lois dans la science :

  1. Les lois sont valables quelles que soient les conditions initiales (Karl Popper considère que les lois ne sont que des interdictions)
  2. Les lois déterminent les conditions initiales

Cela mène à deux façons de concevoir la science :

  1. Chaque ordre ne peut concerner qu’un fragment de l’univers (qui pousse à la vision locale du déterminisme)
  2. L’objectif de la science est de diminuer la dichotomie entre les lois et les conditions initiales

Une cause, plusieurs effets possibles

Des systèmes qui rétroagissent sur eux-mêmes

Une des façons de poser la question de l’indéterminisme est de rechercher des causes qui peuvent être suivies d’effets différents (qui ne respectent donc pas le principe de causalité). Cela semble être le cas des systèmes qui parlent d’eux même :

  • Epiménide en philosophie qui parle de lui en disant " je suis un menteur ". Cette phrase ne peut être ni vraie, ni fausse. Mais de façon encore plus subtile on pourrait dire " je dis la vérité " : cette phrase peut être aussi bien vrai que fausse.
  • Kurt Gödel en mathématique qui utilise l’arithmétique et les mathématiques formelles pour vérifier leur propre complétude et abouti à la conclusion qu’il existe toujours des hypothèses qui ne peuvent être ni infirmées ni confirmées : Ce sont les théorèmes d’incomplétude de Gödel (" une théorie suffisante pour faire de l’arithmétique est nécessairement incomplète au sens où il existe forcément des énoncés qui ne sont pas démontrables et dont la négation n'est pas non plus démontrable " Wikipédia).
  • Cela semble également vrai dans la plupart des Sciences Humaines et Sociales ou l’observateur influe sur ceux qu’il observe. Il faut donc étudier un système plus global incluant à la fois l’observateur et les observés.
  • La question se pose également en Mécanique Quantique où l’observateur est indissociable de l’observé lors de la mesure (nous détaillerons cette question dans la dernière partie). Il faut renoncer soit au principe de localité soit au principe de causalité (voir aussi l’hypothèse many worlds ou many minds d’Everett qui considère qu’à chaque interaction se crée autant de monde que de choix possibles)

Mais la " querelle du déterminisme " n’aborde que très peu cette piste qui nous semble pourtant la plus prometteuse pour y rechercher de l’indéterminisme car la loi de causalité n’y est plus respectée (dans les mêmes conditions, la même cause est suivie de plusieurs effets tous fondamentalement " possibles ").

Plusieurs possibles comment choisir ?

Antoine Danchin, dans " la permanence et le changement ", voit dans le hasard, en particulier les rencontres d’événements imprévus, la possibilité d’expression du patrimoine héréditaire et ainsi d’exprimer des virtualités autrement impossibles, alors que " dans un modèle déterministe convenablement pensé, une fois fixées les conditions initiales, il y a existence et unicité des solutions ". Ainsi, s’il existe plusieurs possibles virtuels, seul l’indéterminisme permet de les explorer.

Ilya Prigogine, dans " loi, histoire et désertion " considère la conception traditionnelle de lois immuables ne permet pas de faire une distinction entre le passé et l’avenir, alors que l’approche probabiliste est liée aux concepts d’irréversibilité et d’évolution. Dans un système où une cause peut avoir plusieurs effets, un seul de ses effets " possibles " sera finalement observé. Le passage des ces " réels possibles " décrit par la science au " réel actuel " observé par les hommes est un phénomène irréversible qui n’est pas décrit par les lois physiques.

Jean Largeault, dans " causes causalité, déterminisme ", précise : " la liberté consiste dans l’indépendance de l’acte relativement aux mobiles. Elle suppose la possibilité de commencement de séries étranger à tout enchaînement causal préexistant, caractère qu’elle partage avec le hasard et la création, lesquels représentent des ruptures ou des discontinuités ". Il présente ainsi les trois possibilités de sélection d’un effet actuel parmi plusieurs effets possibles pour une même cause (en contradiction avec le principe de causalité) : le hasard, la transcendance et le libre arbitre.

Pour lui, la distinction entre contingence et déterminisme dépend de la réponse à la question " faut-il ou non admettre des possibles exclus de la réalisation ? ". Mais " la science ne prouve ni le déterminisme, ni l’indéterminisme " (p197). Pour que le déterminisme acquière un contenu épistémique réel, il faut " plonger l’évolution réelle d’un système dans un ensemble d’évolutions virtuelles ", parmi lesquels sera choisie la solution observable d’une façon qui n’est pas décrite par la science. Pour Jean Largeault, c’est ce que Laplace a réalisé et que Leibniz avait préparé par son principe de raison suffisante (les différentes étapes de cette approche mathématique développée par Leibniz consistent, lorsque l’on a plusieurs chemins pour relier les mêmes extrémités, à rechercher le maximum ou le minimum d’une intégrale que l’on appelle " action ", mais à le faire lorsqu’on le peut, dans un espace de phase -un espace virtuel des possibles- plutôt que dans l’espace de configuration. Cela se fait mathématiquement en passant d’un Lagrangien, à une fonction hamiltonienne)

Ainsi, la science ne donne pas toutes les explications : " chaque fois que Laplace dans son " exposition du système du monde " aborde un problème d’ontologie, il rappelle au lecteur que certains types de connaissances échappent à la science " (R Hahn, Laplace and the vanishing role of God in the physical universe, 1975 (repr. In Hugo Woolf ed., the analytic Spirit, Cornell University press, 1981, p89).

Le cas de la mécanique quantique

La mécanique quantique et plus précisément les relations d’incertitude d’Heisenberg, sont juste effleurées dans la querelle du déterminisme mais sans prendre en compte les avancées récentes des sciences physiques (réduction du paquet d’onde, intrication, paradoxe EPR, inégalités de Bell, expérience de Alain Aspect réalisée entre 1980 et 1982 qui exclue l’intervention de variables cachées locales, non-localité…)

Pourtant, comme l’indique Ivar Ekeland, dans " le roi Olav lançant les dés ", l’équation de Schroëdinger qui fonde la mécanique quantique, est déterministe. Le hasard, s’il existe en mécanique quantique, intervient au moment de la mesure qui est décrit par les relations d’incertitude d’Heisenberg en mécanique quantique : pour une particule massive donnée, on ne peut pas connaître avec précision simultanément sa vitesse et sa position. Il n’est plus possible de connaître les deux données avec précisions, elles ne sont plus mesurables.

La question est de savoir si l’imprévisibilité des résultats obtenus vient du fait qu’il nous manque des variables qui sont " cachées " ou si elle vient d’un véritable indéterminisme. On sait depuis les expériences de Alain Aspect qu’il n’y a pas de variables cachées locales mais cela n’empêche pas d’avoir des variables cachées globales comme par exemple des dimensions que nous n’aurions pas vues.

René Thom dans " Halte au hasard, silence au bruit explique : " On a donc eu besoin pour instaurer le déterminisme classique, d’augmenter la dimension de l’espace par introduction de variables nouvelles initialement cachées (les moments, ou vitesse) " " On a besoin depuis Galilée d’un espace de dimension double (six, avec les moments cinétiques associés) "

Existe-t-il des dimensions cachées en physique des particules qui permettraient de rendre les équations de nouveau prévisibles et donc déterministes ? Il existe deux pistes pour cela :

  • Les nouvelles dimensions " enroulées " de la théorie des cordes
  • Les dimensions de rotation (qui se traduisent par les phases dans les équations d’onde) qui sont mathématiquement éliminées lorsque l’on calcule la probabilité de présence. Peut être faut-il réintroduire dans la mesure en mécanique quantique les mêmes trois dimensions que l’on a du introduire à l’époque de Galilée pour réintroduire la prévisibilité en mécanique ?

Mais le fait que l’observateur ne soit pas indépendant de l’observé n’introduit-il pas une rétroaction qui pourrait produire une indétermination (voir les causes avec plusieurs effets) ?

Entre la possibilité de réintroduire du déterminisme en physique des particules à l’aide de variables cachées non locales (par exemple de nouvelles dimensions) et le fait que tout comme dans d’autres systèmes non déterminés, l’observateur fait parti du système dont il parle, la question du déterminisme dans ce domaine reste encore ouverte et sujet à débat.

En guise de conclusion

Différentes tentatives ont été faites pour réintroduire une place à l’indéterminisme face aux lois de la physique qui elles semblent parfaitement déterminées : le monde sublunaire qui ne serait pas soumis aux lois du Ciel (Aristote), le libre arbitre de l’homme, que ce soit pour transgresser l’ordre de Dieu (St Augustin) ou pour le mettre en œuvre (St Thomas d’Aquin), la liberté (pour Dieu) de choisir parmi plusieurs monde possible conformément à la raison suffisante (Leibniz), le monde observable et connaissable (les systèmes dynamiques ou les systèmes complexes imprévisibles), les conditions initiales (les systèmes sensibles aux conditions initiales) ou encore les contraintes et les invariants de notre univers non déterminés par des lois…

Mais aucuns de ses exemples n’a pu être démontré comme indéterminé. Soit ils sont en dehors du champ de la connaissance scientifique, soit ils se sont révélés finalement déterministes (comme c’est le cas pour la complexité ou le chaos déterministe).

Pourtant, il existe un véritable candidat à une étude scientifique de l’indéterminisme : les systèmes qui ne respectent pas la seconde proposition du principe de causalité : " dans les mêmes conditions, la même cause est suivie du même effet ".

Les systèmes qui rétroagissent sur eux-mêmes (qui " parlent d’eux-mêmes ") semblent avoir cette caractéristique : le paradoxe du philosophe qui parle de lui-même (Epiménide), la démonstration par les mathématiques de la validité des mathématiques (Gödel), l’ensemble des Sciences Humaines (qui ont pourtant cherchées à atteindre la prévisibilité des sciences mécanistes) ou encore peut être la mesure en physique des particules (qui ne peut faire abstraction de l’observateur dans l’obtention du résultat).

L’ensemble de notre démarche rationnelle est basé sur le principe de causalité. Si notre science et notre philosophie peuvent parfois aboutir à plusieurs résultats (réellement) possibles, alors il faut se poser la question de ce qui permet de passer de ces différents possibles à un seul résultat actuel observable :

  • Le choix est-il déterminé par une " raison suffisante " ou bien les différents possibles continuent-ils de coexister au sein d’univers multiples ?
  • Au contraire le choix est-il effectué par une transcendance, le hasard ou notre libre arbitre ?

Si cette réduction se révèle non déterministe, alors il reste peut-être une place pour notre liberté.

Répondre à cet article