AccueilUn univers de variables cachées ? (2009-2010)

Un univers de variables cachées ? (2009-2010)

La question des (in)déterminismes en sciences

*  *  *

Publié le lundi 09 novembre 2009 par Marie Pellen

Résumé

Séminaire organisé par Pascal Charbonnat, François Pépin et Marc Silberstein, et accueilli par Michel Morange, au Centre Cavaillès de l’École normale supérieure de Paris. Les séances se déroulent le premier jeudi de chaque mois (d’octobre à juin) au Centre Cavaillès (3e étage, 29 rue d’Ulm, 75005 Paris), de 18 h 00 à 20 h 00, avec entrée libre dans la limite des places disponibles.

Annonce

Séminaire organisé par Pascal Charbonnat, François Pépin et Marc Silberstein, et accueilli par Michel Morange, au Centre Cavaillès de l’École normale supérieure de Paris.

Les séances se déroulent le premier jeudi de chaque mois (d’octobre à juin) au Centre Cavaillès (3e étage, 29 rue d’Ulm, 75005 Paris), de 18 h 00 à 20 h 00, avec entrée libre dans la limite des places disponibles.

La question des (in)déterminismes est constante dans les sciences. Mais les postures théoriques qui prévalent en ce domaine, qu’elles soient positives (les « faits » de science tels qu’exhibés par certaines interprétations de la physique quantique), ou positivistes (la question est indécidable, elle est « métaphysique »…), ne s’avèrent guère satisfaisantes pour les tenants d’une conception des sciences (i) cherchant à tendre vers l’unité des savoirs, (ii) partageant le point de vue de Meyerson et Quine selon lequel la science et l’ontologie sont co-extensives.

L’objet de ce séminaire n’est cependant pas de prendre une position a priori quant à ces questions ontologiques, mais, selon les intervenants, d’examiner, via les sciences en actes et leurs épistémologies associées, les positions possibles : en faveur du déterminisme, en faveur de l’indéterminisme, ou encore de l’agnosticisme méthodologique.

Parler de « variables cachées » n’implique pas de postuler nécessairement leur existence et leur présence dans toutes les théories envisagées ici. Une des motivations de ce séminaire est de considérer – là où il possible de le faire – la question des (in)déterminismes via celle des variables cachées (ou variables inobservables), de la pertinence de cette démarche consistant à postuler des entités sous-jacentes dans tel ou tel processus physique ou biologique, aptes à rendre déterministes les modèles en jeu. Si c’est au sein de la mécanique quantique que le terme est apparu, d’autres domaines sont aussi concernés : la biologie – au niveau le plus fondamental, la biologie moléculaire ; au niveau le plus étendu, la biologie de l’évolution –, les modèles statistiques dynamiques à variables cachées, etc.

Comme lors des précédents séminaires, nous souhaitons entretenir un dialogue entre les représentants de diverses disciplines des sciences de la nature, des sciences humaines, de la philosophie des sciences. Mais préalablement, nous aurons aussi à définir précisément ce qu’est le déterminisme, notamment en montrant qu’il ne peut être confondu avec le nécessitarisme et le fatalisme. On verra également ses rapports avec des doctrines ontologiques connexes telles que le réalisme, le matérialisme, etc.

Calendrier des séances

Jeudi 1er octobre 2009

Déterminisme, nécessité et contingence au tournant du 18e et du 19e siècles : plusieurs problèmes et orientations à distinguer

François Pépin (professeur agrégé de philosophie, docteur en philosophie)

On parle dorénavant de déterminisme à propos de problèmes très divers, de la question du libre arbitre à la compréhension des phénomènes physiques. Le terme de déterminisme prend alors plusieurs sens et semble parfois revêtir une signification lâche qui l'apparente à la simple nécessité. Cependant, l'origine de la catégorie et du terme de déterminisme en son sens moderne, avec Laplace et Claude Bernard, invitent à plus de précision. Les problèmes du déterminisme en physique et en physiologie ne sont pas ceux du libre arbitre, et la nécessité invoquée par des philosophes comme ceux des Lumières est souvent peu déterministe. Certaines ambivalences du déterminisme bernardien suggèrent même rétrospectivement une distinction entre certains penseurs de la nécessité et les déterministes. Il faut donc distinguer le déterminisme et la nécessité, tout en précisant plusieurs sens pour chacun de ces termes notamment dans leur rapport à la contingence. Notre but sera de clarifier la question du déterminisme en distinguant les problèmes et les orientations à partir d'un regard historique.

Jeudi 5 novembre 2009

Les approches évolutionnistes pour comprendre les déterminismes des concepts scientifiques : l’exemple de la « génération spontanée »

Pascal Charbonnat (enseignant, docteur en épistémologie et histoire des sciences)

La question du déterminisme des concepts scientifiques s’est longtemps focalisée sur l’opposition entre le rationalisme et le relativisme, ou l’internalisme et l’externalisme. D’un côté, il s’agissait d’expliquer la formation des concepts par la logique d’une pensée ou de la découverte scientifique. De l’autre, les conditions sociales et historiques étaient convoquées pour comprendre comment certaines idées étaient apparues dans le temps. Les deux approches ne manquent pas de solides arguments, et il semble préférable de chercher à sortir de cette opposition, plutôt que d’espérer la victoire d’un camp sur l’autre. L’approche évolutionniste pourrait être une hypothèse prometteuse, notamment depuis ses applications récentes aux phénomènes culturels, dans le sillage de Dawkins, Sperber et de nombreux autres chercheurs.

Si l’on considère que l’histoire des concepts peut se faire dans le cadre d’une théorie de l’évolution, alors se posent différentes questions relatives à la légitimité et à l’intérêt d’une telle démarche. Il faut s'interroger sur ce qui détermine un concept scientifique, en s’intéressant à ses procédures de sélection au cours de son histoire. Les concepts sont-ils des objets susceptibles de variations qu’il serait possible de suivre dans le temps à travers des énoncés ? Peut-on envisager une forme de reproduction entre les concepts, nécessaire à l’établissement d’un lien de filiation entre eux ?

Le concept de « génération spontanée » offre plusieurs avantages pour aborder ces problèmes. Il a eu une extension dans un champ disciplinaire bien délimité et, surtout, son apparition et son extinction sont aisément repérables dans les énoncés scientifiques. Il convient donc d’examiner si les diverses formes qu’il a prises dans le temps peuvent être décrites au moyen d’une phylogénie. Elles sont l’occasion d’évaluer si les concepts scientifiques possèdent des modes de reproduction et de variation spécifiques. Nous présenterons d’abord les différentes approches évolutionnistes contemporaines appliquées aux objets culturels, et leur traitement particulier des concepts scientifiques. Puis nous les confronterons au cas du concept de « génération spontanée » pour évaluer leur pertinence et leurs limites. Enfin, nous proposerons quelques pistes pour aller vers une théorie de l’évolution des concepts scientifiques, étant entendu que celle-ci constituerait un modèle, ou la représentation la plus générale, de leurs multiples déterminismes.

Jeudi 3 décembre 2009

Darwin joue-t-il aux dés ?

Christophe Malaterre (philosophe, chargé d'enseignement, Université Paris 1-Panthéon Sorbonne et IHPST)

La théorie de l’évolution naturelle est une théorie probabiliste. Quelle est l’origine de ce caractère stochastique ? Faut-il y voir l’influence d’un indéterministe de la nature ou bien, au contraire, la marque de nos limites épistémiques ? Dans cette intervention, je propose de passer en revue les principaux arguments échangés dans un débat récent en philosophie de la biologie, qui s’est rapidement polarisé entre ces deux thèses extrêmes. Je défendrai alors la thèse selon laquelle la question de l’origine du caractère stochastique de l’évolution n’est pas une question de « tout ou rien » mais plutôt de « degrés », liée en particulier à la question de la contribution relative des différents facteurs de l’évolution.

Jeudi 7 janvier 2010

L’enjeu de la question de l’interprétation de la physique quantique : déterminisme, ou réalisme ?

Michel Paty (physicien et philosophe, directeur de recherche émérite au CNRS, REHSEIS)

La question de l'interprétation de la mécanique quantique s'est posée dès son établissement comme théorie du domaine quantique, vers 1927. Il vaudrait d'ailleurs mieux dire “comme cadre théorique (et conceptuel)” du domaine quantique, domaine caractérisé par des phénomènes spécifiques qui échappaient aux théories de la physique classique. Car, au fil des avancées de la connaissance de ce domaine depuis cette époque pionnière, la théorie quantique s'est considérablement transformée. Sa prise en compte de la dynamique des interactions, notamment sous la forme de la théorie quantique des champs, a grandement modifié son contenu théorique ; toutefois le cadre conceptuel et théorique élémentaire est resté le même que celui de la mécanique quantique au sens propre. La théorie quantique actuelle repose toujours sur le “formalisme mathématique” (selon l'expression usuelle) de la mécanique quantique, augmenté de nouvelles constructions. Les “problèmes d'interprétation” continuent donc d'être posés, même si la pensée physique s'est modifiée, en fonction des progrès accomplis par cette science, en transformant d'ailleurs, d'une manière ou d'une autre, les conditions de son intelligibilité ainsi - éventuellement - que les conceptions sur celle-ci.

Il est possible de rendre synthétiquement la leçon de ces modifications en proposant que, en ce qui concerne la théorie proprement dite, l'on est passé de la conception initiale d'un “formalisme mathématique” (pour des données d'observation) à celle, plus adaptée aux connaissances acquises, de “théorie physique” (mathématisée) pour des systèmes et des phénomènes physiques. Et que, concernant le domaine phénoménal (le “domaine quantique”), l'on est passé de la préoccupation pour le “percevoir” (marquée par la mise au premier plan de l'observation) à la pré-éminence du “concevoir”, qui correspond au dépassement de l'observable par l'intelligible. Ce changement de la référence pour la théorie ramène au premier plan l'importance des concepts, qui était naguère de mise pour une théorie physique (selon la physique classique et la théorie de la relativité).

Cette mise perspective de la fonction de la théorie quantique à partir des développements récents peut être confrontée aux débats traditionnels sur l'interprétation de la mécanique quantique. Il semblait alors à beaucoup que l'enjeu central en était le déterminisme et la causalité. D'autres insistaient sur la possibilité ou non de continuer à penser  en termes de “réalité physique”. Les deux considérations étaient souvent mêlées, par un effet de confusion qu'il est possible de démêler en examinant la pensée des probabilités relativement au domaine ainsi que les attendus du “problème de la mesure”. Mais il est aisé de voir que, dans le débat entre Bohr et Einstein (le “débat du siècle”), la question fondamentale était bien celle de la réalité, le déterminisme n'étant qu'au second plan (d'autant plus que la notion apparaît ambigüe). Deux concepts centraux y étaient impliqués: celui de “système physique réel individuel” et celui de “réalité locale”, autrement dit, l'individualité et la localité, qui seraient attribuables ou non aux systèmes physiques étudiés.

Les prolongements ultérieurs de ces questions sur la physique quantique (sur sa nature et sur sa portée), notamment la possibilité d'effectuer des expériences de grande précision sur des système quantiques relativement simples (réalisant pratiquement ce qui n'était concevable à l'époque qu'à titre d'“expériences de pensée”), ont permis de préciser la signification de ces concepts et de trancher quant à leur pertinence en physique quantique: elles ont dit oui à l'individualité, non à la localité. Ces prolongements ont aussi permis de relativiser l'importance du “problème de la mesure”, montrant les limites du point de vue observationnaliste, et de rétablir dans les faits la catégorie d'“objet” (au sens d'“objet de la description théorique”) moyennant une adaptation critique (au moyen de la pensée théorique quantique elle-même) de ce qu'il est possible d'entendre par là.

Ainsi, la clarification, du double point de vue physique et épistémologique,  du statut de la théorie quantique et de son objet semble bien délier la physique quantique de la connexion trop étroite qui avait longtemps été entretenue pour elle avec une philosophie particulière de la connaissance et de ses limites (de l'observationnalisme à l'anti-réalisme).

Jeudi 4 février 2010

La question des (in)déterminismes en sociologie de la connaissance

Dominique Raynaud (maître de conférences en sociologie à l'Université Pierre-Mendès-France, Grenoble)

La première sociologie a souvent adhéré au déterminisme en prenant la physique du XIXe siècle pour modèle. Ce temps est révolu. La sociologie contemporaine est-elle pour autant condamnée au probabilisme? Le probabilisme présente l’avantage d’être a priori mieux ajusté à la liberté individuelle, et de ne même pas démentir l’existence de lois en sociologie (les lois de puissance, par exemple), empiétant ainsi sur les attributs traditionnels du déterminisme. Mais au-delà, reste-t-il une place pour le déterminisme en sociologie ? J’examinerai trois cas. (1) Le déterminisme des modèles. Une simulation déterministe de la diffusion de l’optique dans le réseau des universités médiévales fait apparaître des effets de concentration en Italie centrale, là où la perspective a été inventée. Le modèle opère une simplification satisfaisante (tant que l’écart entre le modèle et la réalité est perçu). (2) Le déterminisme négatif. Le fait de disposer de connaissances optico-géométriques n’engage pas à leur application. En revanche, ne pas en disposer détermine strictement l’absence de perspective. (3) Le déterminisme positif. Jugeons de ce dernier cas par la possibilité de prédictions basées sur des lois. Que dire alors du succès de la prédiction du cosmopolitisme de Cambridge, basée sur la loi cosmopolitisme/proximité dans le réseau des universités médiévales?

D. Raynaud, La Sociologie et sa vocation scientifique (Paris, 2006) ; Optics and the Rise of Perspective. A Study in Network Knowledge Diffusion (Oxford, sous presse).

Jeudi 4 mars 2010

Mécanique quantique : Et si Newton, Einstein et de Broglie avaient aussi raison ?

Michel Gondran (mathématicien, président de l'Académie Européenne Interdisciplinaire des Sciences et Université Paris Dauphine)

La synthèse entre mécanique quantique (MQ) et relativité générale (RG) reste impossible tant que l’interprétation des équations de la RG est déterministe et celle de la MQ indéterministe. Au lieu de rendre indéterministe la RG, le plus simple (rasoir d’Occam) est de chercher une interprétation déterministe de la MQ. Nous montrons qu’un approfondissement de l’interprétation de Broglie-Bohm est aujourd’hui le candidat le plus probable.

On démontre d’abord que pour des particules libres dans le vide, l'interprétation de Broglie-Bohm de l'équation de Schrödinger dépendante du temps s'impose en même temps que l’introduction  de particules indiscernées en mécanique classique (qui résoud de plus le paradoxe de Gibbs). Cette interprétation s’étend aux particules non liées pour lesquelles le potentiel peut être considéré comme classique, mais aussi aux particules intriquées de l'expérience EPR-B.

Pour les particules liées soumis à un champ classique, on doit remettre en cause, comme on le fait en électrodynamique quantique, l'équation de Schrödinger pour la description des transitions entre les niveaux. L'interprétation de Broglie-Bohm de l'équation de Schrödinger dépendante du temps est dans ce cas à rejeter. Pour les états stationnaires de l'équation de Schrödinger, l'interprétation de Broglie-Bohm ne s'impose pas théoriquement. Des interprétations déterministes alternatives sont proposées, comme les interprétations de Schrödinger et de Bohr-deBroglie que nous introduisons. Ces variantes sont compatibles avec la quantification de la lumière, la théorie de l'atome habillé et l'électrodynamique quantique.

Jeudi 1er avril 2010

L’indétermination est-elle nécessaire à la liberté ?

Edouard Guinet (professeur agrégé de philosophie)

Les philosophes ont souvent traité le problème de la liberté en partant de ses conséquences : si l’homme est déterminé dans sa conduite, alors il ne peut être jugé responsable de ses actes – il fallait donc, pour sauver la morale et l’ordre social, qu’à tout prix l’homme fût libre…  Mais, pour reprendre la formule de Spinoza, en procédant de la sorte, on demandait à la nature tout entière de se prêter à notre délire. Il est évidemment de meilleure méthode de partir d’une compréhension générale de la causalité, telle que la théorisent les sciences de la nature, pour voir ce qu’il en est de l’homme. Mais il serait puéril de penser qu’on aurait réglé, par ce seul rapatriement de l’homme dans le règne physique, la question de la liberté : le sens de ce mot reste encore à chercher. Dans le champ même de la physique, la théorie quantique est communément tenue pour avoir réintroduit une part d’indéterminisme au fondement du réel ; on verra, avec le cas de John Searle, que cet indéterminisme a pu être employé, au sein même d’une approche naturaliste de l’esprit, pour plaider en faveur d’une liberté qui procéderait « par sauts ». Nous argumenterons au contraire, nous appuyant sur les observations du philosophe Ted Honderich, que (a) l’interprétation indéterministe de la physique quantique n’est précisément qu’une interprétation, et à ce titre contestable ; que (b) la liberté peut être définie autrement que comme le clinamen d’Epicure.

Jeudi 6 mai 2010

Aspects des déterminismes en sciences sociales

François Athané (professeur agrégé de philosophie, docteur en philosophie)

On s’efforcera de faire le point sur quelques-unes des controverses auxquelles ont donné lieu la notion de déterminisme en sciences sociales. Il s’agira de retracer la genèse d’une conception déterministe dans quelques écrits fondateurs des sciences sociales, par exemple le texte de Durkheim sur le suicide. On s’attachera ensuite à identifier les termes des débats, naguère vivace en histoire ou en anthropologie, autour de la thèse marxiste d’une détermination de l’ensemble des phénomènes sociaux par les données techniques et économiques. Il faudra enfin clarifier la question de savoir quel est le statut des déterminismes en sciences sociales : s’agit-il d’un résultat ou d’un postulat de l’investigation scientifique des phénomènes sociaux ?

Mercredi 3 juin 2010

L’ontophylogenèse. Biologie, déterminisme, probabilisme

Jean-Jacques Kupiec (biologiste, Centre Cavaillès)

Lieux

  • 29 rue d'Ulm, 3e étage, Centre Cavaillès
    Paris, France

Dates

  • jeudi 03 décembre 2009
  • jeudi 07 janvier 2010
  • jeudi 04 février 2010
  • jeudi 04 mars 2010
  • jeudi 01 avril 2010
  • jeudi 06 mai 2010
  • jeudi 03 juin 2010

Fichiers attachés

Mots-clés

  • déterminismes, indéterminismes, sciences, hasard, probabilités, évolution

Contacts

  • Charbonnat #
    courriel : pascal_charbonnat [at] hotmail [dot] com

URLS de référence

Source de l'information

  • Pascal Charbonnat
    courriel : pascal_charbonnat [at] hotmail [dot] com

Pour citer cette annonce

« Un univers de variables cachées ? (2009-2010) », Séminaire, Calenda, Publié le lundi 09 novembre 2009, http://calenda.org/199470