HomeOne-Day Conference "Simplexity"

HomeOne-Day Conference "Simplexity"

One-Day Conference "Simplexity"

Journée « Simplexité »

Simplicity and Complexity of the Living Being: the Gesture

Simplicité et complexité du vivant : le geste

*  *  *

Published on Wednesday, September 01, 2010

Abstract

Journée « Simplexité » au Collège de France 20 Sept 2010 de 9h à 18h salle 4 : atelier avec exposés et débat autour de « La simplexité » , Alain Berthoz (2009) ; concert de musique de chambre du XXe s. (Schönberg, Stravinsky) dir. Serâ Tokay : www.tokayfilarmoni.com; www.seratokay.com

Announcement


    1.    Dans divers secteurs des sciences biologiques, on peut noter la récurrence d’un ancien paradoxe : la « simplicité » – réelle ou apparente – des solutions du vivant aux problèmes que la « complexité » de l’environnement (externe et interne) pose pour sa survie (Uri Alon, Nature 2007 ; Alain Berthoz, La simplexité, 2009 ; Leland H. Hartwell et al, Nature 1999 ; Ron Milo et al. Science 2002, 2004 ; Tal Kenet Nature 2003 ; Kestutis Kveraga et al. 2007 ; Hishshi Ohtsuki et al. Nature 2006). Cette nouvelle tendance peut se concevoir comme tentative de réponse à une difficulté que crée la multiplication des niveaux d’analyse. De la psychophysiologie de la posture et du comportement (voire de l’écologie de l’Umwelt) à la cartographie du cortex cérébral et à la biochimie des molécules, nos modes d’approche tendent à une spécialisation toujours plus poussée et telle qu’à chaque niveau le progrès de la recherche ouvre sur une complexité sans limites. Sans parler de l’intrication buissonnante des relations entre ces niveaux, relations qu’on découvre ne pas être seulement hiérarchiques, ascendantes ou descendantes, mais aussi hétérarchiques.

    2.    La difficulté, sans doute, est d’abord de nature épistémologique : le défaut d’un discours intégrateur capable d’articuler les uns avec les autres cette variété d’aperçus partiels en une conception unitaire du vivant devient moins tolérable à mesure qu’ils se multiplient. Mais elle n’est pas limitée à l’épistémologie, car personne ne croit que la vie a évolué de manière à ce que son fonctionnement nous devienne intelligible. La difficulté fondamentale est de nature ontologique ou ontique : comment des processus, qu’à travers leurs modélisations « sur le papier » nous devinons d’une formidable complexité, ont-ils pu rendre capables les organismes dans la Nature (ou les agents humains dans la société) de faire face en temps voulu aux contraintes du milieu ?  

    3.    Pour les neurosciences cognitives le problème de la connaissance comme recherche de la vérité ne se présente pas sous la forme idéalisée par Descartes dans le Discours de la Méthode et dans les Règles pour la direction de l’esprit. Il est hors de question de vouloir ramener le compliqué au plus simple, afin de repartir du plus simple pour résoudre toutes les difficultés. La raison en est que le problème de la connaissance pour le chercheur se double « du problème de la cognition posé au cerveau », c’est-à-dire de ce que le chercheur interprète en ces termes, tout en se gardant de confondre la cognition avec l’acte de connaître, le cerveau avec un sujet connaissant. Impossible de sauvegarder la réciprocité entre l’analyse en éléments simples et le retour graduel à la complexité initiale par simple renversement de l’ordre de progression. Non seulement parce que les éléments simples appartiennent à d’autres sciences de même que les totalités, respectivement : chimie, physique – économie, sociologie, écologie. Mais, toute tentative de formulation du problème de la cognition cérébrale par analogie avec les conditions générales de la résolution de problème amène à subdiviser l’expérience individuelle en « tâches » distinctes et nous engage dans une énumération des tâches présumées pour le cerveau qui ne peut avoir aucun terme assignable. Comprendre comment il est possible pour l’organisme humain d’avoir un comportement adapté dans un environnement complexe et changeant, cette ambition, si limitée à première vue, est repoussée à une échéance toujours plus lointaine par la multiplication des tâches intermédiaires à accomplir. Le dialogue permanent de la vision ou de la perception et de l’action dans la vie quotidienne, où un même sujet percevant et agissant passe continuellement d’un contexte à un contexte nouveau, nous pose un persistant défi. Témoins : l’écart toujours considérable entre la vision naturelle et « le traitement d’image » des ingénieurs, entre le mouvement humain de la marche et la déambulation des robots, la limitation des robots autonomes à des « petits mondes » sans commune mesure avec l’environnement ordinaire d’un agent humain, etc.     

    4.    Dans la mesure où elle débouche sur un emboîtement sans fin de mécanismes et de fonctionnalités, une  telle multiplication des niveaux d’analyse n’aide guère à comprendre comment il est possible que tout cela apparaisse en définitive de façon « simple » à quelqu’un dans son vécu. Car, quelle que soit la complexité interne que celui-ci recèle en tant qu’organisme, quelle que soit la complexité des lois des systèmes physiques environnants, le vivant est un individu autonome (en particulier une personne) actuellement plongé dans une certaine situation locale, qui se configure pour lui d’une façon typique qui le plus souvent correspond à ses anticipations, une situation aux exigences de laquelle ses capacités ordinaires lui permettent habituellement de répondre de façon relativement satisfaisante. L’adéquation entre la forme anticipée et perçue de la situation et la réponse normalement adaptative du vivant exclut la longue médiation qu’exigerait (d’après l’analogie entre la computation neuronale et le calcul humain) le traitement les unes à la suite des autres de complexités renvoyant en cascade à des complexités toujours nouvelles.

    5.    Qu’un Lebenswelt, monde de vie doué de sens pour un vivant, puisse venir à se manifester au sujet dans l’évidence, que la masse des mécanismes et processus inconscients qui sous-tendent sa vie organique puisse comporter une phase privilégiée telle que la perception consciente et la décision volontaire, que cette phase privilégiée soit en outre constituante pour toutes les autres phases en tant que porteuses de sens, de cela nous nous sommes fait un mystère. Notre science, engagée dans la fuite en abîme vers des niveaux toujours plus profonds de complexités sous-jacentes aux phénomènes, n’a plus de place pour l’idée même de la phénoménalité du vécu. Pour autant, la thèse phénoménologique du caractère originaire du phénomène, à travers la déclinaison variée qu’en donnent les œuvres de Husserl, Heidegger, Merleau-Ponty, etc., doit-elle être tenue pour périmée ?

    6.    N’avons-nous donc rien à redire à ce que dans l’intervalle entre les mécanismes physiologiques du milieu interne, d’une part, et les mécanismes physiques du milieu externe, d’autre part, la perception, l’action, toute cette continuelle interaction perceptive, pratique, affective, etc. entre un sujet percevant et agissant et les autres sujets au sein d’un monde commun qui constitue par son entrelacs le sol solide et permanent du vécu, tende à se réduire sous l’effet d’une sorte de vertige de l’explication à une interface sans épaisseur : insubstantielle, évanouissante, illusoire. « Sauver les phénomènes » : ici la formule ne renvoie pas comme autrefois au rétablissement de la régularité des mouvements des corps célestes malgré les irrégularités observées. Il s’agit plutôt de comprendre comment le vivant a trouvé moyen de ne pas se noyer dans sa propre complexité immanente. Il ne suffira pas de pointer du doigt au cas par cas le procédé appliqué pour résoudre telle ou telle difficulté. Ce qu’il faut ressaisir c’est la méthode générale du vivant pour rejoindre « la clairière de l’être » de l’évidence phénoménale et s’y maintenir fermement.

    7.    Si un paysan du Nordeste brésilien souhaite composer le nom de ses enfants d’un morceau du sien recollé à un morceau du nom de la mère, le fonctionnaire d’état civil ne lui refusera pas l’enregistrement. « La référence des noms propres n’est pas affectée par l’arbitraire de leur composition » : le principe vaut pour les noms de personnes. S’applique-t-il aux expressions de concepts renvoyant à un état de choses abstrait ? Le fait pour un gouvernement d’hésiter entre la rigueur et la relance ne constitue pas une politique originale qu’on puisse désigner du terme composite de « rilance ». Qu’il suffise d’avoir recollé les morceaux des lexèmes ’simplicité’ et ‘complexité’ en ‘simplexité’ pour gagner avec ce néologisme le bénéfice conceptuel de la simplicité tout en sauvegardant l’essentiel de la complexité d’un système biologique, c’est ce que nous ne devrions pas assumer sans un examen approfondi.

    8.    [D’après P. Livet] Plusieurs idées de simplexité semblent être en jeu : il importe de savoir si elles s’accordent entre elles, si elles résonnent les unes avec les autres :

(1)  Un procédé capable de contracter les données multiples d’un problème parce qu’il revient à une situation plus simple (système contractant, point fixe dans l’odorat) ;
(2)  Une mise en perspective qui permette de déployer plusieurs approches comme autant de variantes d’une structure fondamentale (géométrie affine) ;
(3)  La combinaison de plusieurs variables en une seule permettant de traiter le problème dans un espace plus simple – ou de passer du non linéaire au linéaire (poulies pour les muscles de l’œil, grille en triangles pour les repérages, variable complexe qui combine position, vitesse, accélération) ;
(4)  La mise en œuvre de dispositifs qui répondent à un problème de plus grands degrés de liberté, tenant à des contraintes affaiblies (ex: non commutativité, conduction plus rapide pour le pied plus éloigné que la main, etc.) ;
(5)  La modularité (elle simplifie localement, mais pose un problème plus complexe, celui des changements de référentiels appropriés entre modules) ;
(6)  Le réemploi d’une même structure par des variantes pour traiter des problèmes différents (marche et course, mais cela pose le problème complexe de trouver les bonnes variantes) ;
(7)  Le maintien d’une stabilité au sein de l’instabilité d’une dynamique (mais il s’agit de trouver les solutions pour le faire : maintenir la stabilité en rotation de la plateforme de la tête, lier perception, mouvement et usage du mouvement.

8.     Les deux premières formes de simplexité consistent en des réductions de complexité qui auraient du mal et se recharger en complexité. Les deux suivantes posent le complexe comme simple globalement, mais ne peuvent pas non plus retrouver sa richesse (en analysant ce qui a été combiné), ni même retrouver une simplicité moins liée à des contraintes locales. Les deux suivantes partent d’une structure plus simple, mais demandent des transformations ou des changements de référentiels pour rendre compte de la complexité. La dernière pose le problème général, un problème qui a des solutions particulières, bien qu’on ne connaisse pas de stratégie générale pour trouver ces solutions. Il est donc possible qu’une certaine simplexité ne consiste pas forcément à trouver une stabilité dans une dynamique, mais à entretenir des dynamiques qui, si elles pouvaient être globalisées et sommées, donneraient une stabilité, alors qu’en fait, cette sommation n’est pas possible : nous ne disposons jamais à la fois des vertus de la stabilité et de celles de la dynamique, de celles des modules et des changements de référentiels, de la structure de base et de ses transformations. La simplexité, ce jeu de renvois entre la complexité sous-jacente des structures et la simplicité manifeste du geste comportemental (saillance de l’objet perçu, valence affective d’une expression faciale, relation inverse entre  vitesse et courbure de la trajectoire du mouvement biologique, etc.), la simplexité appelle une nouvelle épistémologie : une épistémologie qui rejette la totalisation insensible de l’axiomatique pour mieux éclairer cette mystérieuse capacité du vivant – comme « écart prolongé par rapport à l’équilibre dans une zone de criticité étendue » (Bailly, Longo) – de faire vivre sa propre dynamique constitutive. Mais ici, encore une fois, l’épistémologie renvoie à l’ontologie :

9.     [D’après D. Bennequin] Contrairement au préjugé de la complexité des lois des systèmes physiques, les lois de la physique sont certainement simplexes elles aussi. En effet, à première vue, les phénomènes naturels sont complexes (une pierre qui tombe de la tour de Pise est loin d'être une masse ponctuelle dans un espace vide) ; tandis que la loi est "simple" car elle élimine la complexité en introduisant des symétries artificielles, "simplificatrices" (solution possible des points 1 et 2 ci-dessus). Cependant, en y regardant de plus près, on s’aperçoit que la complexité n’a pas disparu. D’abord, parce que la loi explique au moins en partie le phénomène (comme Hubel et Wiesel expliquent une partie de la réponse des cellules de V1). Mais, surtout parce qu’avec cette loi est opéré un déplacement conceptuel vers un espace de phase, ou au moins une utilisation de la notion de "vitesse" et d’accélération dont l’émergence au cours de l'histoire des sciences a été rien moins que simple. C’est là, un aspect du problème sur lequel la notion de simplexité nous fait avancer : un bon concept (ici en physique) dépasse la complexité sans la nier simplement. La physique ne manque pas d’exemples de changements de niveaux, montrant qu’un milieu complexe, avec une dynamique elle-même on ne peut plus complexe (au sens de Kolmogorov), peut tout de même donner lieu à des évolutions simples (prédits par l’ergodicité, ou mieux, par des "dualités"). On peut penser, mais cela reste à prouver, que l'évolution des organismes vivants procède de la même manière, mais que les outils pour en rendre compte demanderont une extension de la Physique, comme celle qu’a constitué la Chimie (c’était le point de vue de Heisenberg). Encore plus intéressant philosophiquement, la "conceptualisation" en Physique doit sans doute elle-même être incluse dans les processus de "simplexité" de la nature, qui incluent les sociétés modernes d’humains comme ils incluent aussi les facettes des yeux des mouches. 
____________

I. La simplexité (A. Berthoz 2009) – Résumé analytique de l’ouvrage (J.-L. Petit)

1.       Introduction : Alain Berthoz suggère que la complexité de la vie moderne est un défi pour l’individu parce qu’elle impose au cerveau le traitement d’une quantité d’informations excédant ses capacités. À ce défi deux réponses possibles sont évoquées, l’une artificielle, qui consiste à plaquer une simplicité formelle sur la complexité réelle au risque de dénaturer celle-ci, l’autre naturelle, qui est « la simplexité », propriété du vivant de pouvoir réduire sans la dénaturer la complexité des processus de traitement par une combinaison de règles simples.
2.       Chapitre 1 : La simplexité, une propriété fondamentale du vivant. Un essai de caractérisation préalable de la simplexité pour tout le vivant, sans distinction de niveau d’organisation en molécule, cerveau ou organisme, retient l’usage d’un petit nombre de patrons d’interaction semblables, la séparation temporelle des fonctions en modules spécialisés, l’anticipation et la vicariance (au niveau du comportement), ou encore la généralité du codage du mouvement par rapport aux effecteurs moteurs. Ce premier essai manque encore à capturer des principes vraiment communs à tous les niveaux.
3.       Chapitre 2 : Esquisse d’une théorie de la simplexité. La théorie proposée est une liste de principes régissant un processus susceptible d’être qualifié de simplexe. Sont mentionnés : l’inhibition des réflexes par les centres cérébraux des fonctions exécutives ; la sélection des informations pertinentes pour l’action ; la prédiction de la probabilité d’un événement futur sur la base de la mémoire ; l’usage de plusieurs sources d’information ou le détour par des moyens auxiliaires ; le contrôle d’une source d’information par une deuxième ou le changement des points de vues. Le critère d’inclusion dans la liste n’est pas donné, à part que la réunion des processus réalisant ces principes est source de sens pour les actes d’un vivant.
4.       Chapitre 3 : Regard et empathie. Le physiologiste des mouvements oculaires prend la relève : réflexes, saccade et poursuite sont présentés comme des moyens de simplifier l’analyse du monde visuel. Au plan anatomique, la non commutativité des rotations de l’œil est compensée par le maintien de l’axe de rotation dans le plan frontal (loi de Listing). La précocité de la saccade oculaire pallie l’immaturité du développement de la fovéa et de l’appareil moteur chez le bébé. La redistribution d’activation du cortex préfrontal vers des régions postérieures au cours de l’apprentissage de séquences de mouvements oculaires libère le cerveau pour l’apprentissage de nouveaux mouvements. La conscience de soi est rapportée à l’échange des regards entre l’enfant et son image dans le miroir ; l’interaction intersubjective, au fait que l’échange des regards implique maintien du point de vue propre et changement de point de vue. La communication avec autrui est sous-tendue par les neurones de visage du cortex temporal et par les attributions de valeur affective de l’amygdale.
5.       Chapitre 4 : L’attention : « Je choisis, donc je suis ». Les nombreux mécanismes de l’attention sont des solutions trouvées par l’évolution pour configurer l’Umwelt de l’organisme en fonction de ses intentions et buts d’action. Elles sont simplexes parce qu’elles simplifient les rapports entre l’organisme et le monde physique en rendant celui-ci maîtrisable par l’action. Les bases neurales de l’attention témoignent de sa vocation à l’action : l’activation des neurones du champ oculomoteur frontal chez le singe est modulée par le processus de décision de la saccade oculaire vers une cible. Les diverses théories de l’attention, qu’elles la conçoivent comme filtrage ou comme compétition, supposent que les mécanismes attentionnels ont pour fonction essentielle de simplifier la neurocomputation.
6.       Chapitre 5 : Le cerveau émulateur et créateur de mondes. La perception est le produit d’une simulation mentale du comportement des objets par un cerveau qui a internalisé les lois du monde physique et qui entre en résonance avec certaines configurations sensorielles normales douées de sens pour l’organisme. Cette thèse est étayée, entre autres, par la causalité phénoménale de Michotte, le modèle interne de la gravité de McIntyre et al., les affordances de Gibson, les neurones miroir de Rizzolatti et l’empreinte de Konrad Lorenz.
7.       Chapitre 6 : À quoi servent nos sens ? Cette récapitulation de la première partie de l’ouvrage réaffirme que le monde phénoménal est réductible au mode de fonctionnement des neurones. Le sens pour l’organisme résulte de la combinaison par contraction des dimensions spatiales ou synchronisation de l’activité des différents analyseurs sensoriels (voie du « quoi », du « où », amygdale, colliculus…). Ceux-ci réalisent toujours un codage discret fondé sur la stabilisation dynamique de l’agitation des molécules de récepteurs de neuromédiateurs dans la synapse, un mouvement aléatoire. Sous le sens : le hasard.
8.       Chapitre 7 : Les lois du mouvement naturel. En ouverture d’une deuxième partie consacrée au mouvement, sont rappelées les propriétés originales du mouvement naturel : relation entre la vitesse et la courbure de la trajectoire, co-activation des muscles par des synergies déterminées par l’anatomie des projections musculaires des motoneurones, modèles internes des propriétés des membres engrammés dans des réseaux de neurones, représentation perceptive à base d’inférence bayésienne sur l’identité probable des objets perçus, etc.
9.       Chapitre 8 : Le geste simplexe. Développant le rôle déjà concédé au geste dans la rhétorique cicéronienne, la méthode de direction d’acteurs de Meyerhold encadre une phénoménologie du geste comme mode de communication non verbal capable d’élever à l’évidence une situation complexe. Un audacieux précipité renvoie des bras ouverts du Christ en croix et de la position du Bouddha Bhūmisparsa (prendre à témoin la Terre) aux neurones miroir qui associent la production des comportements à la perception des attitudes.
10.    Chapitre 9 : Marcher, un défi à la complexité. L’analyse physiologique de la marche étant guidée par l’idée d’optimisation des ingénieurs en robotique, tous les aspects dégagés par cette analyse peuvent servir à illustrer le principe d’économie de la neurocomputation appliqué au problème que pose au cerveau la locomotion terrestre du corps. Mêmes réseaux neuronaux générateurs de rythmes dans la moelle épinière pour la marche et la course, covariation des angles des bras et des jambes dans un même plan, utilisation de la pesanteur pour le contrôle du mouvement, répertoire de comportements prêts à être déclenchés, changement de référentiel des réflexes en fonction du point d’appui, stabilisation de la tête comme centrale inertielle pour la coordination des membres, trajectoires locomotrices faites de paraboles stéréotypées répondant à des géométries non-euclidiennes, etc.
11.    Chapitre 10 : L’espace simplexe.  La troisième partie de l’ouvrage reprend le thème de la simplexité en considérant les modes de représentation de l’espace dans le cerveau. Les deux versants de la simplexité s’y retrouvent : réduction de complexité d’un côté, accroissement de complexité de l’autre. L’organisation des stimuli sensoriels est réalisée grâce à des cartes topographiques : cochlée, glomérule olfactif, cartes visuelle et motrice du colliculus, carte rétinotopique en roues d’orientation de V1, cellules de place de l’hippocampe, cellules de grilles du cortex entorhinal, etc., enfin homoncule somatomoteur de M1. L’espace, code commun, simplifie. Mais, comment se fait la mise en registre de ces multiples cartes pour la transformation sensorimotrice ? Notre ignorance nous emprisonne dans la représentation.
12.    Chapitre 11 : Espace perçu, vécu et conçu. Pour thématiser la simplexité en elle-même on peut faire appel au mathématicien, s’instruire sur les structures topologiques élémentaires, bases d’engendrement de toutes les formes géométriques, et se dire que ces structures sont peut-être aussi le plan d’organisation du cerveau. Mais on n’aura pas encore ressaisi par là le pouvoir structurant des méthodes géométriques, un pouvoir qui prolonge la capacité du sujet agissant que nous sommes d’élever à l’évidence les configurations signifiantes de l’expérience en s’y projetant de toutes les forces de son corps.
13.    Chapitre 12 : Les fondements spatiaux de la pensée rationnelle. Dans une extrapolation finale de la phylogenèse à l’anthropologie culturelle, l’auteur suggère que les modes d’organisation des relations sociales s’inscrivaient jusqu’à une évolution récente dans le prolongement des stratégies animales de retour au gîte. Mais qu’un dramatique accroissement de complexité de la vie en société menace de submerger les capacités du cerveau humain.
14.    Epilogue : L’architecture urbaine, la musique, la métaphore, la fable, les légendes : de précieux témoins de la tendance du cerveau humain à la simplexité qu’il faut sauvegarder de la simplification à outrance.   

II. Quelques questions à débattre concernant la liste des principes de la simplexité :

1.               Tension entre le principe de modularité et la primauté accordée à l’action par rapport à la sensation, la représentation et la cognition en général. Jerry Fodor, dans The modularity of mind (66) rejette expressément l’idée d’une éventuelle modularité des fonctions motrices ainsi que celle d’une influence motrice sur le traitement perceptif. Les modules sont des systèmes de traitement rapides et superficiels des seuls organes périphériques de la perception. Le comportement moteur est la sortie finale du traitement cognitif central. La prétention de subordonner à l’action le processus perceptif est écartée par Fodor comme « un attachement sentimental » dans la communauté des sciences cognitives pour le mouvement New Look du psychologue Jerôme Bruner de la génération 1970. Fodor a-t-il manqué la généralité du principe modulaire en le limitant aux entrées sensorielles ? Ou bien l’influence rétroactive de la finalité motrice du comportement sur les étapes précédentes de la cognition, en particulier les étapes précoces, ne serait-elle pas solidaire d’une conception du traitement cognitif non linéaire, non segmentaire, non hiérarchique, interactionnelle, en un mot : non modulaire ?
2.               Comment réconcilier la généralisation du principe de l’inférence probabiliste bayésienne comme base de l’anticipation des conséquences futures de l’action et comme estimation de la cause distale du signal sensoriel avec le principe du court-circuit de la détection de la valence du signal dans les voies visuelles auxiliaires (rôle de l’amygdale, du cortex orbitofrontal, etc.) ? Dans Physiologie de l’action et phénoménologie (237) les auteurs affirmaient : « Pour résumer l’essentiel de ce qui précède, les théories représentationnelles, mais aussi les théories de la simulation, partent du présupposé commun qu’une inférence est la condition nécessaire à la reconnaissance d’autrui. Or à la fois les observations des primatologues du début du siècle (Köhler), des psychologues des émotions (Zajonc), mais aussi les observations les plus récentes de la neurophysiologie (Rolls, Damasio, Rizzolatti) suggèrent un autre type de fonctionnement, qui ne passerait pas par des mécanismes de type inférentiel. Zajonc écrivait : Le sentiment et la préférence n’ont pas besoin d’inférence. »
3.               La réduction de complexité est-elle un nouveau principe générateur de différenciation des niveaux d’organisation du vivant (après l’enaction, l’autopoïèse) ou l’instrument d’une réduction moniste à une base élémentaire ultime d’explication physique ? Le discours pluraliste est-il plus qu’une concession provisoire à l’illusion d’autonomie du Lebenswelt par rapport au monde physique ? L’imputation de responsabilité causale des sources « du sens » à des mécanismes sous-jacents est-elle compatible avec la reconnaissance de la relativité du sens – toujours « sens pour… » – à la personne du sujet percevant et agissant, ou à l’organisme centre d’un Umwelt ? Les réticences qu’on peut avoir devant le collapse des propriétés et actions du niveau personnel sur les agents des niveaux infrapersonnels (le cerveau, la cellule, ou la molécule) sont-elles du pédantisme sémantique, ou l’expression d’une exigence d’intelligibilité interne à la raison scientifique ? Réciproquement, une explication qui confond l’explicans avec l’explicandum est circulaire : n’est-ce pas précisément le risque que fait courir aux neurosciences cognitives la contamination de la description phénoménologique de l’expérience vécue par la description du fonctionnement des mécanismes (p. ex. quand les termes « inférence », « computation » ou « simplification de la computation » infiltrent le discours sur la perception) ?
4.               La généralisation de l’idée de simplexité comme simplification de problème suppose qu’à tous les niveaux le schéma : problème – solution est applicable. Plusieurs difficultés à cela. Si l’on admet de considérer comme un « niveau » le plan phénoménal de l’expérience, on y rencontre effectivement des problèmes : c’est même à ce niveau-là uniquement que le terme est employé au sens propre ; mais il serait faux de dire que tout vécu est problème résolu ou recherche de solution à un problème. Si l’on se place au niveau cérébral, parler de problème introduit fatalement un homoncule dédié à la position et la résolution du problème. De  plus, si les psychologues ne travaillent qu’en imposant aux sujets des tâches, c-à-d. des problèmes à résoudre, une analyse quantitative de l’activité cérébrale éveillée a établi que l’essentiel de cette activité est non motivée par une tâche externe et pourrait s’interpréter comme de la rêverie sans objet précis. Enfin au plan synaptique et moléculaire, les processus reposent sur une agitation stochastique de fond, laquelle donne lieu sporadiquement à des formes d’équilibres dynamiques inducteurs des potentiels d’action cellulaire. Rien qui puisse évoquer l’activité hautement déterministe et intentionnelle de la résolution de problème. Reste l’évolution, qui a éliminé la téléologie de la Nature : n’est-ce pas l’y réintroduire que lui accorder le pouvoir de se poser des problèmes, de rechercher et de trouver des solutions ?
5.               « Un cerveau humain est créateur de mondes (221) » ; « Le cerveau « crée des mondes » à partir de son corps en acte dans le monde… (166)» ; « Notre cerveau ne fait pas que simuler la réalité, il émule un monde possible (77) » : ces formules n’ont certes pas la même signification que si l’on disait, carrément : « Mon cerveau crée le monde »  Quelle différence y a-t-il ? La dernière est l’expression d’une naïve ontothéologie phrénologique prise au piège de son propre langage. Le locuteur, disant « Mon cerveau », a déjà fait renvoi au monde ou à un secteur du monde, un monde préexistant, dont sa proposition voudrait néanmoins exprimer le surgissement originaire à partir d’une source absolue. Le cerveau en question est, contradictoirement, à la fois ingrédient du monde et source causale du même monde dont il est ingrédient. Heureusement, la situation épistémologique des neurosciences cognitives apparaît plus saine. Le physiologiste qui dit : « le cerveau », « notre cerveau », « un cerveau humain », se place indiscutablement sur le plan de l’explication, non sur le plan de l’ontologie. Son référent est l’un des nombreux objets de pensée possibles dans la nature, non l’ancrage existentiel de l’être que je suis dans l’horizon de cet englobant absolu qu’est le Lebenswelt. En revanche, l’Umwelt de la tique est un objet d’étude parfaitement respectable, même pour la biologie moléculaire, qui pourra un jour s’enquérir « du fondement moléculaire de la notion d’Umwelt (82) ». Ce qui n’empêchera pas ceux qui s’en tiennent à la seule réalité physique de demander : « Qu’est-ce que le Lebenswelt, sinon l’Umwelt de l’homme ? »...

Programme

De la Simplexité, ou l’Inférence dans la Résonnance

Jean-Luc Petit
Université de Strasbourg & LPPA Collège de France

La littérature sur la cognition est le théâtre d’une controverse opposant le « direct » (perception des états mentaux d’autrui, compréhension des actions d’autrui, empathie, résonnance...) et « l’indirect » (inférence inductive, théorie de l’esprit, modèle interne, modèle bayésien, causalité Granger...). La vigueur de la polémique peut suggérer qu’il existe une irréductible opposition entre des options épistémologiques, voire même des intuitions ontologiques distinctes. Or, il n’est pas certain que les ressources conceptuelles mobilisées par les deux partis soient essentiellement différentes. Au contraire : il apparaît que la distinction, notamment entre l’approche de la « théorie de la théorie » et celle de la « simulation interne », qui continue de faire débat, est une distinction sans réelle différence, vu que les deux approches reposent sur le présupposé d’une cognition essentiellement représentationnelle et computationnelle et qu’elles s’appliquent aux phases complémentaires ou hiérarchiquement ordonnées d’un même processus cognitif. C’est ce que montrent les vicissitudes du paradigme des neurones miroir, tiraillé entre résonnance et inférence. L’idée de simplexité contient-elle une solution de compromis satisfaisante pour les exigences théoriques en présence ?
A. Berthoz, La Simplexité (2009); A. Berthoz et J.-L. Petit, Physiologie de l’action et phénoménologie (2006).

Dualité simple/complexe

Daniel Bennequin
Université Paris VII Diderot, Institut de Mathématiques & LPPA Collège de France

Simplexité et restructuration pertinente

Pierre Livet
Université de Provence
 
Quand on tente de construire une typologie des différentes facettes de la notion de simplexité, il semble tout d’abord qu’on puisse y trouver des dualités. La première est la dualité entre les solutions données à des problèmes, et les problèmes qui guident des solutions. Ainsi la combinaison de plusieurs variables en une seule pour pouvoir traiter un problème dans un espace plus simple est une solution (partielle) à un problème, alors que mettre en œuvre des dispositifs qui permettent plus de degrés de liberté, ou qui admettent la non commutativité, c’est poser un problème qui  nous guide vers un ensemble de solutions. La seconde est la dualité entre une perspective par focalisation sur un état, un point critique ou organisateur – point fixe, système contractant, etc. – et une perspective qui s’élève du focal au générique pour pouvoir réutiliser des opérations similaires selon de multiples variantes (recours à une géométrie affine, par exemple).  La troisième est la dualité entre une perspective qui traite un problème à un seul niveau de formulation (point fixe, espace unique) et une perspective qui fonctionne à un niveau d’emboîtement supérieur (par exemple, la modularité présuppose comme emboîtée la résolution de systèmes avec points fixes, ou avec transitions  critiques, et elle pose le problème de son emboîtement dans d’autres perspectives plus transversales).
Cette typologie a,  grâce à ces dualités, des propriétés intéressantes, puisque l’on peut combiner ces dualités entre elles. Mais elle reste statique. Il est tout aussi suggestif de passer à une vision dynamique de la simplexité, en s’interrogeant sur les transitions critiques qui peuvent amener une réorganisation de la complexité du système nerveux et corporel. Le modèle général semble pouvoir être le suivant. Il est nécessaire de disposer de plusieurs processus qui explorent un espace de possibilités. Il faut ensuite que les interactions avec l’environnement produisent une sorte de cristallisation sur des propriétés saillantes d’une situation. Il y a saillance parce que les propriétés structurelles de la situation provoquent une transition critique dans les interfaces entre différents systèmes de l’organisme – ce que nous nommons, après coup, une évaluation de la situation par rapport à des tendances et besoins de l’organisme. La saillance va donc de pair avec une prégnance. La transition critique déclenche une réorganisation partielle des possibilités dynamiques du système nerveux et de ses extensions corporelles, réorganisation qui est focalisée sur cette saillance prise maintenant comme « solution »,  sur le mode du « supposons le problème résolu ». Le problème en question est alors déterminé en fonction de cette solution, et la réorganisation en cause est ainsi renforcée par rapport à d’autres dynamiques possibles.
Ainsi, au lieu que le système ait à identifier  en quoi la situation  déjà déterminée est pertinente pour la satisfaction de ses besoins – ce qui supposerait l’existence d’un dispositif supplémentaire d’évaluation de la situation en fonction des besoins, en sus du fonctionnement du système d’action – c’est la capacité de la situation – qui comprend la structure de l’environnement et celle des dynamiques du système – à provoquer cette réorganisation focalisée  et sélectionnante – à condition que la sélection ainsi provoquée reste dans le bassin de viabilité du système – qui assure du même coup et l’évaluation et le fonctionnement pertinent. Nous pouvons nommer  « restructuration pertinente » tout ce processus.
Il restera à montrer comment nous pouvons relier la typologie des modes de simplexité et le fonctionnement de leurs dualités avec la dynamique de la restructuration pertinente. On devine assez bien déjà comment cela peut fonctionner – les différentes dualités sont les unes pour les autres des modes de restructuration pertinente – et ce sera le troisième temps de l’exposé.

La complexité du temps et la simplicité de l'action protensive du vivant

Giuseppe Longo
http://www.di.ens.fr/users/longo
LIENS – CNRS & Ecole Normale Supérieure
CREA Ecole Polytechnique
 
L’action du vivant est “simple” car elle est toujours le résultat d’un geste protensif. Ce geste est rendu possible par la rétention d’un vécu qui permet de construire une géodésique relative à l’espace de l’action. Mais le temps du vivant, qui permet ce “présent étendu” par la rétention et la protension, est épistémiquement complexe : pour le comprendre, on doit le représenter dans une variété bidimensionnelle et ajouter à l’irréversibilité du temps physique celle propre à la (re-)construction permanente de tout organisme et à l’asymétrie rétention/protension. On essayera de corréler cette intelligibilité de l’action et du temps avec certains aspects de la “simplexité”.
 
F. Bailly, G. Longo, Mathématiques et sciences de la nature. La singularité physique du vivant, Hermann, Paris (2006, tr. angl. 2010);
F. Bailly, G. Longo, M. Montévil, A 2-dimensional Geometry for Biological Time (2011); G. Longo, M. Montévil, Protention and retention in biological systems (2011).

Identifier des fonctions: une stratégie simplexe pour comprendre notre environnement

Françoise Longy
Université de Strasbourg
 
Aussi bien dans la recherche scientifique que dans la vie quotidienne, nous cherchons souvent à identifier quelle est la ou les fonctions d'un objet, d'un organe, d'un comportement, ou de leurs parties et composants. Pourquoi ? Quel bénéfice cognitif et pratique tirons-nous d'une vision "fonctionnaliste" des choses? Les analyses philosophiques de ces trente dernières années relatives à l'attribution fonctionnelle ont laissé cette question largement sans réponse. Je chercherai à y répondre en montrant qu’identifier une fonction est un principe simplificateur extrêmement puissant dès qu'il s’agit de comprendre et de maîtriser un environnement complexe où le hasard a toujours sa part. En particulier, je montrerai que l’attribution d'une fonction sert à dégager une ligne de force causale à partir de laquelle il devient possible (1) de détecter de nouvelles opportunités ou faisabilités gibsoniennes, (2) d’expliquer la permanence de certaines propriétés en même temps que la plasticité des structures qui la sous-tendent et (3) de prédire de façon fiable, mais non certaine, le futur.

Organisation des complexités par relativisations descriptionnelles

Miora Mugür-Schächter
 
L'on montre très schématiquement comment, dans le cadre de la méthode de conceptualisation relativisée, les complexités peuvent être séparées les unes des autres, organisées et mesurées.
V. Schächter, Complexity Measures Viewed Through the Method of Relativised Conceptualisation, Quantum Mechanics, Mathematics, Cognition and Action: Proposals for a Formalised Epistemology, M. Mugur-Schächter & A. van der Merwe, eds., Kluwer (2003).

Contrôle modulaire d'un système hyper-redondant

Thierry Pozzo
INSERM/U887 Motricité – Plasticité
Université de Bourgogne, Faculté des Sciences du Sport
 
La saisie manuelle et l’équilibre bipédique sont deux fonctions essentielles de la motricité humaine. Néanmoins les mécanismes assurant la coordination et la planification de ces composantes sont mal connus. Parmi les questions non résolues figure celle de savoir si, lors d’une tâche de saisie impliquant tout le corps, le contrôle postural et la saisie manuelle font partie de la même commande ou bien sont contrôlés séparément. Nous montrons dans cette étude que le contrôle postural et la commande assurant le pointage manuel reposent sur une organisation modulaire flexible. Une analyse en composantes principales et des corrélations intersegmentaires est utilisée pour extraire les couplages angulaires locaux et globaux lors d’une tâche de pointage vers une cible nécessitant la flexion du tronc vers la cible. La première étude révèle une organisation simplifiée de la chaîne articulaire redondante dont les articulations co-varient, permettant l’atteinte de la cible et le maintien du centre de masse à l’intérieur de la base d’appui. Dans la seconde étude, la trajectoire du centre de masse et du doigt sont contraints en demandant au sujet d’atteindre la cible depuis une position debout sur un support réduit, ou bien en conservant les genoux tendus ou enfin en déplaçant le doigt selon une trajectoire imposée droite ou exagérément courbe. La co-variation angulaire enregistrée en condition nominale est robuste aux contraintes d’équilibre. En revanche lorsque la contrainte est appliquée sur la trajectoire du doigt, la structure de coordination est décomposée en deux modules correspondant à une dissociation bras/tronc et jambe, dont l’un est dépendant et l’autre indépendant de la tâche. Les résultats d’une simulation numérique supportent l’hypothèse d’une intégration des modules posturaux et focaux au sein d’une même commande, et suggèrent l’existence de primitives nominales stables et robustes pouvant être combinées ou séparées selon l’ajout de contraintes ou encore complétées par des modules secondaires.

Simplexité du geste dans la direction d’orchestre mode de communication non verbal

Jean-Luc Petit
Université de Strasbourg & LPPA Collège de France

En prélude au concert dirigé par Serâ Tokay, j'envisage de présenter la direction d'orchestre comme contre-exemple à la théorie selon laquelle les capacités humaines de contrôle volontaire de tâches multiples seraient limitées à 2 tâches simultanées (Koechlin et al. Science 2010). Normalement nous appliquons nos capacités de contrôle volontaire à une tâche unique. Si nécessaire, la responsabilité de la fonction de contrôle assurée par le lobe frontal pourrait éventuellement être répartie sur les deux hémisphères cérébraux pour permettre la poursuite de deux buts distincts. Mais le fait d’attribuer des ressources cérébrales à la tâche primaire en attendant la réalisation de la tâche secondaire représenterait déjà une gêne pour l’accomplissement de cette tâche secondaire. Et au delà de deux tâches nous serions de plus en plus mauvais. Je soupçonne que cette théorie est obnubilée par l’anatomie grossière du cerveau : nous avons deux hémisphères cérébraux, pas plus, donc nous pouvons contrôler deux tâches et pas plus! Cette théorie ignore les ressources de plasticité fonctionnelle induites par l’apprentissage, notamment dans la pratique artistique. Très généralement cette pratique revient à déconstruire des synergies naturelles (l’opposition des deux mains) pour les remplacer par des configurations motrices qui sont des montages artificiels stabilisés par l’apprentissage (indépendance des mains, déliage des doigts, etc.). On donnera des exemples dans la direction d'orchestre de la mobilisation des capacités de contrôle volontaire du chef d'orchestre par plus de deux tâches en même temps, ou plutôt par plusieurs tâches échelonnées dans une temporalité stratifiée où l’anticipation naturelle perfectionnée par la pratique artistique joue un rôle déterminant.
L. Fadiga, Yi Li, J.-L. Petit, S. Tokay, Projet SIEMPRE – Social Interaction and Entrainment using Music PeRformance Experimentation (recherche en cours).

Subjects

Places

  • 11 place Marcelin Berthelot (Collège de France, salle 4)
    Paris, France

Date(s)

  • Monday, September 20, 2010

Keywords

  • simplicité, complexité, résonnance, inférence, geste, communication

Contact(s)

  • Jean-Luc Petit
    courriel : jeanluc [dot] petit [at] unistra [dot] fr

Reference Urls

Information source

  • Jean-Luc Petit
    courriel : jeanluc [dot] petit [at] unistra [dot] fr

License

CC0-1.0 This announcement is licensed under the terms of Creative Commons CC0 1.0 Universal.

To cite this announcement

« One-Day Conference "Simplexity" », Study days, Calenda, Published on Wednesday, September 01, 2010, https://calenda.org/201709

Archive this announcement

  • Google Agenda
  • iCal
Search OpenEdition Search

You will be redirected to OpenEdition Search