HomeArtificielles intelligences

Artificielles intelligences

Revue « Tétralogiques », numéro 32

*  *  *

Published on Tuesday, March 10, 2026

Abstract

Que sont ces Intelligences Artificielles (IA) qui prennent depuis quelques années une place grandissante dans la vie de tout un chacun ? Et que peuvent en dire des sciences humaines ? Le numéro 32 de Tétralogiques se propose d’examiner ces questions en privilégiant les concepts d’une anthropologie clinique, connue également sous le nom de théorie de la médiation, et créée par le linguiste et épistémologue Jean Gagnepain (1982, 1991, 1994). Le propos est d’aller au-delà des déjà nombreuses études portant sur les usages des IA ou sur les questions d’ordre éthique qu’ils suscitent.

Announcement

Argumentaire

Que sont ces Intelligences Artificielles qui prennent depuis quelques années une place grandissante dans la vie de tout un chacun ? Et que peuvent en dire des sciences humaines ? Le numéro 32 de Tétralogiques se propose d’examiner ces questions en privilégiant les concepts d’une anthropologie clinique, connue également sous le nom de théorie de la médiation, et créée par le linguiste et épistémologue Jean Gagnepain (1982, 1991, 1994). Le propos est d’aller au-delà des déjà nombreuses études portant sur les usages des IA ou sur les questions d’ordre éthique qu’ils suscitent. Il s’agit de se pencher sur ces IA pour tenter d’expliciter les processus logique, technique, sociologique et axiologique qui les expliquent. Alors que pour les sciences, quelles qu’elles soient, la définition de l’objet est primordiale, nous observons en particulier que la majeure partie des termes employés au sujet des IA restent flous. Les nombreuses imprécisions que cela génère grèvent selon nous sérieusement la compréhension que l’on peut en avoir analytiquement. Nous proposons donc d’engager la réflexion autour de trois volets.

1. La boîte de Pandore

Les intelligences artificielles génératives, dans la plupart des discours tenus depuis sa diffusion auprès du grand public semblent alimenter principalement deux types de propos axiologiques, inverses l’un de l’autre, qui les feraient relever du pharmakon (Derrida, 1968, Stiegler, 2007, Lefort 2023) : d’une part, un enthousiasme suscité par les possibilités vertigineuses offertes par ces technologies qui promettent une augmentation exponentielle de la productivité et de la croissance humaine ; tel un outil intellectuel total (Amodei, 2026) qui permettrait de dépasser les limites humaines dans la plupart des domaines, alimentant des fantasmes séculaires de toute-puissance ; d’autre part, une angoisse occasionnée par les conséquences notamment sur le plan sociologique (perte de responsabilité professionnelle dans les champs de l’éducation, de la médecine, de l’art, etc.). Le choc produit par l’irruption de cette nouveauté, aux potentialités difficiles à envisager avec précision, fait redouter des risques d’abus de pouvoir, si ce n’est d’asservissement (Sadin, 2025). Faut-il aller jusqu’à craindre la disparition pure et simple, si ce n’est de l’humanité, du moins du sens de l’existence humaine (Amodei, 2026, Boullier, 2025) ?

Il s’agit d’expliquer ces propos. Constatant la profusion des données, Chris Anderson (2019) estimait qu’elle rendait obsolète toute méthode scientifique. La seule issue pour la science serait alors d’en rester à l’empirisme. Peut-on soutenir que des modèles s’effaceraient au regard de l’efficience pragmatique/performantielle de résultats probabilistes obtenus par les IA ? Les sciences humaines ont pourtant toute légitimité pour questionner les principes anthropologiques à l’œuvre dans les formulations mobilisées pour parler de l’IA, dans l’artificialité technique qu’elle produit, dans les changements personnels et sociaux qu’elle induit, ainsi que dans les principes éthiques et moraux impliqués par son emploi.

Depuis l’avènement de la cybernétique (Wiener, 1948) comme « art de gouverner », les « machines représentationnelles » seraient des « machines décisionnelles ». Il s’agit en effet de décisions qui produisent de façon statistique les résultats escomptés – texte, image, son, plus ou moins « assisté » par l’humain. Qu’en est-il de ce point de vue de la dissociation entre fin technique et finalité axiologique, trop souvent confondus ? (Gagnepain, 1982). Le processus décisionnaire, d’ordre axiologique, est à interroger, en lien avec le risque de la perte de responsabilité sociale que peut entraîner le développement de l’IA et de ses usages. Des questions se posent également à la frontière de la sociologie et de l’ergologie (une science de l’outil). La différence entre l’IA et la robotique reposerait-elle par exemple sur l’absence d’« incorporation » ? La réponse interroge ici la dialectique de la personne entre incorporation et altérité. Il s’agira alors d’analyser les raisons qui poussent certaines personnes à projeter sur la machine une altérité inexistante, ou à utiliser l’IA en substitution d’un « psy », par exemple.

Alan Turing (1950) avait posé comme critère permettant de distinguer la performance d’un être humain de celle d’une machine le fait que cette dernière serait incapable de dépasser le stade de l’imitation d’une production humaine. Les chatbots n’imitent pas mais répondent aux questions en comparant des requêtes aux informations contenues dans une « base de connaissances ». Ces robots sont-ils pour autant capables de « comprendre » la spécificité, voire la complexité, de la situation dont vous relevez ? Les algorithmes dénommés « agents conversationnels » disposeraient-ils de compétences comparables aux acteurs sociaux ? La confusion entre les fonctions ou rôles artificiels et humains se pose, y compris dans les fonctions gouvernementales (autocratiques ou non) qui recourent massivement à des algorithmes (rapport de l’institut de recherche suédois V-Dem, 2025). Les institutions publiques, ou des entreprises, ont adopté une vision économique qui s’est parfois servie également de l’alibi des technologies numériques pour faire passer une administration gestionnaire, sous prétexte de modernisation, d’adaptation au changement ou de nécessité de « digitalisation ».

Tous les métiers qui comportent une part de traitement informatisé de l’information, de la mise en page à la création de contenus, sont désormais concernés par l’arrivée d’outils numériques alimentés par des intelligences artificielles. S’il ne faut pas confondre les « jeux de données » (datasets) et la connaissance scientifique, ni la réponse à une commande (prompt) exécutée par un robot conversationnel avec un savoir, l’intelligence artificielle générative de contenus (IAGC) bouleverse cependant le rapport au savoir et à la connaissance, dans tous les secteurs et les métiers qu’exercent les êtres humains. Cela entraine d’ores et déjà une mutation profonde de l’auctorialité du texte, ou de tout autre production dès lors qu’elle est techniquement produite (qu’elle soit de nature scientifique, artistique, administrative, etc.).

2. Le génie dans la lampe

Le concept d’intelligence artificielle nous semble être le fruit d’un anthropomorphisme qui dépasse la seule question sociologique de la personne puisqu’il se manifeste dans toutes les dimensions de l’humain au sujet des « machines pensantes » (Turing, 1950) – à l’exception, ironique, de la technique elle-même.

De quelle intelligence s’agit-il ? Le concept d’intelligence apparaît confus car il relève probablement de plusieurs déterminismes. Pour un francophone, la traduction du terme « intelligence » depuis l’anglais est ambiguë : information ou smartness ? L’IA présente-t-elle cette smartness à laquelle l’humain aspirerait ou bien n’est-ce qu’un « perroquet stochastique » (Bender et al., 2021) ? Lors de la conférence fondatrice de l’intelligence artificielle, organisée à Darmouth en 1956 (McCarthy et al., 1955), c’est le processus logique humain de production de l’information qu’il était initialement question de modéliser. En quel sens peut-on dire que les IA « comprennent » (ou pas) ce qu’« elles » font ? La réponse dépend de la définition que l’on donne aux termes d’« intelligence », de « comprendre » ou de « faire ». Il s’agira donc d’interroger dans quelle mesure il est possible d’établir, ou non, une parenté avec les processus humains de compréhension.

Un autre des concepts clefs mis en avant pour expliquer les performances des modèles d’intelligence artificielle est celui d’apprentissage. De quoi s’agit-il ? Les IA sont réputées être capables « d’acquisition » de nouvelles « connaissances » par entraînement, ce qui les conduiraient même à « apprendre par eux-mêmes » (Cf. le jeu de go, les échecs ou la physique de l’atmosphère). Mais dans quelle mesure est-il possible de tisser un lien avec ce que la notion recouvre pour les êtres vivants, humains et autres animaux ? Dans quelle mesure, par ailleurs, les modèles d’IA prédictifs, en particulier ceux de type AlphaGo, étendus à de nombreux domaines, ont-ils un fonctionnement différent des LLM (Large Language Models) ? Ils tireraient eux-mêmes des « lois » structurelles à partir des données, et non à partir d’algorithmes très élaborés, leur donnant la possibilité, à l’occasion, de développer des stratégies créatives mais peu intuitives pour les humains (Mallat, 2025).

La question est de savoir s’il faut s’attacher aux résultats, ou aux performances, ou à l’analyse des processus qui les produisent. La différence entre les deux n’est pas forcément évidente alors qu’elle apparaît fondamentale. Concernant les IA, ce sont les « résultats » obtenus, observables « extérieurement », qui comptent, sans que l’on dispose forcément d’un critère valide pour statuer sur leur identité/unicité logique ou non. La question devient alors essentielle lorsque sont évoquées les performances humaines dépassées par l’assistance d’un équipement faisant appel à des algorithmes fondés sur l’IA : dans quelle mesure les résultats comparés n’aveuglent-t-il pas sur la nature des processus en jeu ?

Dans le champ de l’expérimentation scientifique, la distinction entre simulation et reproduction pose aussi une question épistémologique cruciale car la reproduction d’un protocole expérimental est la condition de non-invalidation des résultats produits dans les sciences de la nature alors que la simulation est posée comme le critère discriminant du test de Turing. C’est l’antagonisme de ces deux approches dont il faut désormais interroger la pertinence pour espérer pouvoir comprendre et expliquer les phénomènes respectivement naturels et humains.

3. L’éléphant dans la pièce

Les ingénieurs qui élaborent les programmes d’intelligence artificielle et les machines qui les exploitent « ont l’ambition de mettre les humains au repos : ils fabriquent du loisir, développent des outils de travail efficaces, rapides, fiables et constants, nous dispensent d’opérations qui prennent beaucoup de temps, qui sont fastidieuses, coûteuses ou faciles à rater par inadvertance et fatigue (…). Leur objectif est de reproduire nos performances, aussi bien que possible, en les optimisant : il faut que “ça marche”. Et ça marche, remarquablement bien » (Schotte, 1997). Cela rappelle que les IA sont avant tout des produits techniques – des « artifices » –, et de ce fait ressortissent in fine et fondamentalement au même processus rationnel qui rend possible l’existence de toute production humaine (au sens d’artificielle). La physique elle-même est fondée sur la technique qui donne du grain à moudre à une conceptualisation elle-même largement mathématisée, c’est-à-dire technicisée, comme le rappelle la phénoménotechnique (Bachelard, 1931, 1938).

Les modèles informatiques reposant sur une IA obligent à rendre compte de la dimension spécifiquement technique qui la compose. Sans se limiter à la robotique, l’étroite solidarité entre les équipements, les programmes et les réseaux informatiques rappelle que les phénomènes « numériques » impliquent nécessairement une technique qui inclue une analyse de la « matérialité » et de la « finalité » (Couty 2018, Le Guennec et Lefort, 2022). Si l’artificialité des productions peut aisément être établie, il n’est pas acquis pour autant que les déterminations techniques induites dans les résultats obtenus aient été véritablement explicitées. Cette « intelligence » que l’on prête aux algorithmes, sur la base d’une performance finale ressemblante empiriquement, néglige par exemple le fait que la machine et le programme étaient déjà le résultat d’une production humaine technique. « La machine » n’est en définitive rien d’autre qu’une production humaine. Qu’est-ce qui peut alors laisser penser à une dichotomie entre l’humain et sa créature ? Pourquoi refuser les analogies entre l’IA et les autres domaines techniques ? L’hypothèse médiationniste d’un rapport au loisir de l’outil peut être éclairante pour y répondre.

Modalités de contribution

Contributions attendues

Les textes mobiliseront les concepts issus du cadre théorique de l’anthropologie clinique ou, à défaut, d’autres concepts qui démontrent leurs valeurs heuristiques pour répondre aux questionnements posés par le thème du numéro. Les articles pourront s’inscrire dans différents champs scientifiques, disciplinaires ou professionnels : sciences du langage, glossologie, arts, ergologie, sociologie, axiologie, droit, philosophie, psychologie, psychiatrie, psychanalyse, économie, etc.

Calendrier

La première version du texte (50 000 caractères, espaces compris) devra être envoyée à la rédaction pour le vendredi 10 juillet 2026 au plus tard, en vue d’une publication au printemps 2027 : redaction@tetralogiques.fr

Rédaction

Nous vous invitons à soumettre des textes selon les règles de rédaction de la revue.

Le courrier indiquera précisément le nom de l’auteur/autrice ou des auteurs, ainsi que leurs affectations professionnelles et titres. Les articles in extenso seront impérativement accompagnés d’un résumé de 250 mots (longueur maximale), rédigé en français et en anglais et de 5 mots-clés, en français et en anglais.

Évaluation

Les textes soumis feront l’objet d’une double évaluation anonyme par des pairs, membres du comité de rédaction, du comité scientifique ou, en fonction de la thématique, par des spécialistes extérieurs et en accord avec le responsable du numéro. Ces lecteurs rendent un avis motivé sur sa publication, ou son refus, et décident des modifications éventuelles à demander à l’auteur.

Les critères de sélection sont :

  • Pertinence et rigueur de la méthode, de la démarche et des références ;
  • Recours à un terrain, à des études empiriques, à des corpus originaux (archives, etc.) couplé à une approche théorique solide ;
  • Originalité des idées et des conclusions ;
  • Soin dans la présentation, la structure du texte, l’argumentation ; clarté de l’expression.

Coordination du numéro

Références bibliographiques

Amodei, Dario, 2026, « L’adolescence de la technologie », https://www.darioamodei.com/essay/the-adolescence-of-technology %20, traduit et commenté par Victor Storchan, Le Grand Continent, 28 janvier 2026.

Anderson, Chris, 2019, « La fin de la théorie. Le déluge de data rend la méthode scientifique obsolète. », Le Débat, 207(5), 119-122. https://doi.org/10.3917/deba.207.0119

Bachelard, Gaston, 1931, « Noumène et Microphysique », in Recherches philosophiques, A. Koyré, H-CH. Puech, A. Spaier, Boivin &Cie, 35-65, Paris.

Bachelard, Gaston, 1938, La Formation de l’esprit scientifique, Paris, Vrin.

Bender, Emily M., Gebru, Timnit, et al. 2021, « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? », FAccT ’21 : Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, https://doi.org/10.1145/3442188.3445922.

Boullier, Dominique, 2025, Déshumanités numériques, Paris, Armand Colin.

Couty, Bernard, 2018, Analyse de dispositifs digitauxhal-01731093

Couty, Bernard, 2018, « Éléments pour une analyse ergologique des techniques numériques », Tétralogiques, N° 23, Le modèle médiationniste de la technique.  https://tetralogiques.fr/spip.php ?article92

Derrida, Jacques,1968, « La pharmacie de Platon », in Platon (2004) Phèdre, Paris, Flammarion.

Gagnepain, Jean, 1982, Du Vouloir Dire, I. Du signe, De l’outil, Paris, Pergamon Press. https://www.institut-jean-gagnepain.fr/œuvres-de-jean-gagnepain/

Gagnepain, Jean, 1991, Du Vouloir Dire, II. De la personne, De la norme, Paris, Livre et Communication.

Gagnepain, Jean, 1994, Leçons d’introduction à la théorie de la médiation, Louvain-la-Neuve, Peeters.

Lefort, Thierry, 2023, « Les technologies numériques dans l’éducation : ni remède, ni poison. Éduquer à la technique au-delà du pharmakon », Tétralogiques, N° 28, Expliquer les crises et mutations de l’éducation et de la formation. URL  : https://tetralogiques.fr/spip.php ?article222

Le Guennec, Gilles, Lefort, Thierry., 2022, « La technique en action. De la fabrication à la production », Tétralogiques, 27, Varia, pp. 85-135. https://tetralogiques.fr/spip.php ?article202

Mallat, Stéphane, 2025, « Génération de données en IA par transport et débruitage », cours au Collège de France.

McCarthy, John, et al., 1955, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.

Parmentier, Stéphanie, 2025, Quand l’IA tue la littérature, Paris, Presses Universitaires de France.

Roucher, Aymeric, 2025, Ultra-intelligence, jusqu’où iront les IA ?, Paris, Odile Jacob.

Sadin, Éric, 2025, Le Désert de nous-mêmes, Paris, L’Échappée.

Schotte, Jean-Claude, 1997, La raison éclatée. Pour une dissection de la connaissance, Bruxelles, De Boeck Université.

Stiegler, Bernard, 2007, « Questions de pharmacologie générale. Il n’y a pas de simple pharmakon », Psychotropes, n° 3, volume 13, Bruxelles, De Boeck Supérieur, pp. 27-54.

Turing, Alan M., 1950, « Computing Machinery and Intelligence » Mind 49 : 433-460.

V-DEM Institute, 2025, Democracy report 2025, University of Gothenburg, https://www.v-dem.net/documents/60/V-dem-dr__2025_lowres.pdf

Wiener, Norbert, 1948, Cybernetics : or Control and Communication in the Animal and the Machine, Paris, (Hermann & Cie) & Camb. Mass. (MIT Press) ; trad. fr. : La cybernétique : information et régulation dans le vivant et la machine, Paris, Seuil, 2014.


Date(s)

  • Friday, July 10, 2026

Keywords

  • intelligences artificielles, sciences humaines, langage, technique, ergologie, anthropologie, théorie de la médiation

Contact(s)

  • Rédaction de Tétralogiques
    courriel : redaction [at] tetralogiques [dot] fr

Reference Urls

Information source

  • Laurence Beaud
    courriel : laurence [dot] beaud [at] univ-rennes2 [dot] fr

License

CC0-1.0 This announcement is licensed under the terms of Creative Commons CC0 1.0 Universal.

To cite this announcement

« Artificielles intelligences », Call for papers, Calenda, Published on Tuesday, March 10, 2026, https://doi.org/10.58079/15uf5

Archive this announcement

  • Google Agenda
  • iCal
Search OpenEdition Search

You will be redirected to OpenEdition Search