AccueilDe la régulation de l'intelligence artificielle dans le domaine éducatif

AccueilDe la régulation de l'intelligence artificielle dans le domaine éducatif

*  *  *

Publié le mardi 23 novembre 2021

Résumé

Ce numéro thématique de la revue Communication, technologies et développement, visera à analyser les alternatives au droit pour la régulation de l’intelligence artificielle dans le domaine de l’éducation. Il s’articulera autour de cinq axes : la régulation par l’éthique, la régulation comme objet de discours, la régulation by design, la régulation par la pédagogie et la régulation par la formation.

 

 

Annonce

Argumentaire

L’intelligence artificielle (ci-après IA) n’est pas un domaine de recherche récent. C’est en 1956 lors de la conférence de Darmouth que les pionniers de cette question évoquent pour la première fois l’IA en tant que telle. Depuis, cette technologie a nourri tous les fantasmes et espoirs autour de l’idée d’une « machine pensante », capable de concurrencer l’homme dans tous les domaines : de l’art à la science en passant par l’agriculture ou encore l’éducation.

Il va sans dire que dans ce domaine les attentes tout autant que les craintes sont nombreuses.

L’espoir d’une éducation innovante et de qualité accessible à tou.te.s coexiste avec la peur d’une annihilation progressive des rapports humains pourtant considérés comme essentiels à toute relation pédagogique. Au niveau institutionnel, le développement de l'IA dans le domaine éducatif est encouragé - comme en témoigne, par exemple, le projet Artificial Intelligence for and by teachers « AI4T : l’Intelligence Artificielle pour et par les professeurs », à l’initiative du Ministère français chargé de l'éducation nationale. Cependant, les questions éthiques entourant le développement de ces potentielles innovations ne sont pas pour autant évacuées par les politiques publiques. Ces préoccupations sont visibles dans une nouvelle résolution sur l’IA dans les domaines de l’éducation, de la culture et de l’audiovisuel, adoptée en mai 2021 par le parlement européen. Elle est présentée comme une étape vers une régulation européenne de l’IA qui fixerait un cadre juridique pour préserver le respect des droits fondamentaux des individus. Un certain nombre de valeurs sont prônées comme centrales telles que la transparence (Cellard & Masure, 2018 ; Chevret-Castellani & Labelle, 2019), l’équité ou encore les droits fondamentaux. Dans le domaine de l’éducation, l’introduction de l’IA est envisagée pour permettre une « individualisation » des apprentissages et favoriser une plus grande « inclusion » en réduisant la « fracture numérique » par la création d’infrastructures. Cette résolution s’inscrit dans la continuité des principes du consensus de

Beijing (Unesco, 2019) qui, tout en souhaitant un « usage systématique » de l’IA dans l'éducation, appelle au développement d’une « approche humaniste » en lien avec les principes de l’Unesco.

Les évolutions technologiques étant rapides, il semble comme admis, tant du point de vue des acteurs privés que des acteurs publics, que le droit ne se présente plus comme l’unique solution pour encadrer les développements de l’IA. La loi est présentée soit comme inopérante eu égard à la vitesse d’adaptation nécessaire aux changements, soit comme freinant l’innovation. Pour les pouvoirs publics, il s’agit cependant de se tenir sur une ligne de crête entre d’un côté les exigences économiques et les promesses de l’IA pour la croissance et, d’un autre côté, l’acceptabilité sociale de ces promesses. Si le droit reste encore un moyen d’encadrer, qu’en est-il des applications de l’IA dans le domaine de l’éducation ? Cette question conduit à une réflexion sur les modalités de collecte des données, leurs traitements et leurs conditions de partage. En effet, l’éducation est un « bien commun » (Bourdin, 2019) qui suppose une attention particulière aux conditions d’échange des informations. Ces échanges concernent tout autant des usagers que des dispositifs et des pratiques professionnelles spécifiques.

Quelles sont les alternatives au droit qui se dessinent aujourd’hui et quelles en sont les modalités ? À l’échelle internationale, la régulation de l’intelligence artificielle conduit à adopter des démarches « parties prenantes » dont la particularité est d’amener à faire dialoguer des partisans de différents modes d’intervention, de l’autorégulation à la co-régulation. Or, la démarche « partis prenantes » (Massit-Folléa, 2014) induit une pluralité des normes. En quoi consiste cette pluralité quand il s’agit de réguler les applications de l’IA dans le domaine de l’éducation ? Ou pour poser la question autrement : quels sont les types d’acteurs impliqués ? Comment les normes (discursives, éthiques, techniques, professionnelles et sociales) sontelles construites ?

C’est ce que les propositions d’articles chercheront à explorer à travers les cinq axes suivants.

Axe 1 : La régulation par l’éthique

Une réflexion éthique basée sur la discussion (Ganascia, 2019) est envisagée comme ouvrant un horizon de règles de vie en commun. En tant qu’elle permet de fixer des principes guidant l’action, l’éthique est présentée par les acteurs publics et politiques comme un moyen de réguler, soit par les valeurs communes qu’elle pourrait tendre à construire (Unesco, 2019), soit comme nécessaire pour compléter le droit (Cnil, 2017), voire pour s’y substituer face à l’incertitude quant aux évolutions de l’IA (Villani, 2018). Dans le cadre de cette « IA éthique », les valeurs mises en avant sont multiples : la transparence, la dignité humaine, l’équité, l’autonomie humaine face aux machines, etc. Ces valeurs exigeraient des postures, telles que la réflexivité et la vigilance. Sont-elles universelles, unanimement partagées ? Quelles distinctions faire entre des principes régulateurs et des valeurs ? Dans quelle mesure des principes régulateurs contribueraient au développement de l’IA dans l’éducation ? Cet axe invite à s’interroger sur l’éthique soit du point de vue du discours dans les textes à l’échelle nationale, européenne ou internationale, soit du point de vue des dispositifs mobilisés en vue de la construction de principes. Les propositions conduiront à s’intéresser aux discours éthiques sur l’IA dans l’éducation et/ou sur les dispositifs mis en place en vue d’élaborer des principes régulateurs de l’IA dans ce domaine.

Axe 2 : La régulation comme objet de discours

L’IA est un objet de discours particulièrement riche à étudier du fait de la profusion de textes (rapports, déclarations...), des institutions internationales, européennes et nationales qui s’expriment et du périmètre extrêmement large des enjeux abordés (industriels, économiques, éducatifs, politiques...). Cette thématique de l’IA en éducation n’échappe pas à la rhétorique récurrente et observée depuis le développement des TIC, rhétorique qui place en parallèle les risques et les opportunités, les challenges et les incertitudes qui entourent les évolutions technologiques. Cet axe de l’appel invite à penser les médiations à l’œuvre dans les discours pour enjoindre la planification de politiques publiques : s’observent tout à la fois une injonction à l’innovation et un appel au maintien d’un cadre éthique grâce à de nouvelles formes de régulation. Il nous semble qu’il y a un enjeu fort de problématisation sur les procédés discursifs mobilisés dans ces discours ; nous pensons notamment à la neutralisation qui évacue les éventuelles contradictions (Krieg-Planque, 2014) et à « l’uterquisation » qui joue dans le cumul d’enjeux non-compatibles et qui se révèle un nouveau procédé de neutralisation (Jeanneret, 2017). Les propositions pourront analyser des discours dans une perspective comparative à l’échelle nationale ou internationale, problématiser les procédés discursifs mobilisés dans les discours des promoteurs politiques et industriels, ou encore étudier la manière dont s’établit un (nouveau) récit de changement civilisationnel ou de « révolution pédagogique ». Elles porteront une attention particulière à la façon dont les discours redéfinissent les relations entre innovation, entendue comme progrès nécessaire, et régulation, pensée comme médiation des valeurs politiques.

Axe 3 : La régulation by design

Les consultations et échanges sur la régulation de l’IA et plus largement des dispositifs informatisés mettent en évidence la recherche de nouvelles modalités de régulation. Classiquement, cette dernière est soit portée par un cadre juridique (règlement, décret...), soit définie par la structure du marché (prix, accès aux infrastructures...), soit par les normes sociales (campagnes d’information...). Cependant, émergent de nouvelles modalités de régulation : d’une part, s’observe la création de nombreux dispositifs communicationnels qui favorisent les frottements entre les acteurs publics et privés (Chevret-Castellani & Labelle,

2019). D’autre part, s'observe, dans la continuité du “code is law” de Lawrence Lessig, la progression d’une “régulation by design” dont Karen Yeung a dressé les contours (Yeung, 2017). Cette “régulation by design” vise à incorporer dès la conception des dispositifs technologiques la régulation et ainsi imposer le cadre préétabli sans nécessité d’action humaine. L’enjeu est d’encadrer les pratiques et traitements dès le développement technique en anticipant la nature des données, leurs processus de calcul et les conditions de leur diffusion et de leur partage.

Ces évolutions invitent à questionner cette “régulation by design” dans le domaine de l’IA dédiée au secteur éducatif à partir de l’analyse de certains dispositifs et notamment l’usage du “nudge” (l’incitation à certains comportements) et de l’utilisation de données massives. À cet effet, les propositions veilleront par exemple à analyser des dispositifs qui mettent en œuvre une “régulation by design” ou encore à éclairer certaines objections d’ordre éthique, technique ou politique : l’explicabilité des systèmes techniques, un solutionnisme technique se substituant à la résolution des problèmes initiaux (Morozov, 2014).

Axe 4 : La régulation par la pédagogie

Si le règlement général européen sur la protection des données (RGPD) renforce la protection des données personnelles, les progrès de l’IA en matière d’éducation invitent à la plus grande vigilance (MENJS, 2021). L’offre éducative est effectivement plurielle et exponentielle : des programmes libres et ouverts coexistent avec des outils performants proposés par des industriels de tous pays. L'IA apporte la promesse de parcours d’apprentissage personnalisables et personnalisés : dans quelle mesure la collecte, la conservation et l‘archivage d’informations nécessaires à la construction des parcours pédagogiques doiventils être limités (Peraya, 2019) ?

Au-delà de ces questions déontologiques et éthiques touchant la collecte et le partage des données, des questions pédagogiques purement pratiques se posent également : définition du rôle de régulateur ou de médiateur de l’enseignant, fiabilité des systèmes de contrôle des connaissances, évaluation et contrôle des risques de désinformation, voire de deepfake (Capelle et al., 2018). Finalement, dans quelle mesure la pratique pédagogique en elle-même invite-t-elle à une activité de régulation ?

Cet axe abordera la régulation de l’IA selon une approche pratique. Des retours d’expérience sous un angle critique pourront être proposés parallèlement à des propositions d’articles plus didactiques visant à étoffer la réflexion sur l’IA et sa régulation dans le contexte d’exercice des professionnels de l’éducation.

Axe 5 : La régulation par la formation

Les préoccupations liées à l’explicabilité de l’IA supposent une réflexion sur les connaissances nécessaires à la compréhension de ses principes et de ses fondements pour en évaluer la confiance à lui accorder. L’IA prenant effectivement une importance croissante dans tous les domaines de la vie sociale, la formation aux usages devient dès lors un sujet d’actualité. Il implique de questionner la formation des enseignants qui peut s’envisager selon deux approches a priori contradictoires : apprentissage du code et de la pensée informatique, d’un côté, capacité à interpréter et utiliser les dispositifs de l’autre (de la Higuera, 2019). Nombre de questions se pose alors sur le type de compétences à acquérir pour permettre un usage raisonné de l’IA, sur les ressources et outils disponibles ou encore sur les enjeux de la formation tout au long de la vie (Cordier et al.,2021). Dans ce cadre, quel impact sur la recherche, en particulier à travers la généralisation de l’accès ouvert aux publications, conformément au Deuxième Plan national pour la science ouverte (MESRI, 2021) ?

Cet axe invite ainsi à s’interroger sur le rôle de la formation pour permettre le développement d’un ethos professionnel participant à une régulation par les acteurs eux-mêmes.

Coordination du numéro

  • Christine Chevret-Castellani, maîtresse de conférences en SIC, université Sorbonne Paris Nord, LABSIC
  • Sarah Labelle, professeure des universités en SIC, université Montpellier 3 Paul Valéry,
  • CERIC-LERASS
  • Emilie Remond, chercheuse associée en SIC, université de Poitiers, TECHNE

Calendrier

  • Envoi des propositions sous forme de résumés : 10 décembre 2021
  • Retour aux auteurs de la sélection des propositions : 7 janvier 2022
  • Remise de l’article intégral : 28 février 2022
  • Retour aux auteurs de l’évaluation par le comité de lecture : 28 mars 2022
  • Retour des articles définitifs (revus après évaluation) : 28 avril 2022
  • Publication du numéro : fin mai 2022

Modalités de soumisison des propositions

Les propositions d’article doivent être soumises sous forme de résumé en français, en espagnol ou en anglais : 7 000 signes maximum, espaces et bibliographie compris. Les titres et les mots clés sont demandés en trois langues (Français, anglais, espagnol). Les propositions seront évaluées en double aveugle par des membres de la communauté scientifique.

Les consignes de rédaction pour l’article sont disponibles à l’adresse suivante : journals.openedition.org/ctd/1132

Les propositions d’article sont à envoyer aux adresses suivantes :

  • revue@comtecdev.com
  • sarah.labelle@univ-montp3.fr
  • christine.chevret@univ-paris13.fr
  • emilie.remond@univ-poitiers.fr

Bibliographie

Bourdin, S., (2019). Quelques perspectives pour inscrire l’éducation comme un bien commun : opportunités et obstacles. (Dir.) Bonfils P., Dumas P., Juanals B., Massou L., Sources ouvertes numériques. Usages éducatifs, enjeux communicationnels, sous la direction de Éditions universitaires de Lorraine, coll. Questions de communication / série Actes 39.

Christine Chevret-Castellani, C., Labelle, S. (2019). Transparence et loyauté, deux motifs de la régulation des algorithmes. Terminal, 124 | 2019, URL: http://journals.openedition.org/terminal/4064 ; DOI : https://doi.org/10.4000/terminal.4064

Cellard, L., Masure, A. (2018). Le design de la transparence : une rhétorique au cœur des interfaces numériques. Multitudes, vol. 73, n°4, 100-111.

Capelle, C., Cordier, A. et Lehmans, A. (2018). Usages numériques en éducation : l’influence de la perception des risques par les enseignants. Revue française des sciences de l’information et de la communication [En ligne], 15 | 2018. URL : http://journals.openedition.org/rfsic/5011 ; DOI : https://doi.org/10.4000/rfsic.5011

Cordier, A, Capelle, A, Lehmans, A., Liquète, V. (2021). Pour une formation continuée des enseignant·es à l’information et aux médias. (Dir.) Bonfils P., Dumas P., Remond E., Stassin B. , Vovou I., L'éducation aux médias tout au long de la vie : Des nouveaux enjeux pédagogiques à l’accompagnement du citoyen, Actes du Colloque Ticemed12. Association

Internationale Ticemed. Colloque Ticemed12, Apr 2020, Athènes, Grèce. 2021, 978-2492969-00-3. halshs-03206274

Higuera (de la), C. (2019). A report about Education, Training Teachers and Learning Artificial Intelligence : Overview of key issues. Knowledge 4 All Foundation Ltd (K4A). https://www.k4all.org/wp-content/uploads/2019/11/Teaching_AI-report_09072019.pdf Ganascia, J.-G. (2019). Peut-on contenir l’intelligence artificielle ? Pouvoirs, n° 170, 71-81.

Jeanneret, Y. (2017). Métamorphoses et éclipses de l’auteur dans les médias informatisés ». In En-quête-s d'auteurs. Études réunies par Séverine Clément-Tarantino et Florence Klein en hommage au Professeur Alain Deremetz, Presses Universitaires du Septentrion, (Littératures), à paraître en 2022.

Jeanneret, Y. et Bonaccorsi, J. (2021). Hommage à Yves Jeanneret - Obéir à l’injonction technologique ou mobiliser les ressources des médias informatisés. La Lettre de l’OCIM, 190 | 2020, DOI : https://doi.org/10.4000/ocim.4036

Krieg-Planque, A. (2014). La formule "développement durable" : un opérateur de neutralisation de la conflictualité. Langage et société, n°134, 5 29.

Massit-Folléa, F. (2014). Internet et les errances du multistakeholderism. Politique étrangère, n°4, 29-41.

Morozov E. (2014). Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique. Limoges : FYP Editions, 351 p.

Peraya D. (2019). Les Learning Analytics en question. Distances et médiations des savoirs, n°25 | DOI: https://doi.org/10.4000/dms.3485

Petit L. (2020). Les sciences humaines et sociales (SHS) et les sciences de l’information et de la communication (SIC) aux défis de l’IA. Communication, technologies et

développement, 10 | 2021. DOI : https://doi-org.ezpupv.biu-montpellier.fr/10.4000

Yeung, K. (2017). ‘Hypernudge’: Big Data as a mode of regulation by design. Information, Communication & Society, 20:1, 18-136, DOI: 10.1080/1369118X.2016.1186713

Ressources documentaires

CNIL (2017). Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’Intelligence Artificielle (décembre 2017).

Commission européenne (2021). L’intelligence artificielle dans les domaines de l’éducation, de la culture et de l’audiovisuel, P9_TA(2021)0238.

Ministère de l’Education Nationale de la Jeunesse et des Sports. (2021). Les enjeux de la protection des données au sein de l'éducation, en ligne

https://www.education.gouv.fr/les-enjeux-de-la-protection-des-donnees-au-sein-de-l-educatio n-7451.

Ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation. (2021). Deuxième Plan national pour la science ouverte. Généraliser la science ouverte en France 2021-2024, URL : https://cache.media.enseignementsup-recherche.gouv.fr/file/science_ouverte/20/9/MEN_bro chure_PNSO_web_1415209.pdf

Unesco (2019), Beijing Consensus on Artificial Intelligence (AI) and Education.

Villani C. (2018). Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne (mars 2018).


Dates

  • vendredi 10 décembre 2021

Fichiers attachés

Mots-clés

  • intelligence artificielle, discours, dispositif, pratique, technologie éducative

Contacts

  • Emilie REMOND
    courriel : emilie [dot] remond [at] univ-poitiers [dot] fr

Source de l'information

  • Emilie REMOND
    courriel : emilie [dot] remond [at] univ-poitiers [dot] fr

Licence

CC0-1.0 Cette annonce est mise à disposition selon les termes de la Creative Commons CC0 1.0 Universel.

Pour citer cette annonce

« De la régulation de l'intelligence artificielle dans le domaine éducatif », Appel à contribution, Calenda, Publié le mardi 23 novembre 2021, https://doi.org/10.58079/17pb

Archiver cette annonce

  • Google Agenda
  • iCal
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search