StartseiteLa gouvernance de l’intelligence artificielle

StartseiteLa gouvernance de l’intelligence artificielle

La gouvernance de l’intelligence artificielle

The governance of artificial intelligence

*  *  *

Veröffentlicht am Freitag, 29. Januar 2021 bei Céline Guilleux

Zusammenfassung

Ce projet de numéro thématique de la revue Réseaux voudrait interroger la manière dont lespromesses et les risques des systèmes algorithmiques dits d’« intelligence artificielle » sont aujourd’hui mis en débat dans nos sociétés : biais, discrimination, automatisation, captation de l’attention ou mise en place d’une nouvelle forme d’agentivité technique susceptible de transformer de nombreux mondes sociaux. Il entend s’intéresser aux normes sociales, juridiques et techniques qui visent à produire une certaine conformité sociale des machines autonomes et intelligentes, voire à les interdire. Ce numéro thématique cherche ainsi à porter à la discussion scientifique des travaux relatifs au contrôle social et politique qui s’applique aux systèmes algorithmiques, aux valeurs sur lesquelles ce contrôle se fonde et aux moyens que les acteurs se donnent pour les faire respecter.

Inserat

Coordination

  • Bilel Benbouzi, Maître de conférence, Université Gustave Eiffel, Laboratoire Interdisciplinaire Innovation Science Société (LISIS)
  • Dominique Cardon, professeur de sociologie à Sciences Po, chercheur au laboratoire des usages (SENSE) d'Orange Labs

Argumentaire

Ce projet de numéro thématique de la revue Réseaux voudrait interroger la manière dont les promesses et les risques des systèmes algorithmiques dits d’“intelligence artificielle” sont aujourd’hui mis en débat dans nos sociétés : biais, discrimination, automatisation, captation de l’attention ou mise en place d’une nouvelle forme d’agentivité technique susceptible de transformer de nombreux mondes sociaux. Il entend s’intéresser aux normes sociales, juridiques et techniques qui visent à produire une certaine conformité sociale des machines autonomes et intelligentes, voire à les interdire. Ce numéro thématique cherche ainsi à porter à la discussion scientifique des travaux relatifs au contrôle social et politique qui s’applique aux systèmes algorithmiques, aux valeurs sur lesquels ce contrôle se fonde et aux moyens que les acteurs se donnent pour les faire respecter. Suite à une sériede dénonciations et de scandales impliquant des systèmes algorithmiques, associations de défenses des droits de l’Homme, juristes, chercheurs, designers, artistes, ingénieurs, entreprises, organismes nationaux et supranationaux se mobilisent pour comprendre, maîtriser et encadrer les systèmes algorithmiques.

Si le problème du contrôle humain des machines n’est pas nouveau (Wiener, 1962 ; Mumford 1967), les développements récents de l’intelligence artificielle, de la robotique et de l’internet des objets ont permis un déploiement sans précédent de systèmes algorithmes dans divers secteurs d’activité. De nombreuses voix se font entendre et des pratiques émergent pour mieux contrôler ces systèmes sociotechniques, voire les rejeter. L’analyse de ce contrôle social des systèmes algorithmiques, autonomes et intelligents peut se poser de trois manières différentes :

  • Quels modes de régulations voit-on émerger ? Quels sont les enjeux juridiques et économiques de la règlementation des systèmes algorithmiques ? À quelle échelle nationale ou supra-nationale les régulations sont-elles envisagées ?
  • Comment les techniciens eux-mêmes développent-ils des manières de rendre les machines justes, explicables et, partant, acceptables ?
  • Dans un contexte de vives controverses sur les technologies de l’intelligence artificielle, quelles trajectoires alternatives sont proposées par les mouvements critiques ? Quels sont les raisons et les leviers d’actions des acteurs contestataires de l’IA ?

La vague de promesses qui s’est organisée autour de l’Intelligence artificielle constitue un cas d’étude particulièrement pertinent pour les études de sciences sociales. Elle traverse un ensemble de secteurs sociaux (médias, science, expertise, entreprises et politique) qui produisent des problématisations et des cadrages des enjeux sociétaux de ces technologies qui s’alignent autour de prospectives floues et d’anticipations sur les risques.

Les domaines couverts par cet appel sont larges :  les articles peuvent traiter de la production juridique (sociologie ou épistémologie du droit en matière d’intelligence artificielle et de robotique), de la question de la standardisation et de la certification (construction des normes qualité et descertifications de sécurité), des débats éthiques (le rôle et le travail des “éthiciens”) et des travaux depolitique publique sur la régulation des innovations technologiques. Des analyses fouillées des techniques de mesure de biais des prédictions du machine learning dans la perspective d’atténuer les phénomènes de discrimination peuvent venir prolonger une histoire des techniques de quantification.L’analyse des efforts scientifiques en matière d’explicabilité constitue aussi une dimension des objectifs de maîtrise de l’IA. Celle-ci peut être explorée en concentrant la focale autant sur les débats scientifiques que juridiques. Des analyses sur les mises en application concrètes des principes éthiques dès la conception des machines (ethics by design), sur des démarches participatives et artistiques visant à mettre en politique des machines d’intelligence artificielle pourraient aussi enrichir le numéro.Des enquêtes sur les mouvements de protestation visant des technologies spécifiques permettraient de mieux comprendre les formes technocritiques à l’œuvre et leurs portées. Les articles doivent reposer sur des terrains ou des corpus qui devront être mentionnés de façon explicite dans la proposition.

Calendrier

Nous vous demandons d’informer le secrétariat de rédaction de la revue de votre intention de contribution en adressant une proposition d’article d’une à deux pages précisant les questions de recherche, le corpus étudié et la ou les méthodes utilisées

pour le 29 mars 2021.

Les intentions de contribution sont à adresser à : aurelie.bur@enpc.fr

Plus d’informations sur le site de revue Réseaux : http://www.revue-reseaux.fr/

Évaluation

La procédure d'évaluation est une procédure en double aveugle.

Les intentions, puis les V1 feront l'objet d'une évaluation par deux lecteurs et les coordinateurs du dossier, puis elles seront discutées en comité de rédaction. L'identité des auteurs tout comme celle des évaluateurs n'est pas communiquée.

Daten

  • Montag, 29. März 2021

Schlüsselwörter

  • intelligence artificielle

Kontakt

  • Aurelie Bur
    courriel : aurelie [dot] bur [at] enpc [dot] fr

Verweis-URLs

Informationsquelle

  • Aurelie Bur
    courriel : aurelie [dot] bur [at] enpc [dot] fr

Zitierhinweise

« La gouvernance de l’intelligence artificielle », Beitragsaufruf, Calenda, Veröffentlicht am Freitag, 29. Januar 2021, https://calenda.org/839482

Beitrag archivieren

  • Google Agenda
  • iCal
Suche in OpenEdition Search

Sie werden weitergeleitet zur OpenEdition Search