InicioPhotographie et algorithmes

Photographie et algorithmes

Photography and Algorithms

Transbordeur : photographie histoire société, numéro 9

Transbordeur : photographie histoire société, issue 9

*  *  *

Publicado el lunes 17 de julio de 2023

Resumen

Faisant suite à deux précédents numéros de la revue Transbordeur – le n°3 « Câble, copie, code. Photographie et technologies de l’information » (2019) et le n°7 « Images composites » (2023) – ce dossier vise à resituer le phénomène des images algorithmiques dans une histoire des images techniques et une archéologie des médias. Il s’agira, par exemple, de retracer l’histoire des algorithmes de deep learning appliqués aux images ainsi que des datasets utilisés pour les entraîner. Il s’agira aussi de situer dans une perspective historique les critères qui ont été adoptés pour inventer et déployer les uns et les autres. Dans le but de comprendre la profondeur historique d’un phénomène qu’on a trop tendance à circonscrire à notre présent immédiat, les années 1980-1990 seront particulièrement scrutées, tant les progrès que nous voyons se réaliser sous nos yeux sont les conséquences d’expérimentations réussies ou d’échecs éprouvés au moment du décollage de l’informatique et de l’Internet.

Anuncio

Argumentaire

Depuis le début des années 2010, le vaste domaine des images numériques est de plus en plus bouleversé par la présence d’algorithmes de deep learning (un des champs de ce qu’on appelle « intelligence artificielle ») qui transforment la manière dont les images sont captées, générées, transformées et vues. Quatre types d’algorithmes et de modèles   de deep learning, en particulier, sont à l’origine de ces transformations :

  • Les Convolutional Neural Networks (CNN) existent depuis le début des années 2010 (mais sur la base de recherches qui remontent à la deuxième moitié des années 1950, avec le Perceptron de Frank Rosenblatt). Ils ont rendu possible le développement de plus en plus rapide de technologies de computer vision et de machine vision qui sont aujourd’hui capables de détecter, reconnaître et classer objets, lieux, corps et visages parmi de vastes quantités d’images. Ces images n’ont d’ailleurs pas à s'afficher sur des écrans, elles ne sont donc pas nécessairement visibles par des yeux
  • Les Generative Adversarial Networks (GANs) ont été développés en 2014 et ont donné lieu à plusieurs variations (CGAN, CycleGAN, StyleGAN, ESRGAN, BigGAN, etc.). Ils ont été utilisés soit pour transformer des images préexistantes, à travers toute une série d’opérations, soit pour générer des images nouvelles, qui peuvent être photoréalistes, hybrides, ou entièrement abstraites.
  • Les modèles text-to-image (DALL-E 2, Stable Diffusion, Midjourney, ) ont été introduits au grand public entre 2021 et 2022. En s’appuyant sur de vastes datasets associant images et textes, ils permettent aujourd’hui de générer ou modifier des images fixes ou en mouvement (avec les modèles text-to-video) sur la base de prompts écrits en langage naturel. Fondés sur l’idée qu’on peut remplacer toute une série de techniques algorithmiques concernant la génération et la modification d’images par des instructions rédigées en langage naturel, ces modèles produisent de nouvelles articulations entre le dicible et le visible, et nous orientent vers une culture visuelle dans laquelle mots et images seront de plus en plus indissolublement associés.
  • Depuis plusieurs années, différents algorithmes sont intégrés de manière discrète et peu visible dans les caméras de nos smartphones, afin d’effectuer toute une série d’opérations qui sont souvent basées sur des analyses statistiques des choix et des préférences des utilisateurs à travers les plateformes des réseaux sociaux : introduction de filtres, ajouts de parties d’images (lune, coucher du soleil, horizon, etc.) provenant d’images de stock, corrections des couleurs et de la  mise  au  point,  génération  d’une  seule image capable de synthétiser toute une série  d’images  d’une  même  scène, etc.

Avec ces quatre grands phénomènes se manifeste la présence de plus en plus importante des algorithmes de deep learning dans la culture visuelle contemporaine. Comme ils se nourrissent abondamment d’images photographiques, ils ont en retour un impact profond sur la photographie, son statut et ses usages.

Aussi nouveaux paraissent-ils, leur histoire remonte aux premiers moments de l’image numérique, voire en deçà, aux premiers modes de traitement automatisé des images analogiques. Que ce soit avec l’histoire des banques d’images et de leurs modes d’indexation, de la création assistée par ordinateur, des logiciels de modélisation en architecture, des systèmes de reconnaissance visuelle comme le Perceptron déjà évoqué plus haut ou des procédés de renforcements de la netteté des images ou des contrastes, les technologies développées depuis plus de cinquante ans ont contribué à rendre possible l’avènement des algorithmes que nous connaissons ici. Certes, cette évolution s’est faite par vagues et on parle des périodes creuses comme des « hivers de l’IA », certes les modèles statistiques n’ont que tardivement remplacé les systèmes de modélisation vectorielle, mais la situation inédite que nous connaissons aujourd’hui ne se laisse saisir et comprendre qu’au regard d’une histoire des technologies de génération, de classification et de reconnaissance visuelles. Et les enjeux technologiques et idéologiques qui les sous-tendent ne sauraient être analysés sans revenir sur le passé. Cinq groupes de questions, en particulier, se détachent, parmi d’autres, qui exigent une prise de distance historique de ces phénomènes contemporains. Ainsi pourra-t-on nourrir une archéologie des images algorithmiques et des procédés algorithmiques permettant de les traiter et de les générer.

Photographies et datasets

Quel est le rôle des images « photographiques » (dans certains cas il s’agit de stills vidéo) dans les vastes ensembles d’images (datasets) qui, comme ImageNet (2009) ou LAION-5B (2021-2022), sont utilisés pour entraîner les différents algorithmes et  modèles de deep learning que nous venons de mentionner (les CNN, les GAN, les modèles text-to-image ou text-to-video, ainsi que les algorithmes intégrés dans les caméras de nos smartphones) ? D’où viennent ces images « photographiques » ? Peut- on en reconstruire l’histoire ? Comment et pourquoi ont-elles été choisies pour faire partie de ces datasets, et sur la base de quels critères ? Qui a été en charge de l’indexation de toutes ces images et comment s’est-elle opérée ? A-t-on toujours recours au travail délocalisé et sous-payé des travailleurs du clic, ou utilise-t-on aussi des formes de légendage et d’indexation automatique et algorithmique ? Quels sont les modèles juridiques et économiques ainsi que les présupposés idéologiques de ces datasets ?

Algorithmes intégrés

L’intégration des algorithmes dans les technologies de prise de vues est aujourd’hui courante. Quelles sont les opérations effectuées par les algorithmes de deep learning qui, après avoir été intégrés dans les caméras de nos smartphones, interviennent de manière discrète, opaque et souvent inaccessible aux utilisateurs dès le moment de la prise de vue ? Parmi ces opérations, on trouve la possibilité d’animer des images fixes, d’augmenter la définition d’une image (upscaling), d’étendre l’image au-delà de son cadre initial (outpainting), de modifier le contenu de l’image (inpainting), ou encore de transférer un « style » d’une image à une autre (style transfer). Quelles sont les technologies qui ont précédé l’usage de ces algorithmes dans les logiciels de traitement des images et des photographies (comme Photoshop à partir de 1990) ? Comment a-t- on choisi ces opérations ? Sur la base de quels critères ? De quelle manière ces opérations se situent-elles dans le vaste champ de ce qu’on appelle computational photography ?

Photoréalismes

L’usage des GAN (par exemple, les portraits photographiques du projet This Person  Does Not Exist, 2019) et des modèles text-to-image ont transformé radicalement notre rapport à la photographie. Mais la stupéfaction avec laquelle nous percevons ces évolutions semble occulter toute une histoire des paradoxes des images photoréalistes. Comment les critères de définition de l’image documentaire évoluent-ils sous l’influence des techniques génératrices d’images ? Le domaine du photoreportage ou de l’archive a ainsi connu de profondes mutations. Quelles sont aujourd’hui les intentions qui ont mené à la génération de ces images (anticipation, satire politique, histoire contrefactuelle, deep fakes, simple amusement) et dans quels contextes ont-elles circulé ? Comment interpréter les usages « documentaires » qui sont faits parfois de ces images « photoréalistes », par exemple pour visualiser des événements dont on a seulement des témoignages verbaux ?

Prompts

Comment expliquer la présence, parmi les mots les plus utilisés dans les prompts, de termes qui renvoient plus généralement au champ de la photographie, son histoire, ses usages, ses protagonistes, ses appareils et ses techniques (références précises à des caméras, à des focales, à des pellicules argentiques, à des photographes, à des mouvements ou des styles photographiques, etc.) ? Pourquoi, dans ces nouveaux modèles, la photographie reste-t-elle un médium de référence ? Comment sont élaborées les listes des prompts qu’on peut utiliser ? Pourquoi certains mots ne sont-ils pas utilisés ou utilisables ? Qui établit et qui met en place ces formes de censure ? Y a- t-il une grammaire des prompts, une stylistique ? Quels savoir-faire l’écriture de ces phrases de commande engage-t-elle, alors que se développent aujourd’hui de nouvelles figures professionnelles comme les « Prompts Engineers » ?

Économie et idéologie

Quel modèle économique ces algorithmes mettent-ils en jeu ? La délocalisation des travailleurs du clic reproduit-elle les inégalités économiques mondiales ? Quels sont les cadres idéologiques de ces programmes et comment expliquer leur genèse ? Peut-on étudier historiquement les « biais » au terme desquels ces programmes privilégient certains types d’images sur une préférence raciale ou sociale ? Peut-on retracer l’histoire des mécanismes de censure automatisée que les réseaux sociaux ont mis en place ? Avec ces questions, notre réflexion donnera une place à une approche critique de la dimension économique et idéologique de ces nouvelles technologies.

Faisant suite à deux précédents numéros de Transbordeur – le n°3 « Câble, copie, code. Photographie et technologies de l’information » (2019) et le n°7 « Images composites » (2023) – ce dossier vise donc à resituer le phénomène des images algorithmiques dans une histoire des images techniques et une archéologie  des  médias.  Il  s’agira,  par exemple, de retracer l’histoire des algorithmes de deep learning  appliqués  aux  images ainsi que des datasets utilisés pour les entraîner. Il s’agira aussi de situer dans une perspective historique les critères qui ont été adoptés pour inventer et déployer les uns et les autres. Dans le but de comprendre  la  profondeur  historique  d’un  phénomène qu’on a trop tendance à circonscrire à notre présent immédiat, les années  1980-1990 seront particulièrement scrutées, tant les progrès que nous voyons se réaliser sous nos  yeux sont les conséquences d’expérimentations réussies  ou  d’échecs  éprouvés  au moment du décollage de l’informatique et de l’Internet.

Direction

Estelle Blaschke (Universität Basel), Max Bonhomme (Centre allemand d'histoire de l’art - DFK Paris), Christian Joschke (Beaux-Arts de Paris) et Antonio Somaini (Université Sorbonne Nouvelle - Paris 3)

Modalités de contribution

Les textes peuvent être soumis en français, allemand et anglais.

L’abstract ne doit pas excéder les 600 mots. Il est accompagné d’un dossier iconographique (6-8 images), d’une brève bibliographie et d’une notice biographique.

Le fait d'adresser un article à la revue suppose que les auteur·e·s ont pris connaissance et acceptent les directives éditoriales ainsi que le protocole de rédaction.

Les propositions d’articles sont à adresser à info@transbordeur.ch

avant le 22 septembre 2023.

Calendrier

  • 22 septembre 2023 : abstracts
  • 30 septembre 2023 : réponse aux auteur·e·s
  • 30 janvier 2024 : première version des articles
  • Fin février 2024 : journée d’étude
  • 30 avril 2024 : deuxième version des articles

Categorías


Fecha(s)

  • viernes 22 de septiembre de 2023

Archivos adjuntos

Palabras claves

  • photographie, histoire, deep learning, machine learning, algorithme, computer vision

Contactos

  • Davide Nerini
    courriel : info [at] transbordeur [dot] ch

Fuente de la información

  • Davide Nerini
    courriel : info [at] transbordeur [dot] ch

Licencia

CC0-1.0 Este anuncio está sujeto a la licencia Creative Commons CC0 1.0 Universal.

Para citar este anuncio

« Photographie et algorithmes », Convocatoria de ponencias, Calenda, Publicado el lunes 17 de julio de 2023, https://doi.org/10.58079/1bl7

Archivar este anuncio

  • Google Agenda
  • iCal
Buscar en OpenEdition Search

Se le redirigirá a OpenEdition Search