Les IA génératives révolutionnent notre quotidien. Sources d’opportunités, notamment pour les métiers du journalisme et de la communication, elles portent aussi en germe des risques qu’il convient de maîtriser. État des lieux.

Les applications de l’IA générative foisonnent : diagnostic médical, véhicules autonomes, lutte contre les cyber-attaques, achats en ligne et même génération d’articles et d’images dans la presse. Considéré comme un abus de langage, ce terme désigne des algorithmes programmés pour reproduire des comportements intelligents humains. Basée sur des modèles de réseaux neuronaux antagonistes (GAN) et l’apprentissage autonome des machines (« deep learning »), cette technologie (2014) a encore franchi un cap : les travaux de « dish brain » (cerveau en boîte) explorant la fusion de cellules cérébrales avec de l’IA ambitionnent de créer des machines capables d’apprendre tout au long de leur cycle de « vie » à la manière d’un cerveau humain.

L’IA décharge les journalistes de tâches répétitives. Selon l’étude britannique Journalism AI  (2023), 1/3 des médias ont une stratégie IA et 75 % l’utilisent (collecte, production et distribution de l’information). Le Monde est le premier à l’avoir utilisée en France (2015) pour générer des articles automatisés (résultats des élections départementales). L’Équipe l’utilise depuis 2021 pour lister les matchs. Radio France a développé un partenariat avec Polytechnique et Inria en 2022 pour la détection automatisée « d’infox » par IA. Pierre Maturana6, directeur des rédactions numériques de So Foot, reconnaît avoir utilisé « une douzaine d’images d’illustration générées par Midjourney en 10 mois, ce qui est peu vu les milliers d’articles publiés ». Cela ne lui pose pas de problème car si « on est obligé de tout illustrer sur Internet et si l’image n’existe pas, il faut un visuel pour attirer le lecteur ». Il précise indiquer toujours l’origine de l’image ».

L’IA va-t-elle supprimer des emplois dans la presse et la communication, ou aussi en créer de nouveaux ? Thomas Fouchault, secrétaire général de la Ligue des Auteurs Professionnels prévoit « un changement très rapide de paradigme. Pour la communication, si ces algorithmes peuvent tout produire d’un coup, les infographistes seront laissés sur le carreau. Pour la presse, si l’IA peut amener un gain de productivité en réinterprétant des données qui n’ont pas besoin de mise en forme (exemple des élections), il faudra toujours un humain pour vérifier les informations ».

Les IA génératives facilitent la manipulation du réel donc l'opinion publique

Si l’IA générative est vue comme source de progrès, ses dérives sont montrées du doigt. Sam Altman, le PDG d’OpenAI dit regretter son invention de ChatGPT, le robot conversationnel en vogue depuis 2022. Radio France, qui milite pour un « usage raisonné » de l’IA a bloqué l’accès à ses contenus par ChatGPT. L’organisation professionnelle américaine The National Press Club a révélé que les logiciels d’images génératives d’IA DALL-E et Mid-journey avaient entraîné leurs systèmes avec 400 millions pour l’un et 12 milliards pour l’autre d’images et de leurs métadonnées. Getty Image a attaqué en justice Stability AI pour avoir utilisé sans licence ses photos et métadonnées pour fabriquer des images d’IA.

Soucieuses du respect déontologique, les plateformes de diffusion de photos de presse s’autorégulent. Ainsi, l'agence de Photojournalisme Hans Lucas a convenu avec l'AFP de retirer toute image de sa base produite partiellement ou intégralement avec de l'IA. La publication d’images d’IA discrédite le médium photographique en tant que documentation du réel. Ce problème n’est pas spécifique à l’IA (le régime stalinien maîtrisait bien avant l’ère du numérique le photomontage à des fins de propagande). Mais les IA génératives, accessibles et en progrès constant, facilitent la manipulation du réel donc de l’opinion publique. L’image « deep fake » (faussement authentique) d’Emmanuel Macron au milieu de manifestants dangereux en est une illustration. Soucieuses du respect déontologique, les plateformes de diffusion de photos de presse s’auto-régulent. Ainsi, l’Agence de Photojournalisme Hans Lucas a convenu avec l’AFP de retirer toute image de sa base produite partiellement ou intégralement avec de l’IA. Contrairement à son collègue de So Foot numérique, Javier Priéto Santos, rédacteur en chef de So Foot papier, s’interdit de recourir à cette technologie car il « aime les imperfections et les aspérités » et non « l’aspect lisse et le manque d’humanité des images d’IA ».

 

QUESTIONS À WILFRID ESTÈVE, DIRECTEUR DE L’AGENCE DE PHOTO-JOURNALISME HANS LUCAS

Est-il souhaitable chez Hans Lucas d’interdire l’IA sauf lorsqu’il s’agit d’illustrer l’IA ?    

Hans Lucas s’inscrit dans une photographie diversifiée. Concernant la photographie créative, jouant avec la transformation du réel, je ne vois pas pourquoi j’interdirai l’IA. Lors des rencontres de Tanger « Face à la mer » 2022 organisée par Mina Mostefa, Antoine d’Agata a généré 1260 images d’IA de migrants morts en Méditerranée, impossibles à photographier. Ici, le photographe est protagoniste de l’IA. Son discours est carré. Il a bien précisé « image généré par l’IA ». Le photojournaliste travaille dans le monde du réel. Il n’a pas à trafiquer avec de l’IA, sauf pour illustrer l’IA et les frontières du réel. Il est soumis à des règles déontologiques antérieures à l’IA. Le photographe n’est pas l’auteur de l’image d’IA, juste un commanditaire. Le média n’a pas de licence commerciale pour publier une image d’IA. Ce faisant, il se met en tort. Je n’ai cependant pas vu ce type d’utilisations se normaliser. Le crédit doit être affiché pour montrer qu’on n’est pas dans le réel. Si la réglementation oblige les médias qui publient des images d’IA à préciser que ce n’est pas le réel, cela n’est pas plus mal. Cette obligation devrait s’appliquer aux auteurs de fake news en général, IA ou pas IA.

Les agences de photo doivent-elles attaquer l’utilisation sans licence de leurs photos et métadonnées par les logiciels d’IA générative ?

C’est aux sociétés d’auteurs et organisations professionnelles de le faire. L’IA fait partie de l’intelligence collective du Net. Les algorithmes sont construits à partir de choses réelles. Qu’est-ce que cela va déclencher au niveau de la gestion des droits ? C’est un débat intéressant. Il faut traquer, comparer, y compris les métadonnées. On est obligé de mettre sur le web des photos correctement légendées avec des métadonnées. Cela permet d’éviter que la photo tombe dans le champ des œuvres orphelines. Cela n’est pas tout à fait nouveau. Il y a toujours eu des courants d’art créés en réaction d’autres. Les médias n’ont pas franchi le pas. Ils perdraient gros. Franchement ce n’est pas là-dessus qu’ils feraient de grosses économies.

 

Il est indispensable d’éduquer les professionnels et le grand public à identifier les fake news. Entre craintes et espoirs, sans doute est-ce le propre de toute révolution technologique de susciter des débats. Ceux-ci sont nécessaires pour encadrer et réguler les pratiques.

Comment différencier l’image d’IA d’une photo réelle ?

- Anomalies de l’IA : visage lisse ; mains, yeux flous ou disproportionnés ; éclairage non réaliste ou illogique ; style reconnaissable                   

- Utilisation dissimulée ou indiquée             

- Niveau de réalisme des différents éléments composant l’image             

- Logiciels de reconnaissances d’l’IA (ex : GAN detector, Hive AI)

- Fichier RAW des photographies    

L'IA présente un risque d'atteinte aux souverainetés culturelles

En avril 2021, la Ligue des Auteurs Professionnels appelait à mieux réguler les IA génératives et à renforcer la protection des auteurs dont les métiers pourraient être menacés. Thomas Fouchault (ibid.) préconise des mécanismes de compensation financière pour les auteurs « dont les œuvres ont été pompées par les algorithmes pour générer des images d’IA », avec une « capacité de reconnaissance et de redistribution vers les artistes et pourquoi pas “une taxe” prélevée par l’État sur ces IA. À la même époque, la Commission européenne a initié un projet de règlement sur l’utilisation de l’IA générative en fonction de ses niveaux de risque. Inquiet par l’essor de ces technologies et de leurs dérives, le Parlement européen (PE) a adopté cet été une position renforcée sur le projet de la Commission, impliquant le respect de la législation européenne sur le droit d’auteur; une transparence accrue (obligation pour tout diffuseur de “deep fake” (image, audio et vidéo) de mentionner l’origine IA (article 52). Pour le député européen Axel Voss, “permettre un accès à l’ensemble de la documentation sur laquelle se base le texte ou l’image générée serait un minimum. Cela aiderait les auteurs à vérifier la conformité avec leurs droits de propriété intellectuelle (article 28b)”. Le député admet “qu’il faudrait faire plus pour protéger le droit d’auteur lors du prochain mandat en juin 2024, notamment sur les questions de rémunération. Le projet en discussion entre le PE, le Conseil européen et la Commission (trilogue), doit en effet être adopté au plus tard en janvier 2024. Pas sûr que cela suffise pour rassurer la Ligue des Auteurs Professionnels.

En Europe comme ailleurs, en l’absence de garanties légales pour protéger les droits d’auteur dans le contexte de l’IA, les médias commencent à s’organiser. Getty Image vient de lancer un outil générant des images d’IA à partir de son propre stock de photos, affirmant que les revenus seraient partagés avec les auteurs des photos utilisées. Peut-être devrions-nous nous préparer à travailler avec ces IA, quitte à créer les nôtres nous-mêmes.

Enfin, l’IA générative présente un risque d’atteinte aux souverainetés culturelles. Sauf à générer des scripts écartant les biais cognitifs, le recours par l’IA aux contenus les plus visibles et nombreux risque de lisser les spécificités culturelles et d’amplifier la prévalence de modèles sociétaux. Les codes dans la presse et la communication diffèrent beaucoup d’une région du monde à une autre. Il semble absurde de faire confiance aveuglément à des productions générées de façon répétitive et sans traçabilité. Nous n’avons pas fini d’entendre parler de ces algorithmes !

 

Sophie Bellard-Picavet > contact@sophiebellard.com

Fran J. Vasilakis > odd.one.fran@gmail.com

 

À lire aussi