Alors que les tests se multiplient partout dans le monde, les titres historiques ont décliné notre invitation à partager leurs essais. Seul le pure player Loopsider a répondu à nos questions.
En matière d’IA générative, la presse française a choisi la carte de la discrétion. Pourtant le sujet est à l’ordre du jour chez tous les professionnels du secteur, en atteste une récente réunion du Geste où la vingtaine de grands médias présents a bien identifié les menaces mais également les atouts d’un tel outil, ne serait-ce que pour gagner en productivité en lui délégant des tâches opérationnelles à faible valeur ajoutée journalistique (résumé d’articles, SEO, etc.).
« Nous testons l’IA générative pour améliorer la réalisation de nos scripts et aider nos journalistes monteurs à aller plus vite »
Nous avons sollicité de nombreux titres historiques pour savoir où ils en sont des tests voire de l’utilisation de ces outils pour les assister dans la production de leurs contenus. Qu’il s’agisse du Monde, du Figaro, des Echos, du Parisien ou de 20 Minutes, parmi la dizaine d’éditeurs sollicités, tous ont décliné de commenter ce sujet. Le seul média à avoir joué le jeu est le pure player Loopsider. « Nous testons l’IA générative pour améliorer la réalisation de nos scripts et aider nos journalistes monteurs à aller plus vite, par exemple dans l’adaptation des formats de nos vidéos aux codes de chaque plateforme sociale où ces dernières sont diffusées ; nous faisons des essais également pour le copyrighting des textes d’accroche des vidéos, afin d’en disposer de plusieurs versions et comparer leur efficacité. Pour le moment, nous n’avons pas encore tiré de conclusions. Nous explorons toujours, notamment pour améliorer l’existant », déclare Arnaud Maillard, cofondateur et COO de Loopsider. « Pour ce qui est de la création d’images en revanche, nous sommes beaucoup plus prudents et réservés : nous regardons ce qui se fait, mais nous ne le testons pas. Nous ne souhaitons pas nous précipiter dans ce domaine qui peut très facilement mettre en doute le rapport des médias à la vérité. »
Rappelons que l’un des principaux concurrents de Loopsider, le média Brut, a mis en ligne dès le 17 janvier une première vidéo s’appuyant sur une IA, pour la création d’un avatar du journaliste Remy Buisine, et sur ChatGPT, qui a servi à résumer une dépêche de l’AFP, un texte ensuite corrigé et validé par un journaliste de la rédaction avant d’être lu par l’avatar en question. Si Loopsider a accepté de répondre à nos questions c’est peut-être aussi pour nous montrer qu’en matière d’innovation, la marque média n’est pas en reste : « La technologie est notre alliée et depuis le départ nous avons intégré des métiers technologiques pour faciliter le travail de nos équipes, par exemple pour simplifier le processus de production des vidéos de A à Z ou pour analyser les comportements des audiences et algorithmes des plateformes sociales vis-à-vis de nos contenus. Avec l’IA générative notre philosophie reste la même », précise Arnaud Maillard.
De nombreux tests, retours d’expériences et analyses voient le jour en Europe et dans le monde. BuzzFeed a été parmi les premiers à annoncer, à la mi-février, sa décision d’utiliser les outils d’OpenAI, en l’occurrence pour générer des quiz. Le directeur financier de Gannett déclarait fin février que le groupe se sert de l’IA pour sélectionner et recadrer rapidement des images, sans parler du machine learning pour la recommandation de contenus et la collecte des données brutes. Première mondiale, au Koweït, le site d’information Kuwait News a présenté son bulletin vidéo avec une animatrice virtuelle, générée par l’IA.
Le mensuel américain Wired a récemment publié sa politique d’utilisation de l’IA : très précise et restrictive, elle limite le recours à ces outils aux recherches sur les moteurs disposant d’une extension d’IA, à la collecte de suggestions de titres d’articles et de posts sociaux ou à la recherche de sujets à traiter (brainstorming). Une initiative forte qui prend le sujet à bras le corps, en rendant transparentes les règles qui répondent aux exigences éditoriales et à l’éthique du média.
Suppressions d’emplois
Car si on marche sur les œufs sur l’IA générative dans les rédactions, c’est aussi de peur des conséquences que ce sujet peut susciter, comme la suppression massive d’emplois ou les risques liés à un usage mal ou peu maîtrisé de ces solutions. Axel Springer, un des premiers groupes de presse à avoir revendiqué l’usage de l’IA générative en Europe, l’a fait de manière pour le moins très frontale : dans une lettre adressée à ses salariés fin février et relatée dans un communiqué de presse, le CEO du groupe, Mathias Döpfner, a justifié des suppressions d’emploi en défendant l’idée qu’à l’ère de l’IA la « la création de contenu exclusif et attrayant reste irremplaçable et plus essentielle que jamais » mais que la production journalistique sera de plus en plus « techniquement soutenue et automatisée ».
Le média américain CNET, qui a déjà licencié 12 journalistes depuis le début de l’année, a été vivement critiqué pour avoir omis de préciser qu’un certain nombre d’articles publiés fin 2022 avaient été produits avec de l’IA générative, dont plus de la moitié comportaient des erreurs, comme le média lui-même l’a reconnu après. Plus récemment en avril, le tabloïd allemand Die Aktuelle a voulu faire le buzz en publiant une fausse « interview exclusive » de l’ancien pilote de F1 Michael Schumacher, en interrogeant en réalité une IA, une précision qui a été donnée en tout petit au pied de l’article. Une idée qui a valu à la publication une très mauvaise presse dans le pays et des poursuites en justice par la famille de l’intéressé.