Le 8 octobre 2025, l’IUT Grand Ouest Normandie, antenne d’Ifs, devient le théâtre d’un débat crucial pour l’avenir du journalisme : l’impact de l’intelligence artificielle sur un métier en pleine mutation. Organisée par le Club de la presse et de la communication de Normandie, cette table ronde réunit des professionnels aux regards croisés — journalistes, chercheurs, spécialistes du numérique — pour interroger les bouleversements induits par ces technologies. Dans un contexte où l’information circule plus vite que jamais, où la désinformation prospère et où les rédactions cherchent à s’adapter, la question n’est plus de savoir si l’IA a un rôle à jouer, mais comment elle peut être maîtrisée, encadrée, et mise au service de l’intérêt public.
Quel est le rôle concret de l’IA dans les rédactions aujourd’hui ?
À Ouest-France, David Dieudonné incarne cette nouvelle figure du journaliste hybride : à la fois rédacteur, développeur et médiateur technologique. En tant que chef de projet intelligence artificielle, il ne se contente pas d’utiliser des outils IA ; il les conçoit, les teste, et forme ses collègues à leur bon usage. « Il y a cinq ans, personne ici ne parlait d’algorithmes ou de machine learning, raconte-t-il. Aujourd’hui, nous expérimentons des assistants IA capables de synthétiser des rapports administratifs, de relire les articles à la recherche d’erreurs de fait, ou encore de proposer des angles d’écriture. »
Pour David, l’enjeu n’est pas de remplacer les journalistes, mais de les libérer. « Un journaliste passe en moyenne 30 % de son temps sur des tâches répétitives : retranscription d’audiences, reformulation de communiqués, vérification de chiffres. L’IA peut automatiser cela, et ainsi redonner du temps à l’investigation, à l’écoute, à l’écriture de qualité. »
Il cite l’exemple d’un projet pilote lancé en 2024, où une IA a été entraînée à rédiger des comptes rendus de conseils municipaux dans les petites communes. « Ce n’était pas parfait au départ, admet-il. Mais après ajustement, les textes étaient clairs, factuels, et surtout, ils permettaient de couvrir des zones que nos effectifs réduits ne pouvaient plus atteindre. »
Comment l’IA transforme-t-elle la relation entre le journaliste et son public ?
Yann Guégan, journaliste chez Contexte, voit dans l’IA une opportunité de repenser la forme même du journalisme. « Nous ne sommes plus seulement des fournisseurs d’information, mais des concepteurs d’expériences. L’IA nous permet de personnaliser le contenu, de l’adapter à différents niveaux de lecture, ou même de générer des synthèses interactives. »
Il prend l’exemple d’un outil qu’il a co-développé : un générateur automatique de résumés de politiques publiques. « Un lecteur peut entrer un thème — disons, la réforme des retraites — et obtenir en quelques secondes une synthèse neutre, sourcée, avec des liens vers les textes officiels. Ce n’est pas de l’analyse, mais ça permet à des citoyens pressés d’avoir une base solide. »
Pour autant, Yann Guégan reste vigilant. « L’IA ne doit pas devenir une boîte noire. Si elle résume, il faut qu’elle explique ses choix. Si elle cite, il faut qu’elle référence. Le risque, c’est de produire de l’information apparemment claire, mais dénuée de profondeur. »
Il raconte une anecdote édifiante : un collègue, pressé par une deadline, a utilisé un outil d’IA pour rédiger un article sur un nouveau dispositif d’aide aux artisans. « Le texte était fluide, bien tourné. Mais il mentionnait une subvention qui n’existait pas. L’IA avait halluciné. Heureusement, une relecture humaine a permis de corriger. »
L’IA menace-t-elle l’intégrité de l’information ?
Cécile Dolbeau-Bandin, maîtresse de conférences à l’Université de Caen, aborde le sujet sous l’angle de la désinformation. « L’intelligence artificielle n’est pas neutre. Elle apprend sur des données produites par des humains, donc imparfaites, biaisées, parfois manipulées. »
Ses recherches montrent que les algorithmes peuvent reproduire des stéréotypes — par exemple, en associant plus fréquemment certaines professions à un genre. « Dans un article automatiquement généré sur les entrepreneurs locaux, l’IA pourrait dire “il a fondé sa start-up” alors que la personne est une femme. Ce n’est pas anodin : cela entretient des représentations sociales. »
Elle s’inquiète aussi de la montée des deepfakes et des contenus générés de manière autonome. « Imaginez un discours politique fabriqué de toutes pièces par une IA, diffusé sur les réseaux sociaux avec un réalisme parfait. Le public ne saura plus distinguer le vrai du faux. Et si les journalistes eux-mêmes utilisent ces outils sans transparence, c’est toute la crédibilité du journalisme qui est en jeu. »
Pour elle, la réponse passe par une éducation aux médias renforcée. « Il faut apprendre aux citoyens à lire les contenus avec un œil critique. Mais aussi former les journalistes à comprendre les limites et les biais des outils qu’ils utilisent. »
Quelles compétences les journalistes doivent-ils acquérir face à l’IA ?
À l’IUT d’Ifs, où Cécile Dolbeau-Bandin enseigne, les étudiants en information-communication suivent désormais un module sur les technologies émergentes. « Ils apprennent à utiliser des outils d’IA, mais aussi à les questionner, explique-t-elle. Ce n’est plus suffisant de savoir écrire ou filmer. Il faut comprendre les algorithmes, savoir vérifier une source générée par machine, être capable de détecter une hallucination. »
Elle raconte le cas d’une étudiante, Léa, qui a utilisé une IA pour préparer une interview d’un chercheur en climatologie. « Elle a demandé à l’outil de lui proposer des questions. L’IA en a suggéré plusieurs pertinentes, mais aussi une qui était fondée sur une théorie du complot. Léa s’en est rendu compte parce qu’elle avait été formée à la vérification. »
David Dieudonné confirme ce besoin de formation continue. « Chez Ouest-France, nous avons mis en place des ateliers mensuels. Pas pour former des ingénieurs, mais pour que chaque journaliste puisse comprendre ce que fait l’IA, ce qu’elle peut faire, et surtout ce qu’elle ne devrait pas faire. »
Quels sont les risques éthiques liés à l’automatisation du journalisme ?
La question de l’éthique est centrale. Yann Guégan insiste sur la nécessité de transparence. « Si un article est co-écrit avec une IA, le lecteur doit le savoir. Sinon, on trahit la confiance. »
Il évoque un débat interne chez Contexte : devait-on indiquer que certains graphiques étaient générés automatiquement à partir de données publiques ? « On a décidé que oui. Même si le processus est fiable, le lecteur a le droit de savoir comment l’information a été produite. »
David Dieudonné soulève un autre risque : la perte de diversité éditoriale. « Si toutes les rédactions utilisent les mêmes modèles d’IA, entraînés sur les mêmes corpus, on risque d’aboutir à une standardisation du discours. L’information deviendrait lisse, uniforme. Or, le journalisme, c’est aussi de la singularité, de la subjectivité assumée, du style. »
Il raconte une discussion avec un jeune journaliste, Théo, qui s’inquiétait de devenir « un simple superviseur de machines ». « Je lui ai dit : ton rôle n’est pas de taper du texte, c’est de poser les bonnes questions, de capter l’émotion d’un témoignage, de raconter une histoire. L’IA ne fait pas ça. Elle aide, mais elle ne remplace pas l’humain. »
Quelles opportunités l’IA offre-t-elle pour renforcer le journalisme d’investigation ?
Contrairement aux idées reçues, l’IA peut être un allié puissant de l’investigation. Yann Guégan cite l’exemple d’un projet où Contexte a utilisé une IA pour analyser des milliers de documents publics relatifs à des marchés publics. « En quelques heures, l’outil a identifié des anomalies que des journalistes auraient mis des semaines à trouver. »
David Dieudonné évoque une autre piste : l’analyse des discours politiques. « Nous avons entraîné un modèle pour détecter les inversions de position d’un élu sur un sujet donné. Cela nous a permis de produire un article comparatif très fort, avec des données objectives. »
La clé, selon Cécile Dolbeau-Bandin, est le contrôle humain. « L’IA peut pointer des pistes, mais c’est au journaliste de contextualiser, d’interpréter, de confronter les faits à d’autres sources. Sans cela, on produit de la pseudo-information. »
Comment encadrer l’usage de l’IA dans les rédactions ?
Les trois intervenants convergent sur un point : il faut des garde-fous. David Dieudonné appelle à des chartes éditoriales spécifiques à l’IA. « Comme nous avons des règles pour citer une source ou protéger un témoin, nous devons en avoir pour l’usage des algorithmes. »
Yann Guégan propose de créer des postes de “responsables IA” dans chaque média. « Pas forcément des techniciens, mais des journalistes formés, capables de valider les usages, de former les équipes, de dialoguer avec les développeurs. »
Cécile Dolbeau-Bandin insiste sur le rôle des institutions. « Les universités, les écoles de journalisme, les syndicats, doivent s’emparer du sujet. Ce n’est pas une question technique, c’est une question démocratique. »
A retenir
L’IA est un outil, pas un auteur
Les journalistes restent les garants de la véracité, de la pertinence et de l’éthique de l’information. L’IA peut accélérer certains processus, mais elle ne remplace pas le jugement humain, l’empathie ou la capacité à raconter une histoire.
La transparence est non-négociable
Tout usage d’IA dans la production d’un contenu doit être clairement indiqué. Le public a le droit de savoir comment l’information a été fabriquée.
La formation est urgente
Les journalistes de demain devront maîtriser à la fois leur métier fondamental et les outils numériques. Les rédactions, comme les écoles, doivent investir dans cette double compétence.
Le risque de biais est réel
Les IA reproduisent les biais présents dans leurs données d’entraînement. Une vigilance constante est nécessaire pour éviter la propagation de stéréotypes ou de fausses informations.
L’investigation gagne à être augmentée
En combinant l’analyse algorithmique et le travail humain, le journalisme d’investigation peut atteindre de nouveaux niveaux de précision et d’efficacité.