Ia Deployee En 2025 Pour Traquer Les Anomalies Reseaux
L’annonce du déploiement d’une intelligence artificielle conjointe civile et militaire pour surveiller les réseaux sociaux à partir de juin 2025 a provoqué une onde de choc. Entre promesses de sécurité renforcée et risques de dérives autoritaires, ce projet cristallise les tensions autour de la protection des libertés à l’ère numérique. Plongée dans un débat qui dépasse largement la simple technologie.
Conçue pour détecter les « anomalies discursives », cette technologie analysera en temps réel les milliards d’interactions quotidiennes sur les plateformes sociales. Contrairement aux outils existants, son algorithme hybride combine l’expertise militaire en détection de menaces avec des modèles civils d’analyse sémantique.
« Lors de nos tests pilotes, le système a identifié avec deux jours d’avance une tentative de manipulation massive de l’opinion avant les élections régionales », explique Éloïse Vernet, consultante en sécurité informatique. « Mais il a aussi signalé à tort des conversations entre militants écologistes comme potentiellement subversives. »
La frontière entre vigilance sécuritaire et répression des opinions dérangeantes semble particulièrement floue. Les critères d’évaluation restent classifiés, alimentant les soupçons de nombreuses organisations de défense des droits numériques.
Ce journaliste indépendant spécialisé dans les mouvements sociaux a vu ses publications systématiquement invisibilisées lors des tests : « Mes enquêtes sur les conditions de travail dans les entrepôts logistiques étaient systématiquement étiquetées comme ‘discours à risque’. Où est la menace pour la sécurité nationale là-dedans ? »
Le projet prévoit effectivement plusieurs mécanismes de contrôle :
Mais pour Clara Duvallon, avocate spécialisée en droits numériques : « Ces dispositifs ressemblent à des cautères sur une jambe de bois. Comment contester une décision algorithmique dont on ignore les critères ? »
Certains experts craignent un effet paralysant sur la liberté d’expression. « Lorsqu’on sait qu’un système vous surveille en permanence, on s’autocensure instinctivement », analyse Simon Leclercq, psychologue social. « C’est ce qu’on observe déjà dans les entreprises équipées de logiciels de surveillance des salariés. »
Alors que le déploiement approche, le débat s’intensifie entre les partisans d’une sécurité renforcée et les défenseurs des libertés fondamentales. Ce qui se joue dépasse la simple question technologique : c’est notre conception même de l’espace public numérique qui est en train d’être redéfinie.
Un consortium public-privé piloté par l’Agence Nationale de la Sécurité des Systèmes d’Information, avec des partenaires industriels sous contrat de défense.
Techniquement non, puisque l’analyse se fait côté serveur des plateformes, sans installation logicielle sur les appareils individuels.
La Chine utilise des systèmes similaires depuis 2020, mais avec des critères politiques explicites. L’Europe serait le premier régime démocratique à déployer une telle technologie à l’échelle nationale.
La France envisage un char intermédiaire face aux faiblesses du Leclerc, avant l'arrivée du futur…
Sébastien Lecornu s’apprête à négocier l’avenir du SCAF avec l’Allemagne et l’Espagne, un projet clé…
L'industrie française des chars de combat cherche des alliances au-delà de l'Europe pour préserver son…
Le CMA CGM Seine, géant des mers de 400 mètres, fait escale au Havre avec…
Une percée technologique avec les piles sodium-air pourrait révolutionner l'aviation régionale. Ces batteries, développées par…
Starlink, le réseau satellitaire de SpaceX, joue désormais un rôle clé dans le conflit yéménite,…