Ia Deployee En 2025 Pour Traquer Les Anomalies Reseaux
L’annonce du déploiement d’une intelligence artificielle conjointe civile et militaire pour surveiller les réseaux sociaux à partir de juin 2025 a provoqué une onde de choc. Entre promesses de sécurité renforcée et risques de dérives autoritaires, ce projet cristallise les tensions autour de la protection des libertés à l’ère numérique. Plongée dans un débat qui dépasse largement la simple technologie.
Conçue pour détecter les « anomalies discursives », cette technologie analysera en temps réel les milliards d’interactions quotidiennes sur les plateformes sociales. Contrairement aux outils existants, son algorithme hybride combine l’expertise militaire en détection de menaces avec des modèles civils d’analyse sémantique.
« Lors de nos tests pilotes, le système a identifié avec deux jours d’avance une tentative de manipulation massive de l’opinion avant les élections régionales », explique Éloïse Vernet, consultante en sécurité informatique. « Mais il a aussi signalé à tort des conversations entre militants écologistes comme potentiellement subversives. »
La frontière entre vigilance sécuritaire et répression des opinions dérangeantes semble particulièrement floue. Les critères d’évaluation restent classifiés, alimentant les soupçons de nombreuses organisations de défense des droits numériques.
Ce journaliste indépendant spécialisé dans les mouvements sociaux a vu ses publications systématiquement invisibilisées lors des tests : « Mes enquêtes sur les conditions de travail dans les entrepôts logistiques étaient systématiquement étiquetées comme ‘discours à risque’. Où est la menace pour la sécurité nationale là-dedans ? »
Le projet prévoit effectivement plusieurs mécanismes de contrôle :
Mais pour Clara Duvallon, avocate spécialisée en droits numériques : « Ces dispositifs ressemblent à des cautères sur une jambe de bois. Comment contester une décision algorithmique dont on ignore les critères ? »
Certains experts craignent un effet paralysant sur la liberté d’expression. « Lorsqu’on sait qu’un système vous surveille en permanence, on s’autocensure instinctivement », analyse Simon Leclercq, psychologue social. « C’est ce qu’on observe déjà dans les entreprises équipées de logiciels de surveillance des salariés. »
Alors que le déploiement approche, le débat s’intensifie entre les partisans d’une sécurité renforcée et les défenseurs des libertés fondamentales. Ce qui se joue dépasse la simple question technologique : c’est notre conception même de l’espace public numérique qui est en train d’être redéfinie.
Un consortium public-privé piloté par l’Agence Nationale de la Sécurité des Systèmes d’Information, avec des partenaires industriels sous contrat de défense.
Techniquement non, puisque l’analyse se fait côté serveur des plateformes, sans installation logicielle sur les appareils individuels.
La Chine utilise des systèmes similaires depuis 2020, mais avec des critères politiques explicites. L’Europe serait le premier régime démocratique à déployer une telle technologie à l’échelle nationale.
Vendée: la découverte d’un gisement de lithium déclenche une ruée foncière, attire industriels et collectivités,…
Yvelines, Val Fourré: le trafic de fausses cigarettes explose, ruine les buralistes et menace la…
Melon: parfum sucré, légère souplesse, poids dense. Pédoncule fissuré et arcs réguliers garantissent une chair…
SIM swapping: perte de réseau, SMS absents, SIM désactivée. Réagissez vite: opérateur, banque, mots de…
130 km/h maintenus pour sécurité et écologie, macaron S pour seniors non obligatoire. Entre rumeurs…
Retraite: calculez une pension entre 70% et 80% de votre revenu net, en intégrant l’inflation,…