Bill Gates Predit Fin De 2 Metiers Cles En France 2025
Une rumeur au goût de prophétie a traversé les couloirs des hôpitaux, les salles des professeurs et les open spaces : Bill Gates aurait prédit la disparition de deux professions pourtant parmi les plus aimées des Français. Si la formule claque comme un titre de Une, elle ouvre surtout une réflexion cruciale. À l’heure où l’intelligence artificielle se glisse dans les gestes métier, dans les diagnostics, dans les copies d’examen ou même dans nos rendez-vous du quotidien, une question traverse toutes les conversations : comment garder l’humain au cœur d’un monde qui apprend à penser avec des machines ? Entre enthousiasme et vertige, enquête au cœur d’une transformation qui n’a rien d’abstrait.
Dans un service d’imagerie à Lyon, un écran s’illumine et, en moins de trois secondes, un logiciel entoure en rouge une micro-lésion difficilement perceptible sur une radiographie thoracique. Le radiologue gagne un temps considérable, le patient aussi. L’efficacité n’est pas une promesse vague : elle s’observe déjà dans la pratique quotidienne. Les algorithmes analysent des milliers de clichés à une vitesse qu’aucun humain ne peut soutenir, tout en repérant des détails qui échappent parfois à l’œil le plus exercé. Résultat, les diagnostics gagnent en rapidité, et souvent en fiabilité grâce à une exhaustivité statistique.
Cette bascule est documentée : dans une étude publiée au sein de la communauté médicale, le Dr Thomas Day souligne que l’intelligence artificielle libère les praticiens des tâches les plus répétitives. En échographie, par exemple, des systèmes identifient des anomalies deux fois plus vite que la majorité des spécialistes. Ce gain de productivité bouscule les organisations, allège certains goulots d’étranglement et réoriente le rôle du soignant.
Mais détourner le regard de la machine pour regarder le patient reste la priorité. « Je ne veux pas qu’un algorithme parle à la place de ma voix quand j’annonce un diagnostic », confie Aline Verdier, oncologue à Toulouse. Elle raconte le cas d’une patiente venue seule, terrorisée à l’idée d’un cancer. L’IA avait détecté un marqueur suspect ; Aline a pris le temps d’expliquer, de rassurer, de proposer un second examen. « L’empathie n’est pas une option dans ces moments-là. » Les machines peuvent comparer, corréler, classer, mais la relation thérapeutique se tisse dans un regard, une pause, un silence habité.
Pourtant, refuser la technologie serait une erreur. Les gains d’efficacité reconfigurent le quotidien : moins de temps passé à trier, plus de temps pour accompagner. « Les algorithmes deviennent des stéthoscopes du XXIe siècle », résume Farid Benattar, radiologue interventionnel à Nancy. Selon lui, la pratique évolue vers une supervision experte : le clinicien arbitre, contextualise, confirme. La compétence ne se dissout pas, elle se déplace.
La question n’est pas rhétorique. À Lorient, une infirmière, Roxane Le Pelley, voit arriver des outils d’aide à la prise de décision dans son service. « C’est fantastique pour trier les urgences, mais quand quelqu’un souffre, l’algorithme ne tient pas la main. » Elle se souvient d’un adolescent en crise d’angoisse, alors que ses signes vitaux semblaient normaux. La machine proposait une priorité faible ; elle a insisté, pris le temps, mobilisé un médecin. Le jeune a fini par verbaliser un mal-être profond. « C’est là que je mesure que notre rôle ne peut pas être compressé dans un score. »
Le défi, en réalité, consiste à inventer une hybridation réussie. L’IA filtre, suggère, alerte ; l’humain interprète, nuance, décide, explique. Les patients, de leur côté, tolèrent mal la froideur technologique lorsqu’il s’agit de leur santé. Catherine Delorme, 72 ans, raconte son examen de contrôle : « Le logiciel a tout fait très vite, mais j’ai aimé que le médecin revienne m’expliquer. J’ai besoin de comprendre avec des mots. » Cette attente, massive et légitime, rappelle que la confiance n’est pas une donnée : c’est une relation.
Dans les collèges et les lycées, la révolution murmure plus qu’elle ne rugit, mais elle est là. Des plateformes adaptatives ajustent les exercices en temps réel, repèrent les lacunes, recommandent des parcours individualisés. L’élève, suivi de près par des tableaux de bord, progresse à son rythme. Les évaluations s’automatisent, les corrections tombent presque instantanément. Pour l’enseignant, c’est une avalanche de données utiles : comprendre d’un coup d’œil ce qui bloque une classe, repérer qui décroche, intervenir de manière ciblée.
Certains imaginent déjà une école où le professeur deviendrait un coach occasionnel. Bill Gates lui-même a esquissé un futur dans lequel les plateformes couvrent « l’essentiel » des apprentissages moins créatifs. Mais « l’essentiel » n’est pas tout. À Lille, Rémi Cassagnol, professeur de français, l’a vécu en classe de quatrième : « L’outil me disait que les élèves maîtrisaient le subjonctif. En atelier d’écriture, c’était tout autre chose : ils n’osaient pas, ils manquaient de confiance. C’est là que le métier commence. »
La motivation, la socialisation, la posture face à l’effort ne se confient pas à un script. Apprendre, c’est aussi désapprendre la peur, apprivoiser la langue, partager des doutes. « Un élève ne me demande pas seulement une note, il me demande un regard », dit Myriam Gastaud, professeure d’histoire-géographie à Clermont-Ferrand. Elle utilise les diagnostics automatiques pour identifier les erreurs fréquentes, mais consacre son énergie aux explications fines et aux échanges. « Le jour où un logiciel consolera un élève après un échec, on en reparlera. »
Le numérique a une force : il personnalise, il fluidifie, il ouvre des portes. Dans un lycée rural de la Creuse, un terminale spécialité maths suit un module avancé que son établissement ne propose pas ; l’outil comble une inégalité réelle. Ailleurs, des élèves non francophones gagnent des mois d’apprentissage grâce à des parcours linguistiques adaptatifs. Mais l’école n’est pas seulement une somme de contenus. C’est un lieu de vie, de rituels, de socialisation. Les interactions entre pairs, les débats, les projets en groupe forgent des compétences qu’aucun algorithme ne simule convenablement.
Quant aux évaluations automatisées, elles offrent une photographie utile, mais limitée. « La machine corrige ce qu’elle mesure, pas ce qu’on apprend vraiment », remarque Rémi Cassagnol. Une dissertation ou une chorégraphie ne se résument pas à un score. La présence de l’enseignant, son exigence, sa bienveillance, son charisme parfois, composent ce supplément d’âme qui transforme un savoir en désir d’apprendre.
La peur est compréhensible. Une accélération technique peut donner le vertige, surtout dans deux secteurs qui structurent la cohésion sociale. L’idée que des millions de postes basculent du jour au lendemain relève cependant du fantasme. Les professionnels de santé et d’éducation exercent des métiers d’interface humaine. Les prouesses computationnelles ne suffisent pas à assumer l’ensemble des responsabilités, ni à tenir la charge relationnelle. La transformation sera réelle, profonde, mais elle ressemblera moins à une extinction qu’à une recomposition.
Cette recomposition a des implications sociales. Dans les territoires fragiles, l’automatisation peut, si elle est mal pensée, aggraver les fractures. À l’inverse, elle peut réduire des déserts médicaux par la télémédecine, soutenir l’apprentissage là où les remplacements manquent, fluidifier les parcours de soins et d’orientation. Tout dépendra des choix d’investissement, de la formation continue et de la gouvernance éthique des outils.
« On ne protège pas les emplois en protégeant les tâches, mais en augmentant la valeur humaine des métiers », estime Clara Hennequin, directrice d’un centre hospitalier à Reims. Son plan consiste à déléguer aux systèmes ce qui peut l’être, pour réallouer du temps aux consultations longues, à la prévention, à la coordination entre acteurs. Dans un collège de Montpellier, le principal, Lionel Sérafini, suit la même logique : « Si les plateformes corrigent, alors mes professeurs doivent être davantage au cœur de l’oral, du projet, de l’orientation. »
La montée en puissance des outils appelle une montée en compétences des professionnels. Pour les soignants : savoir interpréter les scores d’un modèle, identifier les biais, documenter une décision, expliquer au patient ce que fait la machine et ce qu’elle ne fait pas. Pour les enseignants : maîtriser les tableaux de bord, détecter les effets pervers (apprendre pour la plateforme et non pour soi), stimuler la créativité, orchestrer des tâches où l’IA assiste sans faire à la place.
Sur le terrain, les formations émergent. Aline Verdier anime désormais des ateliers de « consultation augmentée » pour les internes : comment parler d’un résultat généré par l’IA sans abdiquer son rôle de médecin. De son côté, Myriam Gastaud a instauré un « contrat d’usage » en classe : l’outil est un assistant, pas un substitut. Les élèves, briefés, apprennent à citer, à vérifier, à confronter leurs idées à celles d’un logiciel pour mieux les défendre.
Cette acculturation s’accompagne de garde-fous éthiques. Consentement éclairé, traçabilité des décisions, sécurité des données, explicabilité minimale : les règles du jeu sont nécessaires pour éviter l’opacité des boîtes noires. Le but n’est pas de fétichiser l’innovation, mais de la rendre responsable, vérifiable, réversible si besoin.
La confiance ne se décrète pas ; elle se construit. Trois leviers comptent. D’abord, la transparence : dire quand une décision est assistée par un algorithme, afficher les limites, assumer l’arbitrage humain final. Ensuite, la compétence : former les professionnels, pas seulement à l’outil, mais à l’esprit critique et aux biais statistiques. Enfin, la relation : préserver des espaces de conversation, de feedback, d’écoute active.
À Tours, un service de pneumologie a instauré des « minutes d’explication » après chaque annonce sensible : le clinicien prend deux minutes pour décrire ce que la machine a vu, ce qu’il confirme ou infirme, et pourquoi. « J’ai vu les épaules se relâcher », raconte Farid Benattar, venu observer le dispositif. En classe, Myriam Gastaud a collé une affiche claire : « Ici, on apprend avec l’IA, mais on grandit entre humains. » Les élèves l’ont adoptée comme un mantra.
Bien employée, oui. Les algorithmes peuvent aider à détecter plus tôt des pathologies dans des zones sous-dotées, harmoniser des pratiques, réduire des délais. Dans l’éducation, ils peuvent personnaliser les parcours, corriger certaines inégalités d’accès aux contenus, accompagner les élèves à besoins particuliers avec une finesse inédite. Mais la justice n’est pas automatique : elle se travaille. Un modèle entraîné sur des données biaisées reproduira ces biais. Un déploiement sans accompagnement renforcera les inégalités d’usage. L’équité suppose un pilotage éclairé, des audits réguliers, une vigilance pédagogique et clinique.
« L’outil peut niveler par le haut comme par le bas », prévient Rémi Cassagnol. Il se souvient d’une élève passionnée de poésie, étouffée par des exercices trop formatés que la plateforme lui servait. Il a bricolé un module d’écriture libre, avec un feedback humain, et tout a changé : « Elle a retrouvé l’envie. » La personnalisation doit rester un moyen, pas une prison.
Trois chantiers se dessinent. D’abord, la coproduction des usages avec les professionnels de terrain. Sans leur expertise, les outils se trompent de cible. Ensuite, la formation continue, financée et reconnue, pour sanctuariser du temps d’apprentissage. Enfin, l’évaluation indépendante des dispositifs : mesurer l’impact réel sur la qualité des soins, sur les apprentissages, sur le bien-être des équipes et des usagers.
Dans un hôpital de Dijon, un comité pluridisciplinaire réunit chaque mois médecins, infirmiers, ingénieurs, juristes et représentants de patients pour examiner les performances et les incidents. « On arrête un outil quand il dérive, on l’améliore quand il promet », explique Clara Hennequin. À Marseille, un réseau d’établissements scolaires a créé un « atelier d’IA pédagogique » où les professeurs testent, comparent, publient leurs retours. « La meilleure innovation, c’est celle que l’on comprend, que l’on critique, que l’on ajuste », insiste Lionel Sérafini.
La phrase choc sur la disparition de professions dit moins la réalité qu’une tension de notre époque : la tentation d’opposer l’humain et la machine. Or, partout où l’IA impressionne, c’est lorsqu’elle décharge, accélère, éclaire, sans se substituer à ce qui fait le cœur des métiers. Soigner et enseigner ne se réduisent pas à traiter des données. Ils consistent à accueillir des fragilités, à transmettre des repères, à incarner une confiance. Si l’avenir appartient à la collaboration, alors la vraie modernité n’est pas de remplacer, mais d’augmenter : rendre aux professionnels le temps, la disponibilité, la présence que la technique ne saura jamais simuler. Le défi n’est pas de survivre aux algorithmes, mais de s’en servir pour mieux rester humains.
Non. Les algorithmes excellent dans l’analyse d’images et la détection rapide d’anomalies, libérant les soignants de tâches répétitives. Mais l’empathie, l’explication du diagnostic, le consentement et l’accompagnement ne sont pas automatisables. La combinaison IA + clinicien surpasse l’un ou l’autre isolément.
Non. Les outils personnalisent les parcours et accélèrent les corrections, mais la motivation, la socialisation, l’esprit critique et l’accompagnement émotionnel dépendent d’un adulte référent. Le rôle de l’enseignant se déplace vers plus d’interactions orales, de projets et d’explications fines.
Une recomposition plutôt qu’une disparition. Les tâches routinières diminuent, de nouvelles compétences émergent. L’emploi évolue vers la supervision, l’interprétation et la relation, avec un besoin accru de formation continue.
Diagnostics plus rapides et souvent plus fiables en imagerie médicale, tri des urgences plus efficace, suivi des élèves plus précis, corrections instantanées permettant des interventions ciblées. Ces gains libèrent du temps pour la relation humaine.
Biais des modèles, opacité des décisions, sur-dépendance aux scores, inégalités d’accès aux outils, déshumanisation des parcours. Des garde-fous sont indispensables : transparence, traçabilité, audits, implication des usagers et des professionnels.
Expliquer clairement le rôle de l’IA, garder l’humain décisionnaire, documenter les choix, ouvrir des espaces de dialogue. La confiance naît de la compétence, de la transparence et de la relation.
Pour tous : culture des données et des biais, capacité d’interprétation critique, communication claire autour des résultats, éthique de l’usage. Pour les soignants : explicabilité clinique et gestion du consentement. Pour les enseignants : scénarisation pédagogique et évaluation qualitative.
Oui, si elle est déployée avec un pilotage attentif : accès dans les zones sous-dotées, personnalisation pour besoins spécifiques, télémédecine encadrée. Sans gouvernance, elle peut au contraire creuser les écarts.
Co-conception avec le terrain, formation financée et récurrente, évaluation indépendante des impacts, transparence sur les performances et les limites, possibilité de retrait si les résultats ne sont pas au rendez-vous.
Un avenir augmenté. Les métiers se recentrent sur leur cœur : la relation, l’interprétation, la confiance. Les algorithmes deviennent des instruments puissants, à condition de rester au service d’un projet profondément humain.
Ces insectes adorent se glisser dans ton micro-ondes et près du four, puisque chaleur et…
Abandonné pendant des années dans un refuge malgré sa puce, Thor a été choisi par…
Les insectes vous envahissent et vous rêvez d’un foyer sans produits toxiques. Ce spray 100…
L'OMS sonne l'alarme : écraser un cafard chez soi répand des bactéries et des allergènes…
Le bicarbonate, ce classique placard, recèle des super-pouvoirs pour une peau plus nette et plus…
Au cœur d’août, une heatwave se profile, mais des orages orageux pourraient bruire la fin…