Derrière deux lettres, la révolution de l’IA

Dès 1956, l’IA a été reconnue discipline scientifique, visant à reproduire des fonctions cognitives par des calculs numériques massifs, aux paramètres ajustés sur des ensembles de données gigantesques. Mais c’est fin 2022, via le lancement en collaboration ouverte de ChatGPT par la société américaine OpenAI, que le plus grand nombre a pu se familiariser gratuitement avec elle et ses multiples opportunités.

Grâce à leur démocratisation, nous découvrons à présent les applications des outils IA tous les jours. L’IA prédictivese concentre sur des tâches spécifiques (classification, prédiction, résolution de problèmes). L’IA générativese consacre de manière autonome à la création de données, de tout type de contenu (textes, images, vidéos, musique, productions artistiques), qui s’apparentent à celles qui sont créées par des êtres humains.

Les IA utilisent des réseaux de neurones artificiels, des arbres de décision et de logique pour apprendre, digérer les infos et s’auto-corriger. Elle repose sur des modèles statistiques capables de modéliser tout langage et symbole. Avec le «deep learning» (techniques d’apprentissage automatique), ces super calculateurs apprennent sans recevoir d’instructions de la part de l’homme, mais sans aucune représentation du monde. Nourris par des quantités colossales de données (récupérées parfois sans trop s’embarrasser des droits de leurs autrices et auteurs originaux), les «chatbots» (programme conçu pour simuler une conversation avec un être humain) simulent aisément des raisonnements ou des synthèses en imitant le langage courant.

Nécessité d’une gouvernance collective

Le film Matrix, sorti en 1999, est resté dans les mémoires… 25 ans plus tard, la fiction n’a pas rattrapé la réalité, mais on sait qu’une faille globale au sein d’un outil d’IA pourrait avoir un impact mondial et causer un préjudice à des millions de personnes.

En février 2025, plus de 80 pays ont été accueillis au Sommet pour l’Action sur l’IA à Paris, la France faisant partie des sept pays investis dans la coordination internationale «en faveur d’une IA au service de l’intérêt général». Un comité de pilotage regroupant une trentaine de pays a été créé pour que l‘IA profite à toutes et tous et pas seulement à celles et ceux qui la développent. En effet, à ce jour, 119 pays sont encore exclus des discussions internationales. De plus, les pays se sont dotés de systèmes de régulation différents.

Pour l’Europe, l’IA Act est la première initiative commune concrète visant à favoriser l’investissement et l’innovation dans l’IA, par la création d’un marché unique dans l’UE, à améliorer la gouvernance et l’application de règles harmonisées, garantissant la sécurité, les valeurs communes et les droits fondamentaux des utilisateurs. Le tout en se protégeant des leaders mondiaux, USA, Russie et Chine…

En liberté, très surveillée…

La protection des libertés était curieusement absente des cinq thèmes essentiels retenus lors du Sommet pour l’action sur l’IA. Le sujet est pourtant d’une actualité brûlante. Depuis plusieurs années fleurissent partout des dispositifs de surveillance, dits «intelligents», «algorithmiques» ou «augmentés», permettant d’identifier les personnes, de les suivre dans l’espace public ou encore d’anticiper des comportements. Plus l’IA va avancer, plus les règles seront censées être contraignantes, avec des obligations de transparence, de contrôle des contenus, de sécurité, etc. Pour l’Europe, les textes de départ (règlement européen et convention-cadre du Conseil de l’Europe) traçaient des lignes rouges vis-à-vis des technologies incompatibles avec les droits humains et leur fixaient des obligations. Mais ils ont fait l’objet d’un compromis politique fin 2023, où les États membres ont introduit des exceptions, affaiblissant ainsi la protection des droits humains. Les pratiques les plus risquées, comme les technologies de reconnaissance biométrique à distance, de notation sociale, de catégorisation biométrique, de police prédictive, rentrent pourtant bien dans la catégorie des interdictions !

On a donc confié les clés de la régulation de l’intelligence artificielle aux opérateurs eux-mêmes ! Par exemple, la reconnaissance faciale en temps réel a été interdite, mais avec une exception liée au domaine de la sécurité nationale. Or, celle-ci fait partie des domaines les plus problématiques en matière de droits humains… (NB. La reconnaissance faciale a posteriori n’est pas considérée comme intrusive). Autre exemple d’une expérimentation intrusive peu connue : le projet iBorderCtrl, financé par l’Union européenne, système de contrôle biométrique fonctionnant comme un détecteur de mensonges, installé aux frontières de l’espace Schengen, en Grèce, en Hongrie et en Lettonie.

Jusqu’au contrôle social

Outre cette surveillance policière, l’IA est également de plus en plus utilisée dans un but de contrôle social, avec un fonctionnement assez opaque. Certaines études montrent qu’elle présente des biais discriminatoires, car des algorithmes ciblent les populations les plus précaires, ainsi doublement pénalisées. Par exemple : un collectif d’ONG (dont Amnesty International et la Ligue des droits de l’homme), dénonce aux USA une IA qui «perpétue les stéréotypes, renforce les inégalités sociales et limite l’accès aux ressources et opportunités pour les populations les plus vulnérables et les plus discriminées». En effet, des modèles d’IA ont évalué négativement l’intelligence et l’employabilité des Noirs américains en se basant sur leur manière de parler. Une étude, menée à l’école de médecine de Stanford-Californie, a révélé que les préjugés racistes véhiculés risquaient d’entraîner une prise en charge médicale dégradée pour les personnes victimes de ces stéréotypes.

L’Unesco a aussi alerté sur les stéréotypes sexistes et homophobes de la plupart de modèles de langage. La rapporteuse spéciale du Haut-Commissariat des droits de l’homme de l’ONU sur les formes contemporaines de racisme a rappelé l’été dernier que l’IA générative n’était ni neutre ni objective, donnant comme exemple les dangers de la «police prédictive qui illustre bien la façon dont les préjugés raciaux sont reproduits par les avancées technologiques». Les erreurs des machines dérivent bien souvent vers des biais racistes ou sexistes.

Plus on s’éloigne de la médiane, plus le modèle va avoir du mal à prédire et à modéliser le monde. Le problème est que, pour l’instant, la médiane politique du monde correspond majoritairement à la bourgeoisie, à la ‘blanchité’, au genre masculin…

Répercussion sur le monde du travail et l’emploi

Les coulisses des IA réservent des surprises incompatibles avec une vision progressiste du travail et du progrès social. Dans son livre En attendant les robots paru en 2019, A. Casilli explique que les failles de l’IA sont nombreuses et doivent être palliées par un recours intensif au travail humain, précarisé et délocalisé là où la main-d’œuvre est bon marché. Par exemple, des tâches répétitives nécessaires pour rendre des robots «intelligents», améliorant la traduction, le sous-titrage automatique…, sont effectuées à Madagascar. Ou bien, des Kényans payés entre 1,3 et 2 dollars/jour ont été chargés, dans des conditions de travail très dures, de repérer toutes sortes de contenus illicites sur le Web. Ils ont été obligés d’ingurgiter les pires textes et images du Net, pour les épargner ensuite aux clients d’Open Ai, avant le lancement de ChatGPT.

En France, 70h de travail/an pourraient être économisées pour le travailleur moyen et mises à profit pour se concentrer sur des tâches plus créatives, plus valorisantes. 64% des emplois sont censés être améliorés, sous condition d’une formation de la part des salarié·es, volontaires ou pas. Que va-t-il advenir des 36% restant ?

Un rapport du Conseil économique, social et environnemental (CESE) de janvier 2025 a notamment pointé la vitesse de déploiement de l’IA en l’absence de toute concertation au sein de l’entreprise : au départ, en 2017, un peu moins d’un accord de concertation sur mille ! Une autre inconnue de taille reste l’impact de l’IA sur les salaires. Les technologies ne font pas que transformer les métiers, elles modifient les rapports de négociation et la valeur de certaines expertises humaines. Selon le CESE, l’IA peut générer de la croissance et des emplois, mais uniquement si elle est doublement encadrée par des politiques volontaristes et une législation. Et que cela ne soit pas de simples incantations.

L’IA «au service» des politiques publiques et de l’efficacité administrative?

Le Premier Ministre Bayrou a annoncé un plan de déploiement d’outils d’IA permettant à chaque agent de «bénéficier d’assistants IA capables de leur faire gagner du temps et de l’efficacité dans leurs tâches administratives quotidiennes». Premier ministère public concerné : l’Éducation, où «des actions consistent à former élèves et enseignant·es et à simplifier les tâches administratives des personnels». Lors de son dernier congrès, la FSU a dénoncé l’obstination du ministère et des collectivités à survaloriser les IA qui ne sont pas la panacée, mais «constituent une opportunité de mécanisation des enseignements et de l’orientation, servant de levier à des suppressions massives de postes, à une augmentation des inégalités». Cette politique correspond à une conjonction d’intérêts économiques et politiques au service de la marchandisation de l’éducation et donc hostiles au service public, car les IA «démultiplient l’illusion d’un savoir à disposition immédiate, sans passer par un travail personnel et critique, alors même qu’elles exposent les élèves à une masse croissante de contenus non sourcés, erronés, voire à des fakes». De plus, les IA «participent ainsi à des logiques managériales de morcellement, d’automatisation et donc de dépossession des métiers de l’enseignement».

Dans un rapport de novembre 2024, la Défenseure des droits met en garde contre les atteintes aux droits fondamentaux des usagers. Par exemple, l’outil d’assistance conversationnelle « Albert«  a été créé pour aider les agent·es à « mieux répondre aux usagers » afin d' »accélérer les formalités administratives et apporter des réponses sûres, claires et efficaces aux utilisateurs des services publics« . Mais cette aide, désormais standardisée, constitue également une contrainte : l’outil ayant remplacé l’humain, les usagères et usagers n’ont plus d’autre choix que d’y avoir recours. La Défenseure des droits a identifié «une problématique systématique de confiance entre les usagers et l’administration» que des dispositifs tels que les SPDA (service public départemental de l’autonomie) ne régleront pas du tout ! Le développement des compétences permettant de maîtriser l’IA va intégrer à marche forcée les socles communs des parcours de formations des plus jeunes, mais certains sont déjà sortis du cursus scolaire. Il ne touchera pas ou peu les personnes âgées. L’accompagnement du public en retrait, sous-formé et sous-informé, est pourtant un enjeu sociétal majeur.

Attention, arnaque en vue !

A l’occasion du Sommet pour l’Action sur l’IA, E. Macron a lui-même partagé une compilation de deepfakes (enregistrement vidéo ou audio réalisé ou modifié grâce à l’intelligence artificielle) détournant son image. Rares sont les contenus avec la mention «notice sur l’IA» qui indique la provenance virtuelle des images. Il faut garder un œil vigilant et scruter de près celles qui nous semblent «trop» : trop incroyables, trop attirantes, avec des couleurs trop saturées, des formes irréalistes, des ombres et lumières incohérentes…

Ces pièges à clic incitent les internautes à interagir… et se referment sur eux dès qu’ils laissent des commentaires. Elles et ils sont guetté·es par des «brouteurs», des escrocs qui tentent d’entrer ensuite en communication privée, en mentant sur leur véritable identité (certains n’hésitent pas à se faire passer pour des stars de la chanson ou du cinéma!), avec pour seul objectif final de soutirer de l’argent. Pour cela, il faut repérer les réponses peu naturelles, les phrases toutes faites qui jouent sur l’émotion, les syntaxes inappropriées…

«Si c’est gratuit, c’est que c’est vous le produit !»

Les personnes âgées et vulnérables sont les cibles idéales des «boomer traps»,les pièges à seniors et aux personnes crédules ! Il y a bien de l’argent en jeu. Dès le départ, ces comptes artificiels redirigent vers des sites bardés de publicités qui récoltent au passage les données personnelles sans qu’on s’en aperçoive.

Ces pages sont gérées la plupart du temps depuis des pays étrangers (repérer l’indicatif des n° de téléphone!). Ces entreprises peuvent également se servir d’optimisation faisant grimper la fréquentation des sites et leur note, et en les propulsant artificiellement tout au début des pages Google. C’est donc à partir d’un simple commentaire, comme les émoticônes ou les émojis que surviennent les liens vers des faux comptes de groupes privés, qui proposent – au départ gratuitement – de tester des solutions miracles pour réduire ses dépenses, maigrir, trouver l’amour, devenir riche…

Attention aussi aux fausses cartes-cadeaux, qui feraient gagner des points, lesquels peuvent se transformer en coins, lesquels sont sensés devenir des euros… et aux fausses coopératives où le parrainage déclencherait des commissions en cascades. Ce marketing multi-niveau est interdit en France.

L’innovation technologique va par ailleurs coûter à la planète un prix exorbitant en énergie, rejet de CO2, enfouissement de déchets nucléaires et technologiques, détournement de l’eau comme moyen de refroidissement… L’IA est une industrie comme une autre, qui doit répondre aux mêmes questions de responsabilité environnementale, de constat et mise en visibilité de ses impacts.

Constats et enjeux sont vertigineux et exigent prise de conscience et régulation

Basculons-nous dans « l’anthropo-tech » ? Une nouvelle ère ainsi baptisée par certains anthropologues et marquée par la combinaison des intelligences entre puissances de calcul augmentées et savoirs humains. Les algorithmes finissent par très bien nous connaître… Ils nous fournissent des réponses conditionnées et anticipent même nos demandes.

Saurons-nous maîtriser des IA et les rendre plus vertueuses ?

C’est possible, à condition…

  • d’inclure un maximum de pays dans les projets de la gouvernance mondiale de l’IA et de mettre cette technologie au service de l’intérêt général,
  • d’alimenter les data centers par des énergies renouvelables et propres comme la géothermie,
  • d’ obtenir des développeurs des informations sur l’empreinte carbone de leurs modèles,
  • de ne pas rechercher les IA les plus puissantes, donc les plus gourmandes en énergie, d’utiliser des modèles d’IA spécialisés afin de réduire la puissance nécessaire pour les entraîner,
  • de considérer les objectifs environnementaux d’une entreprise comme facteur discriminant lors de recrutement, de valoriser des formations sur la durabilité avant de privilégier les métiers de l’IA,
  • de conserver l’expertise humaine et ce qui donne du sens au travail humain et juguler la déqualification de certains travailleurs par une polarisation entre les tâches à forte valeur ajoutée et celles jugées routinières,
  • d’encadrer le management algorithmique en se référant au cadre législatif existant et au dialogue social établi sur un rapport de force paritaire.

Entre temps, les anthropologues nous inciteront à mobiliser nos modes de pensée pour trouver le chemin d’une « hybridation » aboutie de l’intelligence humaine avec les capacités des machines et dessiner des futurs « plus humains »… Espérons que nos immenses capacités dans nos interactions humaines garderont toute leur complexité, de la dignité et un peu de leur mystère !

Marie-Brigitte Trutt

RETOUR AU SOMMAIRE

Bienvenue sur le blog des retraité.es du SNES-FSU.

La vie militante ne s’arrête pas à la retraite ! Au contraire, les retraités du SNES-FSU participent activement aux mobilisations en cours (protection sociale, dépendance etc) et apportent leurs analyses à des dossiers intergénérationnels.

Contact enretraite@snes.edu