Un atelier technocritique sur l’IA avec des élèves de 2nde

06/07/2025

Peut-on critiquer la Technique ? Il s'agit d'une question légitime dans nos sociétés colonisées, et cela de plus en plus rapidement, par des innovations technologiques qui chacune modifie les mondes entrelacés que nous habitons, humains et autres qu'humains. Des artefacts comme le smartphone ou l'Intelligence Artificielle ont profondément changé notre rapport au réel, nos habitudes personnelles ou professionnelles, ainsi que nos propres corps (postures, plasticité cérébrale, sensibilité, addiction…). Ils ont aussi, par leur matérialité, transformé radicalement, plutôt en les détruisant, des milieux de vie et des corps contaminés par l'extractivisme délirant caché sous le concept ambigu de progrès. Cette puissance technique découle nécessairement d'un immense pouvoir, ce dernier ne pouvant que se voir accru par celui qu'implique la possession de ces objets et la domination inscrite dans leurs potentialités. Le problème, c'est que dans une société qui passe son temps à réagir sans considérer les liens subtils qui lient les vivants, qui pense que tout doit être fait, recherché, construit, sans prudence, penser à limiter la recherche scientifique ou critiquer la technologie passe pour de l'obscurantisme ou de la technophobie.

Au passage, il me semble normal, naturel, d'avoir une certaine peur (réaliste) de la Technique. Une peur d'être absorbée par elle, d'être à son service, qu'elle détruise l'illusion de stabilité dans laquelle nous naviguons à vue, et surtout qu'elle impacte durablement les êtres et les paysages. Hans Jonas, dans son Principe Responsabilité, développait une "heuristique de la peur" (du grec heuriskein, "qui sert à la découverte"), non pas comme fondement éthique, mais comme un des moteurs de l'agir par le pari sur les conséquences improbables et destructrices de la Technique. Il décrivait la Modernité comme un passage de la puissance de l'Homme face à la nature - c'est-à-dire une capacité de la transformer localement - à un pouvoir de celui-ci sur l'ensemble du Vivant - c'est-à-dire la capacité de détruire entièrement la nature (un passage donc de la maîtrise à la domination). Cette destruction intégrale du Vivant semble a priori tout à fait impossible (on lira les critiques de Karl-Otto Apel à ce sujet), mais permet effectivement le développement d'une peur sans aucun doute féconde en terme de luttes écologistes, une peur pour le Vivant tout entier. En effet, si cette peur permet, dans un premier temps, de fausser compagnie à la fascination, elle doit pouvoir – sauf à porter en elle l'irrationnel de la pure réaction (le premier genre de connaissance Spinoza), donc une passion triste – se muer en besoin de compréhension fine des moyens et des fins de la Technique (le deuxième genre de connaissance du même auteur), afin que nous puissions garder la pleine liberté de prendre en charge et donc de résister à ce que nous n'avons effectivement pas choisi : l'évolution technique.

Mais allons maintenant plus loin : peut-on critiquer la Technique à l'école ? Question légitime à l'heure où un sondage révèle que 46% des anglais.es entre 16 et 21 ans auraient préféré passer leur jeunesse sans Internet (sondage fait sur 1293 personnes). On aurait mille raisons de critiquer l'école, d'y voir une institution dévouée à l'uniformisation des esprits ou une machine à fabriquer des ressources humaines compétentes prêtes à être extraites par la sphère économique pour nourrir la mégamachine qui détruit le monde (cf. par exemple Une société sans école d'Illich et Avertissement aux écoliers et lycéens de Vaneigem). Plus spécifiquement, on pourra lire les mots d'Ivan Illich dans La répression du domaine vernaculaire (cf. Le travail fantôme) à propos de l'imposition par les états de l'apprentissage d'une langue commune à l'école afin de mieux contrôler les peuples, ou bien ceux de Guillaume Carnino dans L'invention de la science sur le travail d'endoctrinement au mythe du progrès effectué par les états à la fin du XIXème siècle à la fois auprès du grand public et dans les écoles avec un renforcement de l'enseignement des sciences, encore une fois avec pour projet de calmer les esprits révolutionnaires et promouvoir l'industrie et le productivisme. Par contre, on aurait tort de ne pas voir dans la symbiose « professeurs/élèves », c'est-à-dire celle de la base, un potentiel immense d'émancipation, pour peu qu'elle ne soit pas écrasée par les programmes et autres directives technocratiques (pensons à La pédagogie des opprimés de Paolo Freire).

Il est en effet le rôle des enseignant.es, je le pense, de faire le lien entre les savoirs que nous nous transmettons de génération en génération (pour reproduire la société), et les transformations du monde, en particulier techniques. A cette occasion, il faut absolument continuer à développer l'esprit critique des adolescent.es afin d'éviter qu'ils ne finissent par être de simples segments aliénés entre des machines (en particulier numériques), que ce soit dans leur futur travail ou dans leur vie personnelle. Là encore, prendre le risque de faire une critique constructive de la technologie avec des élèves, c'est s'exposer au terrorisme idéologique des chantres du progrès, c'est passer par exemple pour un.e « gauchiste révolutionnaire » ou un.e « éco-fasciste », alors qu'il n'est question ici que de connaissances, d'esprit critique et de développement de pratiques alternatives propre à une diversité permettant de réenchanter le monde.

C'est pourquoi, avec Louis Dupaigne, un de mes collègues de notre institut de recherche avec lesquels nous poursuivons une réflexion approfondie concernant les sciences et l'écologie, nous avons tenté une expérience intéressante lors de la venue d'un groupe d'une quarantaine d'élèves stagiaires de seconde au sein de notre laboratoire, il y a quelques jours : faire un atelier technocritique intitulé « Rester critique face à l'Intelligence Artificielle ». L'idée était assez simple, en tout cas dans les faits :

  • expliquer ce que sont réellement les IA génératives (des technologies statistiques), c'est-à-dire démystifier un outil, une nouvelle prothèse numérique, qui peut sembler, à tort, magique, pour on l'espère donner un coup (fatal?) au néo-animisme technique que la « discussion » avec la machine et la religion du tout-informationnel semble aujourd'hui renforcer ;

  • montrer leurs limites en Mathématiques, pour discuter de la pertinence des résultats donnés par la machine (64 % d'après un récent article de chercheurs de l'Université de Hong-Kong), pertinence qui tend d'ailleurs à diminuer à force d'auto-alimentation de ces outils par leurs propres erreurs (elle serait aujourd'hui, d'après OpenAI lui-même, tombée à 62%). A cette occasion, montrer que ChatGPT n'était pas capable de multiplier deux nombres à 6 chiffres a réellement surpris les élèves présent.es, rendant caduque l'utilisation de cet outil pour faire ses devoirs, simplement « comme ça », en recopiant trop paresseusement un contenu potentiellement bourré d'erreurs, ce qui a permis par la même occasion de discuter de l'autonomie face à la machine ;

  • entrer « dans la tête d'une IA », même si l'expression est un peu fâcheuse à mon goût (avoir une tête suppose d'avoir un corps, je présume), à l'aide d'une partie d'un atelier de la Maison des Mathématiques et de l'Informatique de Lyon, permettant aux élèves de voir comment une machine peut inférer une règle à partir d'exemples et afin de trier des données, comment elle crée nécessairement des biais ou comment par exemple faire en sorte qu'elle différencie un 6 d'un 9 écrit à la main ;

  • discuter différents aspects problématiques de l'IA, que ce soit sa pollution, ses liens avec le pouvoir et la surveillance des populations, les affections cognitives induites par son utilisation, ses incontournables biais, sa boulimie de données qu'il peut réutiliser comme bon lui chante, ainsi que sa main d'oeuvre humaine chargée de l'entraîner. Nous avons en effet trop tendance à glisser sous le tapis ces questions écologiques et sociales quand on souhaite adopter une technologie de confort, alors qu'il semble essentiel de bien comprendre quelles sont les fondations et les particularités de la nouvelle maison, le nouveau monde, qu'a déjà crée l'IA autour de nous.

Nous sommes donc lancés, nous qui ne sommes absolument pas spécialistes de l'IA, dans cette aventure pédagogique de trois heures, avec pour point de mire le développement de l'esprit critique. J'aimerais ici raconter très brièvement le déroulé de cette expérience, et plus particulièrement la deuxième partie, celle qui rentrait profondément dans la critique de l'IA en tant que système socio-technique et que j'ai eu la chance de créer avec mon collègue et d'animer pour la première fois. Notons que ce type d'exercice se fait rarement dans un endroit dédié aux Mathématiques, où l'on manipule plutôt des concepts abstraits avec des symboles. Regarder de près, à partir d'études faites par des scientifiques (sociologues compris), comment un objet technique, mathématique, crée un certain monde matériel et social, est un moment très particulier, un début de sentier vers une éthique plus générale, un rapport au monde plus critique.

Par une journée caniculaire de juin, il n'était pas gagné d'avance, dans une salle peu ou pas climatisée, de faire lire des textes à des adolescent.es de 14/15 ans, puis répondre à des questions par écrit tout en débattant les un.es avec les autres des thèmes évoqués afin de permettre une restitution en public dans la deuxième partie de l'atelier, tout cela en une heure (30 minutes de lecture/questions/débats, 30 minutes de restitution). Le pari fut, je le pense, totalement réussi, et cela pour les raisons principales suivantes :

  • les élèves ont clairement joué le jeu, lisant sérieusement les textes, essayant de répondre le mieux possible aux questions posées ;

  • ils et elles ont montré beaucoup de maturité dans leurs réponses et leurs restitutions, avec un recul critique déjà important pour leur âge ;

  • la variété des thèmes abordés a rendu l'atelier, je le pense, plutôt enthousiasmant, en permettant de balayer des aspects fondamentaux de ce que l'IA cache derrière son fascinant écran de fumée ;

  • les retours que nous avons eu étaient extrêmement positifs, le regard de pas mal d'élèves sur l'IA ayant changé après cet atelier.

Sans en faire un description exhaustive, observons ici le panorama de ce qui a été évoqué, discuté, compris (les textes, dont les numéros sont précisés pour chaque thème, sont listés en fin d'article) :

  • Impacts environnementaux [1] : les élèves n'ont pas été tellement surpris par le besoin immense en énergie de l'IA en général, ni tellement par leur empreinte carbone, sans doute car ils et elles sont déjà abreuvé.es de ce genre chiffres depuis des années. On pourra noter ici que garder la discussion de ces impacts uniquement sur le plan technique (les chiffres, etc.) permet difficilement une compréhension corporelle de ces problèmes. Par contre, la question de l'eau douce – que chacun.e consomme chaque jour, en particulier un jour de canicule –, utilisée pour refroidir les centres de données, évaporée sur l'autel de l'accumulation, a donné lieu à quelques visages surpris et à une discussion plus longue. Imaginer 1.5 litres partis en fumée durant une discussion a priori ludique avec la machine, en particulier quand il fait 39°C à l'extérieur, c'est nécessairement confronter un besoin vital à la consommation d'algorithmes statistiques.

  • Liens avec le pouvoir [2] : il était évidemment plus difficile de faire de la géopolitique avec des élèves de cet âge (et un peu délicat dans le contexte actuel), mais le fait est qu'ils et elles ont réussi à saisir la notion de concentration des pouvoirs dans quelques mains (pays, entreprises), autant au niveau militaire qu'au niveau de l'IA, et comprendre le danger inhérent à ces polarisations. La notion de « bien commun » a aussi été discutée, en essayant de comprendre ce que « commun » veut dire, et comment ces technologies ont pour le moment des aspects tyranniques et stratégiques qu'il serait désirable de transformer dans un futur proche.

  • L'IA avec la surveillance [3] : l'utilisation de l'IA pour protéger, autrement dit surveiller, les populations a été abordée. Certains élèves, assez pragmatiques, ont concédé que l'utilisation de la vidéosurveillance lors des derniers JO de Paris fut un succès. Ils ont aussi convenu que la sémantique était importante (vidéoprotection vs. vidéosurveillance), et que l'utilisation à long terme pouvait poser problème concernant les libertés individuelles. Le temps nous a malheureusement manqué pour approfondir ce sujet.

  • Les affections cognitives [4] : ce sujet a beaucoup plu aux groupes qui l'ont abordé. L'idée même que des parties du cerveau pouvaient se voir atrophiées à cause d'une utilisation de certaines technologies (GPS, IA génératives, etc.) semble avoir beaucoup marqué les élèves présent.es. Ils et elles émettaient certaines peurs de perdre leur créativité ou leur sens critique (terme qu'il était d'ailleurs important d'expliciter). La transformation du cerveau au cours du temps fut mentionnée, en particulier la nécessité d'avoir de tels changements sur le temps long pour éviter ces dégradations des facultés cognitives. De multiples exemples issus des livres de Miguel Benasayag (par exemple Cerveau augmenté, homme diminué) ont été utilisés lors des discussions.

  • Les biais de l'IA [5] : les IA génératives absorbant les données d'Internet, il a été convenu avec les élèves que les biais intrinsèques à ces informations se propagent nécessairement à la machine et pouvaient créer des situations par exemple de racisme, de discrimination à l'embauche, d'homophobie ou de misogynie. Les présentations (exceptionnelles !) lors des différentes restitutions ont montré une maturité importante sur ces sujets. De plus, enprésentant au passage la manière dont les enseignants-chercheurs et les enseignantes-chercheuses étaient embauché.es au sein d'un laboratoire – avec un jury extérieur au labo, une parité homme/femme et un texte lu en début de processus permettant de rappeler les biais de la profession – ils et elles ont pu comprendre aussi les problèmes inhérents aux discriminations, directs (les biais d'une société patriarcale) et indirects (le besoin de parité obligeant des femmes à assister à beaucoup trop de jurys). L'idée que de tels biais puissent être corrigés grâce à une machine ne semblait évidemment pas vraiment convaincre les élèves présent.es.

  • Les données [6] : les IA génératives étant littéralement assoiffées de données, des questions de confidentialité et donc de sécurité ont pu être facilement abordées. Se demander par exemple comment un programme peut identifier précisément un utilisateur ou une utilisatrice, où vont ces données, ce qu'il faut « dire » ou non à la machine (résultats médicaux, informations personnelles ou professionnelles, etc.), tout cela était plutôt bien compris par les élèves. Des alternatives à l'utilisation de la machine – pour gagner en autonomie par exemple, ou partager les expériences et les savoirs entre humains – ont aussi été discutées, ainsi que la question de la mémoire (de stockage, pour la machine). En effet, en leurs demandant si, comme une IA, ils et elles étaient incapables d'oublier quoi que ce soit, quels en seraient les avantages et les inconvénients, j'ai pu obtenir d'excellentes réponses concernant les problèmes psychologiques que cela pourrait engendrer, qu'il est souvent plus sain d'oublier les choses, mais que ça serait tout de même pratique pour apprendre les leçons ! Nous avons pu à cette occasion discuter de la différence entre le vivant et la machine, une des caractéristiques du premier étant d'oublier (physiquement, avec remplacement régulier des cellules, et mentalement, avec la mémoire…), alors que la machine ne faisait qu'empiler les informations tout en restant finalement toujours la même.

  • La main d'oeuvre humaine de l'IA [7] : enfin, nous avons pu parler des humains derrière la machine, sans qui l'IA ne fonctionnerait pas (trier les données, entraîner les systèmes, etc.). Le chiffre énorme de 100 millions de micro-travailleurs et travailleuses (c'est-à-dire 1 % de la population mondiale totale) a beaucoup surpris, et ce type de travail a été qualifié d'« injuste » et de « mal payé » par les élèves. De plus, la métaphore du « turque mécanique » utilisée par Amazon pour le nom de sa plateforme mettant en relation humains et IA – qui vient d'un célèbre faux automate construit en 1770 et qui prétendait jouer aux échecs alors qu'un homme était caché dedans – a bien été comprise (certains élèves connaissaient d'ailleurs déjà l'histoire de cette supercherie). Quant à la répartition des pays où ces travailleuses et travailleurs vivent et celle des pays qui développent l'IA (et qui ont donc besoin de cette main d'oeuvre bon marché), elle n'a pas étonné les élèves, déjà habitué.es à la délégation des tâches pénibles dans le Sud Global. Ainsi, le fait qu'énormément de personnes exécutent déjà ces tâches aux Etats-Unis et maintenant en Europe (y compris la France) a tout de même surpris tout le monde.

Ainsi, cet atelier a permis de mettre en avant le fait que l'IA est bien plus qu'un outil, mais un système socio-technique, qu'il crée un monde dans lequel il nous faut évoluer, avec lequel nous hybrider le mieux possible (au sens, organique et social, de trouver la bonne façon de vivre cette liaison avec ce système), au lieu d'être colonisé par son immense pouvoir de domination, pour augmenter notre puissance d'agir sans détruire celle des autres. Notons la parution très récente (à point nommé) d'un excellent texte d'Olivier Lefebvre intitulé « ChatGPT, c'est juste un outil ! » : les impensés de la vision instrumentale de la technique, qui permet d'aller plus loin dans la réflexion sur ce sujet.

Au passage, j'ai eu récemment une discussion intéressante, encore une fois avec mon collègue Louis Dupaigne, à propos de ce que l'on pourrait imaginer comme hybridation vertueuse avec l'IA. Nous avons tous les deux en effet la tendance à rejeter en bloc cette technologie, pour toutes les raisons mentionnées ci-dessus, et plus encore. Je propose donc ici les trois cas de figure  suivants (nécessairement polarisés) concernant l'utilisation de l'IA par les étudiant.es :

• Colonisation : l'étudiant.e utilise l'IA sans réfléchir, laisse la machine guider ses choix, se repose sur elle pour des tâches quotidiennes, l'utilise aveuglément pour avoir une réponse, pour faire ses devoirs, parce que la machine semble répondre à ses questions de manière immédiate, facile, confortable, raisonnée, académique. Ici, l'étudiant.e n'est pas intéressé.e par le processus d'enseignement ou autre (et cela pour diverses raisons, d'intérêt, de temps à consacrer à la tâche, etc.), il ou elle réagit en suivant la ligne de fuite du confort, de l'utilitarisme, et prend facilement des raccourcis. C'est un peu le premier genre de connaissance de Spinoza, celui à partir des affects seuls, des idées inadéquates (Deleuze).

• Hybridation : l'étudiant.e utilise l'IA pour débloquer des situations, pour impulser une critique, une pensée, sans prendre pour argent comptant ce qu'il ou elle lit sur l'écran. Ici l'étudiant.e a bien compris comment l'IA fonctionne, n'a pas confiance, et connait donc les choses par les causes, par les rapports entre les choses, c'est le deuxième genre de connaissance de Spinoza, et c'est en grande partie pour développer cette approche que cet atelier a été créé.

• Rejet : l'étudiant.e n'utilise jamais l'IA car il ou elle sait qu'elle peut compter sur ses camarades de classe, sur ses professeur.es, pour débloquer les situations, et que ce n'est pas si grave d'attendre de les voir "en vrai" pour cela, ou juste de leur téléphoner (ses camarades, évidemment). Ici, on se rapproche un peu, si l'on veut, du troisième genre de connaissance de Spinoza, celle de la sagesse, de la connaissance intuitive, puisque l'on sait qu'il vaut mieux renforcer les liens existants que de prendre "le point de vue de nulle part" (Benasayag) propre à la machine.

On peut aussi imaginer une hybridation vertueuse (via une colonisation de la machine par l'humain) – toujours situationnelle, dépendant du lieu, de la culture, etc., ce que l'application uniforme de l'IA ne prend jamais en compte – quelque part entre les deux derniers points, où une utilisation de l'IA permet le développement de nouvelles dimensions de l'existence chez les étudiant.es, les poussant à se lier aux autres dans le monde réel, créer ensemble, dans la joie et les conflits constructifs indissociables de la vraie vie. Devant la froideur statistique de ce système socio-technique, nous avons tout de même du mal à imaginer autre chose qu'un repli individualiste accompagné et toujours renforcé par la machine (ce qui est tout de même le but de n'importe quel assistant virtuel : ne plus avoir besoin des autres), mais il ne faut jamais sous-estimé la puissance créatrice des nouvelles générations qui auront grandi avec cette technologie, pour peu qu'on les accompagne et qu'on les protège un minimum dans ce champs de mines ontologique.

Finalement, tenter d'ouvrir une fenêtre de la maison que l'IA a construite autour de nous, histoire de se rafraîchir les idées, c'est sortir de la logique machinique du tout-informationnel, c'est comprendre que l'on ne peut penser que si l'on a un corps, et que les connaissances sont ainsi situées, associées à un paysage et à des sensations. Passer cet atelier sur des documents papier, loin des machines, avec un stylo et d'autres personnes (présentes physiquement) avec qui se lier pour l'occasion, était indispensable. Faire une telle expérience technocritique, éprouver ensemble notre humanité face à la machine et ses algorithmes, laisser la parole libre, partager des idées à bâtons rompus (hors d'une réelle salle de classe et de l'institution qui prend en charge ces adolescent.es), critiquer l'IA tout en se construisant des savoirs critiques, tout cela était un vrai moment de joie, où des principes éthiques partagés – faire le bien et vivre bien, sans considérations morales universelles mais uniquement une approche situationnelle, concrète, immanente – ont pu être exprimés et débattus à haute voix.

Laurent Bétermin


Liste des textes étudiés lors de l'atelier

[1] L'impact environnemental de l'IA générative en cinq chiffres clés, La Dépêche du Midi, 2025

[2] Il faut s'attaquer aux « angles morts » de l'IA, Philippe Robitaille-Grou, Radio Canada, 2023

[3] L'IA ouvre de nouvelles possibilités de surveillance, Alexandre Piquart, Le Monde, 2024

[4] Le recours systématique à l'IA générative détériorerait les facultés cognitives permettant l'esprit critique, Nicolas Arpagian, France Info, 2025

[5] IA : les biais, une arme de discrimination massive, Rémy Demichelis, Les Echos, 2018

[6] Voici ce qu'il ne faut jamais dire à ChatGPT, Maurine Briantais, Comment ça Marche, 2025

[7] L'automate et le tâcheron, Antonio Casilli, AOC, 2019


Autres références directement ou indirectement en lien avec ce texte

Interview de Luc Julia sur la pertinence de ChatGPT

Article d'Olivier Lefebvre sur la vision instrumentale de ChatGPT

Atelier de la MMI : "Entrez dans la tête d'une IA"

Technocritiques, François Jarrige

Techno-luttes, enquête sur ceux qui résistent à la technologie, Fabien Benoit & Nicolas Celnik

Contre-Atlas de l'IA, Kate Crawford

Créez votre site web gratuitement ! Ce site internet a été réalisé avec Webnode. Créez le votre gratuitement aujourd'hui ! Commencer