Intelligence artificielle et éducation : ce que la FQPPU a défendu à Bruxelles

Bruxelles, décembre 2025. Plus de 200 représentant·es syndicaux·ales de l’éducation, venu·es des quatre coins du monde, se réunissent alors que l’intelligence artificielle s’impose à grande vitesse dans les salles de classe, les universités et la recherche. Partout, les promesses technologiques se multiplient — mais les règles, les droits et la démocratie peinent à suivre. Que se passe-t-il lorsque l’innovation avance plus vite que la gouvernance ? Cet article revient sur ce qui s’est joué à Bruxelles, expose ce que la FQPPU est venue défendre concrètement pour une intelligence artificielle en enseignement supérieur réellement centrée sur l’humain, et explique pourquoi la recommandation de l’UNESCO de 1997 demeure un texte incontournable pour la défense de la collégialité universitaire.

Table des matières

Bruxelles, décembre 2025 : une consultation mondiale pour l’IA en éducation

Depuis quelques années, l’intelligence artificielle s’invite à un rythme soutenu dans les systèmes d’éducation, et ce, à tous les niveaux : outils d’évaluation automatisée, plateformes d’apprentissage adaptatif, analyse de données pédagogiques, soutien à la recherche. Cette accélération, souvent portée par des acteurs privés et des logiques de marché, se fait toutefois trop fréquemment sans véritable consultation de celles et ceux qui enseignent, encadrent et font vivre l’éducation au quotidien. La voix enseignante, pourtant essentielle pour juger des effets concrets de l’IA sur les pratiques, les conditions de travail et la mission éducative, demeure largement marginalisée.

C’est précisément pour combler ce déficit démocratique qu’a été organisée la conférence mondiale sur l’intelligence artificielle en éducation, intitulée « Façonner notre avenir : les syndicats de l’éducation pour une IA centrée sur l’humain ». Tenue les 4 et 5 décembre 2025 à Bruxelles, cette rencontre a été pilotée par l’Internationale de l’Éducation, qui représente plus de 375 organisations syndicales et des millions de travailleuses et travailleurs de l’éducation à travers le monde. La FQPPU est membre de l’Internationale.

Madeleine Pastinelli échange avec des participants lors de la conférence sur l’intelligence artificielle en éducation à Bruxelles

Pensée comme un espace de réflexion stratégique et d’action collective, la conférence a rassemblé des représentant·e·s syndicaux·ales de tous les continents afin d’examiner comment l’intelligence artificielle transforme l’éducation — et surtout comment elle devrait être encadrée. Au cœur des échanges : la nécessité de replacer les droits, la démocratie, la gouvernance collégiale et l’expertise professionnelle au cœur des décisions. Bruxelles a ainsi marqué un moment de légitimation internationale du rôle des syndicats dans la gouvernance de l’IA en éducation — un signal fort envoyé aux gouvernements et aux institutions : rien sur l’intelligence artificielle ne doit se faire sans l’apport et l’assentiment de celles et de ceux qui enseignent.

« Si la technologie est l’outil, l’humanité est l’auteure » : une vision partagée

Cette phrase, reprise et commentée à plusieurs reprises à Bruxelles, a agi comme un point d’ancrage commun. Elle résume une conviction largement partagée par les participant·es : l’intelligence artificielle, aussi sophistiquée soit-elle, ne peut ni remplacer la relation pédagogique ni se substituer au jugement professionnel. En éducation, l’IA ne saurait être qu’un outil — jamais un acteur autonome, encore moins un arbitre.

Or, derrière les promesses d’efficacité, de personnalisation et d’optimisation, de nombreux témoignages ont mis en lumière une réalité plus contrastée. L’introduction de l’intelligence artificielle en éducation s’accompagne trop souvent d’une charge de travail accrue : du temps consacré à la vérification des résultats, à la gestion des données, à la correction des biais ou à la surveillance des usages. À cela s’ajoutent des dispositifs de surveillance qui fragilisent la confiance et une déqualification insidieuse du travail enseignant, lorsque l’expertise humaine est fragmentée, standardisée ou traduite en indicateurs automatisés.

Participants à la conférence mondiale sur l’intelligence artificielle en éducation réunis à Bruxelles.

Les échanges ont également permis de nommer clairement les risques systémiques liés au déploiement non encadré de l’IA. La commercialisation de l’éducation s’accélère lorsque des entreprises privées imposent leurs plateformes, leurs logiques contractuelles et leurs modèles économiques aux institutions publiques. Les fractures numériques se creusent entre établissements, régions et pays, selon l’accès aux infrastructures, aux données et aux outils. Le colonialisme des données, enfin, a été identifié comme un enjeu majeur : des systèmes entraînés principalement à partir de données issues du Nord global reproduisent des biais culturels, linguistiques et sociaux, tout en dépossédant les communautés éducatives de leur propre savoir.

Au cœur de ces préoccupations se trouve une question éminemment politique : celle de l’autonomie de celles et ceux qui enseignent, ainsi que de la démocratie. Lorsque les choix technologiques sont faits sans les enseignant·es, lorsque les algorithmes orientent l’évaluation, la gestion ou l’organisation du travail, ce sont les droits de la personne, la liberté académique et la gouvernance collégiale qui sont directement affectés. À Bruxelles, un message s’est imposé avec force : une IA centrée sur l’humain n’est pas seulement une question technique ou éthique — c’est une exigence démocratique.

Ce que la FQPPU est venue défendre à Bruxelles

À Bruxelles, la FQPPU était prête à intervenir sur ces enjeux qui touchent au cœur de la mission universitaire et des conditions de travail de ses membres. Nous avons, à cet effet, communiqué une vision claire : l’intelligence artificielle ne peut être intégrée à l’université sans balises fermes, démocratiques et négociées. L’enjeu n’est pas de freiner l’innovation, mais d’empêcher qu’elle ne se fasse au détriment des personnes et de la mission fondamentale des universités.

Des lignes rouges claires face à l’IA

L’ensemble des partenaires réunis à cette occasion se sont entendus  sur la nécessité d’établir des droits non négociables pour le personnel enseignant et de recherche face à l’intelligence artificielle. D’abord, le droit à la déconnexion doit être pleinement garanti : l’IA ne peut devenir un vecteur d’hyperdisponibilité, de surcharge cognitive ou de normalisation du travail en continu. Le consensus s’est rapidement dégagé également sur  le droit de refuser l’usage de l’IA, tant pour des raisons pédagogiques, éthiques que professionnelles. L’adoption d’outils d’intelligence artificielle ne peut être imposée unilatéralement ni devenir une condition implicite de performance ou d’évaluation.

Le principe de précaution a occupé une place centrale : en contexte d’incertitude scientifique, sociale et juridique, l’absence de preuve de nuisance ne saurait être interprétée comme une preuve d’innocuité. À cela s’ajoute l’exigence d’un consentement libre et éclairé, notamment lorsque des données pédagogiques, de recherche ou professionnelles sont utilisées, analysées ou réentraînées par des systèmes d’IA.

Enfin,  plusieurs intervenant·es ont insisté sur le fait que toute réflexion sur l’intelligence artificielle en éducation doit impérativement inclure la protection des emplois et la lutte contre la précarité. L’IA ne peut servir de prétexte à la déqualification du travail universitaire, à la fragmentation des tâches ou à l’érosion des statuts professionnels.

Gouvernance, contrats et responsabilité institutionnelle

Au-delà de ces lignes rouges partagées par les intervenants de tous les ordres d’enseignement,  la FQPPU a mis de l’avant des principes visant plus spécifiquement la mission universitaire et des exigences concrètes en matière de gouvernance. Elle a d’abord plaidé pour qu’on garantisse une forte implication des professeur·es dans toutes les démarches devant mener à établir des balises et cadres règlementaires pour l’usage de l’IA en recherche et dans l’enseignement supérieur.

Elle a formulé une mise en garde appuyée contre le risque que ne se mette en place une dépendance structurelle des universités aux grandes entreprises d’IA, suivant une formule comparable au modèle prédateur déjà observé avec certains éditeurs scientifiques. Les universités ont une responsabilité pour s’assurer du caractère équitable, tant au présent que pour l’avenir, des contrats de service qui sont établis avec des fournisseurs d’IA. Il faut agir maintenant pour éviter une nouvelle forme de captation privée du savoir public. Les enjeux sont grands alors que les systèmes d’intelligence artificielle se nourrissent des travaux des chercheur·euses, s’améliorent grâce à leurs données et deviennent progressivement indispensables à leur travail — permettant à des entreprises privées d’imposer ensuite des hausses de coût. C’est alors l’autonomie même des universités qui pourrait être en jeu, d’où  l’importance d’affirmer une responsabilité institutionnelle claire quant aux choix technologiques, mais aussi aux termes prévus dans les partenariats et contrats.

La Fédération a également insisté pour qu’on encourage les gouvernements autant que les établissements à réfléchir aux actions qui peuvent être menées afin d’éviter les effets d’une standardisation de la pensée et des modes d’intelligibilité du réel induite par l’utilisation de l’IA. Cette uniformisation pose notamment le risque de stériliser la créativité nécessaire à l’avancement des connaissances. Il convient donc de réfléchir dès maintenant à ce qui peut être fait pour contrer ce risque. Un autre enjeu fondamental de cette uniformisation est qu’elle débouche sur une amplification des biais susceptible d’accroître certaines inégalités. À cet égard, la Fédération a plaidé pour qu’on exige des entreprises d’IA dont les services sont retenus par les universités qu’elles mettent en place, dans le fonctionnement même de leur système, des mesures visant à limiter autant que possible cette amplification des biais. 

Enfin, la FQPPU a plaidé pour le respect intégral de la négociation collective. Les conditions d’utilisation des outils d’IA, souvent imposées par des fournisseurs privés via des contrats opaques, ne doivent jamais contourner les conventions collectives ni isoler les individus face à des obligations contractuelles qu’ils n’ont pas négociées. Elle a également insisté en faveur d’une transparence complète sur les usages de l’intelligence artificielle dans les établissements, notamment en lien avec les enjeux de surveillance, et a fait valoir l’importance d’un droit à une révision par des humains sans recours à l’IA dans toutes les situations où des personnes seraient évaluées par l’IA.

Défendre la collégialité universitaire à l’ère de l’IA

L’irruption rapide de l’intelligence artificielle dans les universités agit comme un révélateur d’une tendance lourde déjà bien installée : la centralisation des pouvoirs et la verticalisation des décisions. Trop souvent, les choix technologiques sont arrêtés en amont, dans des cercles restreints, puis déployés comme des évidences techniques, alors qu’ils engagent en profondeur l’enseignement, la recherche, l’organisation du travail et la mission même des universités. L’IA ne crée pas ces dérives ; elle les accélère, les rend moins visibles et plus difficiles à contester.

Face à cela, la collégialité universitaire constitue une garantie démocratique essentielle. C’est par la gouvernance collégiale que les universités assurent la participation réelle des communautés universitaires aux décisions qui touchent aux contenus d’enseignement, aux orientations de la recherche, aux conditions de travail et à l’usage des technologies. À l’ère de l’intelligence artificielle, cette collégialité est plus nécessaire que jamais : elle seule permet de soumettre les outils, les algorithmes et les partenariats à une délibération collective, informée et responsable.

Table ronde lors de la conférence mondiale sur l’intelligence artificielle en éducation à Bruxelles

Les discussions de Bruxelles nous ont rappelé un principe fondamental : sans gouvernance collégiale, il ne peut y avoir d’IA réellement centrée sur l’humain. Lorsque les décisions se prennent sans celles et ceux qui enseignent, la liberté académique s’affaiblit, l’autonomie institutionnelle recule et la technologie tend à s’imposer comme une fin en soi. À l’inverse, une gouvernance partagée permet de maintenir l’intelligence artificielle à sa juste place : celle d’un outil.

C’est pourquoi la FQPPU a réitéré à Bruxelles son appui fort à la recommandation de l’UNESCO sur le statut du personnel enseignant de l’enseignement supérieur, qui reconnaît déjà ce pilier des universités. Parce que défendre la collégialité aujourd’hui, c’est protéger la liberté académique et garantir que les universités demeurent des lieux de savoir critique, au service du bien commun. À l’ère de l’IA, ce combat est plus que jamais d’actualité.

Restez à jour

Abonnez-vous à l’infolettre de la Fédération.