Imaginez recevoir vos résultats d'examen en quelques secondes, après une attente d'une semaine, grâce à une note calculée à partir de données et une brève explication. La notation algorithmique promet rapidité, accessibilité et (potentiellement) une plus grande cohérence. Cependant, comme l'a montré la controverse des A-levels au Royaume-Uni en 2020 , l'automatisation peut aussi amplifier les injustices si des garanties, la transparence et une protection juridique ne sont pas mises en place. Cet article examine le fonctionnement de la notation algorithmique, les erreurs commises au Royaume-Uni, l'importance des réglementations européennes telles que la loi sur l'IA et le RGPD, et les attentes des étudiants pour l'avenir.

Définition de la notation algorithmique en langage clair

L'évaluation algorithmique est un terme générique désignant l' ensemble des technologies permettant d'attribuer des notes aux travaux des étudiants. À l'extrémité la plus simple figurent les correcteurs automatiques de questions à choix multiples ; à l'autre extrémité, on trouve des systèmes qui utilisent le traitement automatique du langage naturel (TALN) et les grands modèles de langage (GML) pour évaluer les dissertations, les réponses courtes et même les projets à réponse ouverte. Ces systèmes peuvent détecter la structure grammaticale, comparer les réponses à des réponses types ou appliquer des ajustements statistiques pour corriger la difficulté des questions. Les choix que nous faisons lors de la conception de ces modèles – les données que nous leur fournissons et les règles que nous définissons – déterminent si l'évaluation algorithmique favorise l'équité ou, au contraire, accentue les inégalités.

Les notes déterminent l'accès aux universités, aux bourses et aux emplois. Par conséquent, l'intégration d'algorithmes dans le processus de notation a un impact direct sur l'avenir des jeunes. Depuis la pandémie de COVID-19, les établissements scolaires ont de plus en plus recours aux outils automatisés, et avec l'entrée en vigueur des nouvelles réglementations européennes sur l'IA et la protection des données, l'Europe est devenue un terrain d'expérimentation crucial pour évaluer l'équité et la transparence de ces systèmes.

Un exemple concret : l'histoire du baccalauréat britannique

Lorsque le Royaume-Uni a annulé les épreuves du baccalauréat (A-levels) en présentiel pendant la pandémie de COVID-19, une approche algorithmique a été utilisée en 2020 pour produire des résultats basés sur les performances historiques des établissements scolaires et les prédictions des enseignants. Ce système a conduit à l'obtention de notes inférieures aux attentes par un grand nombre d'élèves, affectant de manière disproportionnée les élèves issus d'établissements défavorisés. Cette situation a suscité une vive indignation nationale, contraignant le gouvernement à retirer les notes algorithmiques. Cet épisode a mis en lumière deux leçons importantes : (1) les algorithmes peuvent reproduire et amplifier les inégalités existantes ; (2) la transparence et des procédures d'appel claires sont essentielles lorsqu'un système automatisé a un impact sur l'avenir des individus.

L’évaluation assistée par l’IA offre un retour d’information plus rapide, une plus grande cohérence et un soutien évolutif pour l’apprentissage tout au long de la vie et les microcertifications alignées sur l’objectif de développement durable (ODD) 4. Cependant, elle comporte également des risques, notamment un biais potentiel dû aux données historiques, un manque de transparence dans les décisions d’évaluation et une dépendance excessive à l’égard de l’automatisation qui peut négliger un jugement humain important.

Crédit image : « Généré par IA, Examen scolaire, Étudiants » par Yamu_Jay via Pixabay (utilisée sous licence Pixabay)

Le corpus réglementaire de l'UE : AI Act et RGPD

L’évaluation algorithmique présente autant d’avantages que d’inconvénients. D’une part, elle offre un retour d’information plus rapide, une plus grande cohérence et un soutien adaptable à la formation continue et aux microcertifications, conformément à l’objectif de développement durable (ODD) 4. D’autre part, elle comporte également des risques, notamment des biais potentiels liés aux données historiques, un manque de transparence dans les décisions d’évaluation et une dépendance excessive à l’automatisation pouvant négliger des aspects importants du jugement humain.

Depuis son émergence, l'Union européenne s'est engagée à encadrer l'utilisation de l'IA et à fournir des lignes directrices et des réglementations protégeant les utilisateurs. Deux instruments juridiques européens sont essentiels pour la notation algorithmique :

Loi sur l'IA (réglementation de 2024) : Les systèmes utilisés pour déterminer l'accès à l'éducation relèvent des catégories d'IA à haut risque. Les fournisseurs doivent réaliser des évaluations des risques, garantir la représentativité des données et mettre en œuvre des mesures de transparence et de gouvernance. Par conséquent, les systèmes de notation devront probablement faire l'objet de tests rigoureux et être documentés avant leur déploiement.

RGPD : Les systèmes de notation algorithmique traitent des données personnelles (noms, réponses aux examens, dossiers scolaires) et doivent donc respecter les principes du RGPD relatifs à la licéité, à la limitation des finalités, à l’exactitude et à la sécurité. L’article 22, en particulier, limite le recours à la prise de décision entièrement automatisée produisant des effets juridiques ou significatifs, tout en garantissant le droit à un contrôle humain et à la contestation des décisions. Il s’agit d’une protection essentielle pour les élèves et les étudiants.

Ensemble, ces règles créent des obligations pour les développeurs et des protections pour les étudiants. Cependant, leur respect n'est pas automatique ; il exige une conception soignée et des processus concrets.

À quoi devrait ressembler un bon déploiement

Si les établissements scolaires ou les organismes certificateurs envisagent d'utiliser la notation algorithmique, ils devraient au minimum :

  1. Publiez une explication en langage clair du fonctionnement du système et des données qu'il utilise.
  2. Réaliser et publier des audits de biais montrant comment différents groupes (par école, milieu socio-économique, langue maternelle) sont affectés.
  3. Garantir une intervention humaine dans le traitement des appels et des cas limites, conformément aux exigences du RGPD.
  4. Garantir la qualité et la représentativité des données — les données d'entraînement doivent correspondre à la population que le système évaluera.
  5. Offrir une voie d'appel accessible et des mesures correctives claires en cas d'erreurs constatées.

La parole aux étudiants : ce que les jeunes devraient demander

Si vous êtes étudiant, voici des questions pertinentes à poser à votre établissement scolaire ou à votre commission d'examen avant qu'un système algorithmique ne soit utilisé pour évaluer votre travail :

  • Ma note est-elle produite (même en partie) par un algorithme ?
  • Quelles données l'algorithme utilise-t-il ? S'agit-il de mes données personnelles ?
  • Comment puis-je contester ma note ? Mon dossier sera-t-il examiné par une personne ?
  • Le système a-t-il fait l'objet d'un audit visant à détecter d'éventuels biais ? Puis-je consulter les résultats ?

Demander des réponses sur la manière dont la technologie façonne le monde dans lequel nous vivons est une forme de participation éclairée et cela ne peut jamais faire de mal.

Concilier promesse et protection

Pour que la notation algorithmique contribue à l'ODD 4 des Nations Unies en élargissant l'accès à l'éducation et en standardisant les évaluations, elle doit être mise en œuvre avec des garanties juridiques, de la transparence et un engagement en faveur de l'équité. Le droit européen va déjà dans ce sens : la loi sur l'IA signale les systèmes de notation comme présentant un risque élevé ; le RGPD garantit aux étudiants le droit à une relecture humaine et à l'information. La promesse technique est réelle (retour d'information plus rapide, gains potentiels en matière d'équité), mais le défi politique consiste à garantir que ces avantages profitent à tous.

L'automatisation fera partie intégrante de l'avenir de l'éducation. Il est avéré que les algorithmes ont déjà évalué les élèves et continueront de le faire. Pour les jeunes Européens, la question cruciale est celle de la gouvernance de ces algorithmes. Des audits plus rigoureux, des procédures d'appel plus claires et une participation accrue des élèves sont indispensables avant que les systèmes automatisés ne décident qui accède à l'université, qui obtient des bourses et qui est laissé pour compte. Les lecteurs de Pulse-Z devraient s'en préoccuper, car il s'agit d'équité, de droits et des règles qui façonnent les perspectives des jeunes à travers l'Europe.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.