Stel je voor dat je de wachttijd van een week op je examenuitslag kunt verkorten tot seconden, met een datagestuurde score en een korte uitleg waarom. Algoritmische beoordeling belooft snelheid, schaalbaarheid en (potentieel) meer consistentie. Maar zoals de controverse rond de A-levels in het Verenigd Koninkrijk in 2020 aantoonde, kan automatisering ook oneerlijkheid versterken, tenzij er waarborgen, transparantie en wettelijke bescherming zijn. Dit artikel onderzoekt hoe algoritmische beoordeling werkt, wat er misging in de Britse zaak, hoe EU-regels zoals de AI Act en de AVG van belang zijn, en wat studenten in de toekomst kunnen verwachten.

Algoritmische beoordeling in begrijpelijke taal definiëren

Algoritmische beoordeling is een overkoepelende term voor de reeks technologieën die helpen bij het toekennen van scores aan studentenwerk. Aan de ene kant zijn er geautomatiseerde beoordelaars voor meerkeuzevragen; aan de andere kant zijn er systemen die natuurlijke taalverwerking (NLP) en grote taalmodellen (LLM's) gebruiken om essays, korte antwoorden en zelfs open opdrachten te beoordelen. Deze systemen kunnen grammaticale structuren detecteren, antwoorden vergelijken met modelantwoorden of statistische correcties toepassen om de moeilijkheidsgraad van vragen te corrigeren. De keuzes die we maken bij het bouwen van deze modellen – de data die we eraan toevoegen en de regels die we opstellen – bepalen of algoritmische beoordeling eerlijkheid bevordert of ongelijkheid vergroot.

Cijfers bepalen de toegang tot universiteiten, beurzen en banen. Wanneer algoritmen een rol spelen in het beoordelingsproces, hebben ze daarom direct invloed op de toekomst van jongeren. Sinds COVID-19 maken scholen steeds vaker gebruik van geautomatiseerde tools, en met de nieuwe AI-regels en wetgeving inzake gegevensbescherming van de EU is Europa een belangrijke testomgeving geworden voor hoe eerlijk en transparant deze systemen zullen zijn.

Een voorbeeld uit de praktijk: het Britse A-level-verhaal

Toen het Verenigd Koninkrijk tijdens de COVID-19-pandemie de fysieke A-level-examens schrapte, werd in 2020 een algoritmische aanpak gebruikt om resultaten te genereren op basis van historische schoolprestaties en voorspellingen van docenten. De uitrol leidde ertoe dat grote aantallen leerlingen lagere cijfers behaalden dan verwacht, wat leerlingen van minder welvarende scholen onevenredig hard trof. Deze situatie leidde tot nationale verontwaardiging, wat ertoe leidde dat de overheid de algoritmische scores introk. De aflevering benadrukte twee harde lessen: (1) algoritmen kunnen bestaande ongelijkheden reproduceren en versterken; (2) transparantie en duidelijke beroepsmogelijkheden zijn essentieel wanneer een geautomatiseerd systeem de toekomst van mensen beïnvloedt.

AI-ondersteunde beoordeling biedt snellere feedback, meer consistentie en schaalbare ondersteuning voor levenslang leren en micro-credentials die aansluiten bij Duurzame Ontwikkelingsdoelstelling (SDG) 4. Het brengt echter ook risico's met zich mee, waaronder mogelijke vertekening door historische gegevens, gebrek aan transparantie bij beoordelingsbeslissingen en een te grote afhankelijkheid van automatisering, waardoor belangrijk menselijk oordeel over het hoofd kan worden gezien.

Beeldcredit: “AI Generated, School Exam, Students” door Yamu_Jay via Pixabay (gebruikt onder Pixabay-licentie)

Het EU-regelboek: AI Act en AVG

Algoritmische beoordeling kan zowel helpen als schaden. Enerzijds biedt AI-ondersteunde beoordeling snellere feedback, meer consistentie en schaalbare ondersteuning voor levenslang leren en microcredentialing in lijn met Duurzame Ontwikkelingsdoelstelling (SDG) 4; anderzijds brengt het ook risico's met zich mee, zoals mogelijke vertekening door historische gegevens, gebrek aan transparantie bij beoordelingsbeslissingen en een te grote afhankelijkheid van automatisering, waardoor belangrijk menselijk oordeel over het hoofd kan worden gezien.

Sinds haar ontstaan ​​zet de Europese Unie zich in voor het kaderen van het gebruik van AI en het opstellen van richtlijnen en regelgeving die gebruikers beschermen. Twee Europese rechtsinstrumenten zijn van belang voor algoritmische beoordeling:

AI Act (regelgeving uit 2024) : Systemen die worden gebruikt om toegang tot onderwijs te bepalen, vallen onder de AI-categorieën met een hoog risico. Aanbieders moeten risicobeoordelingen uitvoeren, de representativiteit van de gegevens waarborgen en transparantie- en governancemaatregelen implementeren. Dit betekent dat beoordelingssystemen waarschijnlijk grondig getest en gedocumenteerd moeten worden voordat ze worden geïmplementeerd.

AVG : Algoritmische beoordeling verwerkt persoonsgegevens (namen, examenresultaten, schoolgegevens) en moet daarom voldoen aan de AVG-beginselen van rechtmatigheid, doelbinding, nauwkeurigheid en beveiliging. Belangrijk is dat artikel 22 het gebruik van volledig geautomatiseerde besluitvorming met juridische of vergelijkbare significante gevolgen beperkt, maar ook het recht op menselijke beoordeling en het recht om beslissingen aan te vechten, toestaat. Dat is een cruciale waarborg voor studenten.

Gecombineerd creëren de regels zowel verplichtingen voor ontwikkelaars als bescherming voor studenten. Naleving is echter niet automatisch; het vereist een zorgvuldig ontwerp en concrete processen.

Hoe een goede implementatie eruit moet zien

Als scholen of examencommissies van plan zijn om algoritmische beoordeling te gebruiken, moeten ze minimaal:

  1. Geef in begrijpelijke taal aan hoe het systeem werkt en welke gegevens het gebruikt.
  2. Voer bias-audits uit en publiceer deze. Hierin wordt getoond hoe verschillende groepen (op basis van school, sociaal-economische achtergrond, moedertaal) worden beïnvloed.
  3. Zorg ervoor dat er bij bezwaar- en grensgevallen altijd een menselijke tussenpersoon aanwezig is, zoals vereist door de AVG.
  4. Zorg voor datakwaliteit en representativiteit: trainingsdata moeten overeenkomen met de populatie die het systeem zal evalueren.
  5. Zorg voor een toegankelijke beroepsmogelijkheid en duidelijke oplossingen wanneer er fouten worden gevonden.

Studentenstemmen: wat jongeren zouden moeten vragen

Als je student bent, kun je aan je school of examencommissie een aantal slimme vragen stellen voordat je een algoritmisch systeem in je werkstuk gebruikt:

  • Wordt mijn cijfer (deels) bepaald door een algoritme?
  • Welke gegevens gebruikt het algoritme? Zijn dit mijn persoonlijke gegevens?
  • Hoe kan ik in beroep gaan tegen mijn cijfer? Wordt mijn zaak door een mens beoordeeld?
  • Is het systeem gecontroleerd op vooringenomenheid? Kan ik de resultaten inzien?

Eisen stellen over hoe technologie de wereld waarin we leven vormgeeft, is een vorm van geïnformeerde participatie en dat kan nooit kwaad.

Balans tussen belofte en bescherming

Om ervoor te zorgen dat algoritmische beoordeling SDG 4 van de VN ondersteunt door de toegang te vergroten en evaluaties te standaardiseren, moet deze worden geïmplementeerd met wettelijke waarborgen, transparantie en een streven naar gelijkheid. De EU-wetgeving wijst al in die richting: de AI-wet markeert beoordelingssystemen als risicovol; de AVG geeft studenten recht op menselijke beoordeling en informatie. De technische belofte is reëel (snellere feedback, potentiële winst op het gebied van eerlijkheid), maar de beleidsmatige uitdaging is ervoor te zorgen dat die voordelen iedereen bereiken.

Automatisering zal deel uitmaken van de toekomst van het onderwijs. Het is bewezen dat algoritmen in het verleden konden beoordelen en dat ook in de toekomst zullen blijven doen. Voor jonge Europeanen is de hamvraag hoe algoritmen zullen worden beheerd. Betere controles, duidelijkere beroepsprocedures en betrokkenheid van studenten zijn nodig voordat geautomatiseerde systemen bepalen wie er toegelaten wordt tot de universiteit, wie een beurs krijgt en wie achterblijft. Lezers van Pulse-Z zouden zich hier druk om moeten maken, want dit gaat over eerlijkheid, rechten en de regels die de kansen van jongeren in heel Europa bepalen.

Geschreven door

Geef het gesprek vorm

Heb je iets toe te voegen aan dit verhaal? Heb je ideeën voor interviews of invalshoeken die we moeten verkennen? Laat het ons weten als je een vervolg wilt schrijven, een tegengeluid wilt laten horen of een soortgelijk verhaal wilt delen.