De General-Purpose AI Code of Practice (GPAI CoP) was bedoeld om ervoor te zorgen dat AI waar je op kunt vertrouwen, wordt ontwikkeld. Maar steeds meer groepen en experts zeggen dat het uiteindelijk alleen maar grote bedrijven helpt hun zin te krijgen in plaats van het publiek te beschermen tegen AI-risico's. Is het überhaupt nog relevant dat gewone mensen hier boos over worden?

De code krijgt steeds meer aandacht

Op die AI-bijeenkomst in Frankrijk had iedereen het alleen maar over geldzaken, niet zozeer over het veilig houden van AI of het beschermen van mensenrechten. En volgens veel mensen uit de reguliere samenleving gebeurt hetzelfde met deze AI-code voor dingen zoals ChatGPT.

Deze code wordt samengesteld door dertien slimme mensen van universiteiten, met hulp van een heleboel experts, goede doelen, wetenschappers en bedrijven – bijna duizend in totaal. De code moet de bedrijven die ChatGPT-achtige dingen maken, vertellen hoe ze de AI-regels van de EU moeten naleven. Maar sommige groepen overwegen al om de hele code te laten varen.

"Als dit alleen maar een show is om de schijn op te wekken dat er eerlijke beslissingen worden genomen, dan is het zinloos", aldus Karine Caunes, die Digihumanism leidt en redacteur is van het European Law Journal.

Andere mensenrechtenorganisaties die aan de GPAI CoP meewerken, denken er net zo over. Een paar academici en mensen van liefdadigheidsinstellingen overwegen zelfs om uit protest te gaan lopen, omdat ze denken dat er niemand naar hen luistert.

De risicolijst: waar het misgaat

Het belangrijkste onderdeel van de Code is de opsomming van AI-risico's. Maar zoals het er nu uitziet, is het niet wat de burgerrechtenorganisaties hadden gehoopt.

De allereerste regel van de AI-wet van de EU luidt: deze is er om basisrechten te beschermen, aldus Sarah Andrew van de groep Avaaz.

Maar de Code behandelt risico's voor de rechten van mensen als slechts "extra aandachtspunten", in plaats van ze meteen bij de belangrijkste risico's te plaatsen. Bovendien staan ​​dingen als "veel illegale discriminatie" of "mensen op schadelijke manieren lastigvallen" wel op de risicolijst, maar er zijn woorden aan toegevoegd die ze minder belangrijk doen lijken.

Andrew waarschuwt dat het hele systeem voor het beheren van AI gebrekkig zal zijn als ze de risico's al niet goed in kaart hebben gebracht.

Ontbrekende spullen: bedrijven controleren en weten hoe AI wordt getraind

Groepen die zich richten op AI-veiligheid wijzen op nog een ander probleem: ze hoeven geen onafhankelijke veiligheidscontroles uit te voeren en ze hoeven niet duidelijk te zijn over hoe ze hun AI-modellen trainen.

Experts zeggen dat als bedrijven hun eigen AI kunnen testen zonder dat iemand anders meekijkt, het systeem gemakkelijk te misbruiken zal zijn. Een ander groot probleem met de code is of ze moeten delen hoe ze hun AI trainen. Techbedrijven willen geen details prijsgeven over de informatie die ze gebruiken om hun systemen te trainen, omdat ze zich zorgen maken over auteursrechten en de privacy van gegevens.

De Security Coalition, waar onder andere de bekende expert Stuart Russell deel van uitmaakt, heeft een brief gestuurd aan de mensen die verantwoordelijk zijn voor de Code, met daarin vier belangrijke zaken die zij willen veranderen:

  • Maak onafhankelijke controles van AI-modellen verplicht.
  • Geef risicovolle systemen meer tijd om ze te bekijken voordat u ze gebruikt.
  • Stel duidelijke veiligheidsniveaus in. Als deze worden overschreden, betekent dit dat een AI-model te gevaarlijk is om te gebruiken.
  • Bedenk manieren om met nieuwe risico's om te gaan waar we nog niet aan gedacht hebben.

"Als ze dit daadwerkelijk zouden doen, zouden de verantwoordelijke mensen doen wat de beste experts zeggen over het in kaart brengen en aanpakken van risico's", betoogt een van de ondertekenaars van de brief.

Big Tech is niet blij

Terwijl groepen die mensen helpen strengere regels willen, ziet de techindustrie dat heel anders. Zelfs vóór de AI-bijeenkomst zeiden Meta en Google al dat ze de Code zoals die nu is, niet echt leuk vonden.

Joel Kaplan, de belangrijkste lobbyist van Meta, noemde het "niet praktisch en zal niet werken", en Kent Walker van Google noemde het "een stap in de verkeerde richting". De bedrijven stellen dat de code hen dwingt meer te doen dan wat de AI-wetgeving van de EU voorschrijft.

"Dat klopt niet", zegt Caunes. De Codex is niet alleen bedoeld om de wet te herhalen, hij moet ook verder gaan, vindt hij.

Maar sommige van deze klachten lijken in Brussel de aandacht te trekken. De Europese Commissie is begonnen met het bespreken van "het vereenvoudigen van regels" om de economie te stimuleren.

Een veelzeggend moment tijdens de AI-bijeenkomst was toen Google's CEO, Sundar Pichai, de slottoespraak hield. Dat een bedrijf dat zich sterk maakte voor minder regels zo'n prominente plek kreeg, ontging niemand.

Google oefent in stilte druk uit op de mensen die verantwoordelijk zijn voor de Code om de verwijzingen naar EU-wetgeving minder streng te maken, terwijl ze tegelijkertijd het laatste woord hebben tijdens de top, aldus Andrew.

Wat nu?

De discussie over deze AI-code laat zien hoezeer de belangen van gewone burgers en grote techbedrijven botsen. Terwijl burgerorganisaties strijden voor zaken als eerlijkheid, veiligheid en mensenrechten, dringen de grote bedrijven aan op minder regels en meer vrijheid om te doen wat ze willen.

Tot nu toe zijn de publieke groepen nog niet officieel gestopt met werken aan de Code, maar ze beginnen het wel zat te worden. Als niemand naar hen luistert, gaan ze misschien dingen doen die meer aandacht krijgen.

Geschreven door

Geef het gesprek vorm

Heb je iets toe te voegen aan dit verhaal? Heb je ideeën voor interviews of invalshoeken die we moeten verkennen? Laat het ons weten als je een vervolg wilt schrijven, een tegengeluid wilt laten horen of een soortgelijk verhaal wilt delen.