De EU is minder geïnteresseerd in het ontwikkelen van de krachtigste AI dan in het beheersen van de manier waarop AI in de samenleving past.
Op 27 januari 2026 heeft de Europese Commissie een formele procedure gestart op grond van de Digital Markets Act (DMA) waarin Google wordt verplicht zijn Android-besturingssysteem en bepaalde belangrijke gegevens open te stellen voor concurrerende AI-ontwikkelaars en zoekmachines die in Europa actief zijn, om eerlijke concurrentie te waarborgen. De Europese Commissie heeft Google zes maanden de tijd gegeven om technische belemmeringen weg te nemen die voorkomen dat concurrerende AI-assistenten eerlijk functioneren op Android-apparaten. Tegelijkertijd moet Google ook andere aanbieders van zoekmachines toegang verlenen tot essentiële zoekgegevens. (1 )
Deze interventie betreft niet zozeer technologische prestaties, maar de machtsconcentratie. De Europese Unie (EU) wil een van de grootste uitdagingen voor kunstmatige intelligentie van vandaag aanpakken: AI integreren in de samenleving zonder de democratische waarden te ondermijnen.
Kunstmatige intelligentie in het collectieve bewustzijn: een lange geschiedenis van menselijke controle
Als we kijken naar de geschiedenis van de ontwikkeling van kunstmatige intelligentie in het collectieve bewustzijn, moeten we ver teruggaan in de tijd. Het idee van kunstmatige intelligentie is al te vinden in de achttiende eeuw, in het Ottomaanse Rijk, met de Mechanische Turk: een machine die werd voorgesteld als een mens die op uitzonderlijk niveau schaak kon spelen en al zijn tegenstanders kon verslaan. Dit toont aan dat het idee van een machine die de menselijke intelligentie kan overtreffen al heel lang in het collectieve bewustzijn bestaat. Uiteindelijk bleek dat er achter de machine een menselijke operator schuilging.
Dit voorbeeld blijft echter zeer relevant, omdat het een fundamentele realiteit illustreert die nog steeds van toepassing is op hedendaagse kunstmatige intelligentie. Achter elke intelligente machine staan mensen die deze ontwerpen, bedienen en onderhouden. Zonder de enorme hoeveelheden data die door mensen worden aangeleverd, kunnen systemen voor kunstmatige intelligentie niet functioneren, leren of evolueren. Bijgevolg kan AI op zichzelf geen echte conceptuele of existentiële bedreiging vormen; het blijft sterk afhankelijk van menselijke tussenkomst, intenties en controle.
Om deze reden is regulering van de AI-markt essentieel. Zonder effectieve regelgeving dreigt de AI-sector te evolueren naar een monopolie, waarbij een klein aantal dominante spelers de technologische infrastructuur en de toegang tot data controleert. In een dergelijk scenario zou data, de centrale bron van kunstmatige intelligentie, geconcentreerd raken in de handen van een paar private entiteiten.
Kunstmatige intelligentie ontstond aanvankelijk als een filosofische en theoretische vraag, voordat het een technische kwestie werd.
De regelgeving van de Europese Unie gaat er impliciet van uit dat het ware gevaar van kunstmatige intelligentie niet schuilt in de technische prestaties, maar in de macht die het binnen menselijke systemen kan verwerven. Deze aanname sluit direct aan bij de fundamentele filosofische vraag die halverwege de twintigste eeuw werd gesteld: kunnen machines denken, en zo ja, onder welke voorwaarden zouden ze beslissingsbevoegdheid moeten krijgen?
Wanneer we de ware oorsprong van denkende machines onderzoeken, komen we terecht in de Europese intellectuele context. In de jaren vijftig was Alan Turing de eerste die expliciet de vraag stelde: "Kunnen machines denken?" , in zijn artikel "Computing Machinery and Intelligence" . Het belang van deze vraag ligt in kwesties van macht en dominantie: alleen als machines daadwerkelijk beslissingsbevoegdheid bezitten, kunnen ze een conceptueel gevaar vormen. Anders blijven kunstmatige intelligenties slechts imitaties van menselijke denkpatronen.
Als we de historische context bekijken waarin kunstmatige intelligentie is ontstaan, wordt duidelijk dat de ontwikkeling ervan nauw verbonden was met militaire behoeften. Vanaf de jaren vijftig financierde het Amerikaanse leger onderzoek naar automatische vertaling, met name voor het vertalen en decoderen van Sovjetteksten tijdens de Koude Oorlog. Het doel was om de militaire macht te vergroten door de informatie- en besluitvormingsprocessen van de vijandige staten te controleren, in plaats van zich alleen te richten op technische efficiëntie. Op deze manier is kunstmatige intelligentie altijd geassocieerd geweest met surveillance, strategische dominantie en het gebruik van kennismanagement als machtsinstrument.
Terwijl de Verenigde Staten hun dominantie op het gebied van kunstmatige intelligentie blijven consolideren door controle over infrastructuur en wereldwijde platforms, heeft de Europese Unie een duidelijk andere weg ingeslagen. In plaats van te concurreren om technologische suprematie, heeft de EU zich gepositioneerd als een normatieve macht, gericht op het inbedden van AI in een kader van democratische waarden, mensenrechten en eerlijke marktwerking. De Artificial Intelligence Act, die in juni 2024 werd aangenomen , is een uitstekend voorbeeld van 's werelds eerste alomvattende regelgevingskader voor AI. Deze wet waarborgt dat AI veilig, transparant en in overeenstemming met fundamentele rechten is. Deze wetgevende aanpak verdeelt AI-systemen in risicocategorieën, van minimaal tot onaanvaardbaar, en legt de bijbehorende verplichtingen vast.
Deze inzet voor ethisch bestuur onthult echter ook het strategische dilemma van Europa. Door de nadruk te leggen op regelgeving in plaats van macht, erkent de EU haar technologische achterstand op de VS en China. Hoewel er voorzieningen zijn voor innovatiesandboxes en steun voor startups, belemmert de afhankelijkheid van Europa van Amerikaanse cloudproviders en AI-infrastructuur de echte digitale soevereiniteit.
