L'UE è meno interessata a sviluppare l'intelligenza artificiale più potente che a controllare il modo in cui l'intelligenza artificiale si inserisce nella società.
Il 27 gennaio 2026, la Commissione Europea ha avviato un procedimento formale ai sensi del Digital Markets Act (DMA), imponendo a Google di aprire il suo sistema operativo Android e alcuni dati chiave agli sviluppatori di intelligenza artificiale e ai motori di ricerca concorrenti operanti in Europa, al fine di garantire una concorrenza leale. La Commissione Europea ha concesso a Google sei mesi di tempo per rimuovere le barriere tecniche che impediscono agli assistenti di intelligenza artificiale concorrenti di operare in modo equo sui dispositivi Android. Parallelamente, Google deve anche concedere ad altri fornitori di motori di ricerca l'accesso ai dati di ricerca principali. (1 )
Questo intervento non riguarda principalmente le prestazioni tecnologiche, ma la concentrazione del potere. L'Unione Europea (UE) cerca di affrontare una delle principali sfide che l'intelligenza artificiale si trova ad affrontare oggi: integrare l'IA nella società senza compromettere i valori democratici.
L'intelligenza artificiale nell'immaginario collettivo: una lunga storia di controllo umano
Quando guardiamo alla storia dello sviluppo dell'intelligenza artificiale nell'immaginario collettivo, dobbiamo tornare indietro di ben prima della nostra era. L'idea di intelligenza artificiale si ritrova già nel XVIII secolo, nell'Impero Ottomano, con il Turco Meccanico: una macchina presentata come un uomo capace di giocare a scacchi a un livello eccezionale e di sconfiggere tutti gli avversari che si trovava di fronte. Questo dimostra che l'idea di una macchina in grado di superare l'intelligenza umana esisteva nell'immaginario collettivo da molto tempo. Alla fine, si scoprì che dietro la macchina si nascondeva un operatore umano.
Tuttavia, questo esempio rimane di grande attualità, poiché illustra una realtà fondamentale che si applica ancora all'intelligenza artificiale contemporanea. Dietro ogni macchina intelligente ci sono attori umani che la progettano, la gestiscono e la mantengono. Senza le enormi quantità di dati fornite dagli esseri umani, i sistemi di intelligenza artificiale non possono funzionare, apprendere o evolversi. Di conseguenza, l'IA non può diventare da sola una vera minaccia concettuale o esistenziale; rimane profondamente dipendente dall'intervento, dalle intenzioni e dal controllo umani.
Per questo motivo, la regolamentazione dei mercati dell'intelligenza artificiale è essenziale. Senza quadri normativi efficaci, il settore dell'intelligenza artificiale rischia di evolvere verso un monopolio, in cui un numero ristretto di attori dominanti controlla le infrastrutture tecnologiche e l'accesso ai dati. In un simile scenario, i dati, in quanto risorsa centrale dell'intelligenza artificiale, sarebbero concentrati nelle mani di poche entità private.
L'intelligenza artificiale è nata inizialmente come questione filosofica e teorica, per poi trasformarsi in una questione tecnica.
L'approccio normativo dell'Unione Europea presuppone implicitamente che il vero pericolo dell'intelligenza artificiale non risieda nelle sue prestazioni tecniche, ma nel potere che può acquisire all'interno dei sistemi umani. Questo presupposto riecheggia direttamente la fondamentale questione filosofica sollevata a metà del XX secolo: le macchine possono pensare e, in caso affermativo, a quali condizioni dovrebbe essere loro conferita l'autorità decisionale?
Quando esaminiamo le vere origini delle macchine pensanti, siamo condotti al contesto intellettuale europeo. Negli anni '50, Alan Turing fu il primo a porre esplicitamente la domanda: "Le macchine possono pensare?" , nel suo articolo "Computing Machinery and Intelligence" . L'importanza di questa domanda risiede in questioni di potere e dominio: solo se le macchine possiedono una reale capacità decisionale possono diventare un pericolo concettuale. Altrimenti, le intelligenze artificiali rimangono mere imitazioni del pensiero umano.
Considerando il contesto storico in cui è emersa l'intelligenza artificiale, diventa chiaro che il suo sviluppo è stato strettamente legato alle esigenze militari. Dagli anni '50 in poi, l'esercito degli Stati Uniti ha finanziato la ricerca sulla traduzione automatica, in particolare allo scopo di tradurre e decodificare testi sovietici durante la Guerra Fredda. L'obiettivo era aumentare la potenza militare controllando le informazioni e i processi decisionali degli stati avversari, piuttosto che concentrarsi solo sull'efficienza tecnica. In questo modo, l'intelligenza artificiale è sempre stata associata alla sorveglianza, al dominio strategico e all'uso della gestione della conoscenza come strumento di potere.
Mentre gli Stati Uniti continuano a consolidare il loro predominio nell'intelligenza artificiale attraverso il controllo delle infrastrutture e delle piattaforme globali, l'Unione Europea ha intrapreso una strada decisamente diversa. Anziché competere per la supremazia tecnologica, l'UE si è posizionata come potenza normativa, concentrandosi sull'integrazione dell'IA in un quadro di valori democratici, diritti umani ed equità di mercato. L'Artificial Intelligence Act, adottato nel giugno 2024 , è un ottimo esempio del primo quadro normativo completo al mondo per l'IA. Garantisce che l'IA sia sicura, trasparente e in linea con i diritti fondamentali. Questo approccio legislativo suddivide i sistemi di IA in categorie di rischio, da minimo a inaccettabile, e stabilisce gli obblighi di conseguenza.
Tuttavia, questo impegno per una governance etica rivela anche il dilemma strategico dell'Europa. Concentrandosi sulla regolamentazione anziché sul potere, l'UE riconosce il suo ritardo tecnologico rispetto a Stati Uniti e Cina. Sebbene esistano disposizioni per sandbox di innovazione e supporto alle startup, la dipendenza dell'Europa dai fornitori di cloud e dalle infrastrutture di intelligenza artificiale americani ostacola una vera sovranità digitale.
