Sebbene concepito per bilanciare sicurezza e innovazione, il Codice di condotta europeo sull'intelligenza artificiale sta affrontando critiche. Pensato per integrare la legge sull'intelligenza artificiale come guida volontaria, alcuni ora temono che la sua natura non vincolante possa essere sfruttata come scappatoia.

Per oltre un anno, si è scatenata una dura battaglia sul documento. La Commissione europea, posizionandosi come pro-innovazione, ha dovuto destreggiarsi tra l'aggressiva pressione delle lobby industriali e le pressioni di gruppi della società civile e parlamentari europei, che temevano che il codice stesse diventando troppo permissivo, minando proprio la legge sull'intelligenza artificiale che avrebbe dovuto sostenere.

Sullo sfondo aleggiava una domanda: è possibile creare una regolamentazione significativa che le aziende adottino volontariamente, senza che diventi un gesto inefficace?

Meta dice di no, e non è una cosa negativa

Mentre aziende come OpenAI e la francese Mistral hanno aderito, Meta – il gigante tecnologico dietro Facebook e Instagram – ha rifiutato. Paradossalmente, questo non è un segno di fallimento. È la prova che il codice non è stato completamente piegato agli interessi del settore.

Il rifiuto di Meta rivela che il documento contiene ancora impegni che alcune aziende non sono disposte a sottoscrivere. Nelle attuali dinamiche di potere, questo può essere considerato un successo normativo.

Meta ha una lunga tradizione di test delle leggi dell'UE fino ai loro limiti, spesso minandole pubblicamente. Il suo schema è ben consolidato: introdurre una caratteristica controversa, provocare una reazione negativa da parte dell'opinione pubblica, inquadrare il controllo dell'UE come anti-innovazione, minacciare di ritirare i servizi e, infine, modificare il sistema quel tanto che basta per dare un'apparenza di conformità, aggirando lo spirito delle norme.

Zuckerberg gioca duro

Mark Zuckerberg, azionista di controllo di Meta – la cui azienda è ora valutata circa 1,5 trilioni di euro – non ha fatto mistero del suo obiettivo: vincere la corsa globale all'intelligenza artificiale, anche se ciò significa scontrarsi con la legislazione europea.

Secondo alcuni resoconti, nel tentativo di creare un team di "superintelligenza", Meta avrebbe offerto ai migliori talenti dell'intelligenza artificiale pacchetti retributivi fino a 260 milioni di euro, cifre che il 99,996% delle aziende europee non potrebbe mai eguagliare.

Nell'UE, Meta sta combattendo battaglie su diversi fronti. Nel giugno 2024, ha sospeso il lancio dell'intelligenza artificiale dopo un'ondata di reclami sulla gestione dei dati degli utenti. Quando ha ripreso ad aprile 2025, sotto pressione, i meccanismi di opt-out per gli utenti sono stati modificati solo in minima parte. Lo schema ha resistito: oltrepassare i limiti, evitare la responsabilità.

Meta è inoltre coinvolta in una controversia con la Commissione Europea sul suo controverso modello pubblicitario "paga o acconsenti", che ha già comportato una multa di 200 milioni di euro e potrebbe comportare ulteriori sanzioni. Le indagini in corso stanno indagando su potenziali violazioni delle regole della piattaforma e sulla presunta collaborazione con editori russi sanzionati.

L'Europa è pronta per una lotta di potere?

Meta non ha firmato il codice; tuttavia, dovrà comunque conformarsi all'AI Act entro il 2 agosto. Il problema è che i precedenti dell'UE nell'applicazione delle normative tecnologiche ai giganti globali rimangono incerti. Le sanzioni, sebbene sempre più severe, non riescono ancora a scoraggiare le violazioni ripetute.

Se il codice diventerà uno strumento normativo significativo o solo una facciata politica dipenderà da come verrà attuato. I codici etici volontari, privi di meccanismi di controllo, si sono storicamente dimostrati deboli. Le aziende più ricche aderiranno, se il linguaggio sarà sufficientemente vago da evitare rischi legali.

Ciò rende le critiche iniziali delle ONG ancora più pertinenti. Già durante la fase di consultazione, gli organismi di controllo avevano segnalato che il codice era stato annacquato sotto la pressione del settore. A loro avviso, la Commissione aveva permesso al settore tecnologico di modellare eccessivamente il documento, potenzialmente vanificando le disposizioni chiave dell'AI Act.

In gioco non c'è solo la tecnologia

Lo scontro sul codice non riguarda solo gli standard tecnici. È una prova dell'intero modello di regolamentazione della tecnologia dell'UE, che cerca di bilanciare diritti fondamentali, interesse pubblico e innovazione. Tuttavia, sta diventando sempre più chiaro che questi obiettivi non sempre coincidono perfettamente.

Meta non è qui per negoziare. Sta giocando per il predominio. La strategia di Zuckerberg si basa su pressioni politiche, manipolazione mediatica e scappatoie legali. Si parla persino di fare appello a Donald Trump per spingere l'UE ad allentare le sue regole. In questa narrazione, le normative dell'UE vengono inquadrate come barriere commerciali, creando un altro fronte in una guerra economica transatlantica.

Se l'Europa vuole davvero essere all'avanguardia nell'intelligenza artificiale responsabile, deve fare di più che legiferare. Deve far rispettare le regole. Soprattutto quando l'avversario è un gigante da mille miliardi di euro.

Permettere alle aziende globali di sfidare apertamente i codici di condotta o di costringere le autorità di regolamentazione a scendere a compromessi minerebbe non solo la credibilità della Commissione, ma l'intero AI Act.

Dai forma alla conversazione

Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.