Con 483 voti favorevoli, 92 contrari e 86 astensioni, il Parlamento europeo ha approvato una risoluzione non legislativa che invita la Commissione europea ad adottare misure più incisive per garantire una maggiore protezione dei minori online. Tra queste, la richiesta di vietare l'uso dei social media ai minori di 16 anni.

Gli eurodeputati hanno proposto di introdurre un'età minima per l'accesso non solo ai social media, ma anche alle piattaforme di condivisione video e agli strumenti che utilizzano l'intelligenza artificiale (IA). L'età minima potrebbe essere abbassata a 13 anni con il consenso esplicito dei genitori.

La risoluzione mira a garantire una migliore applicazione del Digital Services Act (DSA) dell'Unione Europea , la normativa europea che disciplina le piattaforme web, tra cui i social network, i motori di ricerca e le piattaforme di e-commerce, anche attraverso sanzioni e possibili divieti per le piattaforme che non rispettano le norme.

Proposta degli eurodeputati

La risoluzione recentemente approvata dal Parlamento europeo mira a rendere più sicura la presenza online dei minori. Secondo un rapporto citato dagli eurodeputati, il 75% dei ragazzi tra i 13 e i 17 anni controlla i propri dispositivi almeno una volta all'ora, mentre un altro studio ha rilevato che ben un minore su quattro ha un uso "disfunzionale" o "problematico" dello smartphone.

Le misure proposte mirano a rafforzare i controlli di sicurezza sulle piattaforme. Ad esempio, oltre a introdurre il divieto di utilizzo dei social media per i minori di 16 anni – salvo consenso dei genitori, nel qual caso l'età minima è di 13 anni – la risoluzione raccomanda l'introduzione di nuove restrizioni e regole.

Tra queste, il divieto di pratiche che potrebbero favorire la dipendenza digitale, soprattutto tra i minori, come lo scrolling infinito o la gamification dannosa, o l'uso di elementi o modalità simili a giochi in contesti non ludici. Propone inoltre di vietare i siti web non conformi alle normative europee, nonché altri sistemi e metodi potenzialmente dannosi per i minori, come l'applicazione di algoritmi che personalizzano i contenuti sui social media sfruttando il coinvolgimento dei minori. La risoluzione sottolinea inoltre la necessità di proteggere i minori dallo sfruttamento commerciale, ad esempio vietando le piattaforme che incoraggiano il "kidfluencing", ovvero gli influencer minorenni.

Il Parlamento europeo intende inoltre inasprire le sanzioni potenziali. In particolare, oltre a vietare le piattaforme che non rispettano le normative europee, i deputati hanno proposto di ritenere personalmente responsabili i dirigenti delle piattaforme web "in caso di grave e persistente inosservanza", in particolare per quanto riguarda la tutela dei minori e l'introduzione di sistemi di verifica dell'età.

I rischi dell'intelligenza artificiale

Un altro punto riguarda la necessità di "interventi urgenti" per proteggere i minori dai rischi associati all'uso di strumenti di intelligenza artificiale generativa, che spesso possono esporre i bambini a rischi significativi per la loro sicurezza. Lo abbiamo visto con app che creano deepfake , inclusi nudi, a partire da qualsiasi foto, o con app che consentono di creare chatbot personalizzabili. In California, un ragazzo di 16 anni si è suicidato nell'agosto 2025 dopo aver trascorso mesi a chattare con ChatGPT. In seguito alla sua morte, i suoi genitori hanno fatto causa a OpenAI, ritenendo la sua intelligenza artificiale responsabile della morte del figlio. Sebbene l'azienda abbia negato le accuse e la causa sia in corso, la notizia ha riacceso il dibattito sui rischi dell'IA per la sicurezza dei minori.

Scritto da

Dai forma alla conversazione

Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.