Proposta degli eurodeputati
La risoluzione recentemente approvata dal Parlamento europeo mira a rendere più sicura la presenza online dei minori. Secondo un rapporto citato dagli eurodeputati, il 75% dei ragazzi tra i 13 e i 17 anni controlla i propri dispositivi almeno una volta all'ora, mentre un altro studio ha rilevato che ben un minore su quattro ha un uso "disfunzionale" o "problematico" dello smartphone.
Le misure proposte mirano a rafforzare i controlli di sicurezza sulle piattaforme. Ad esempio, oltre a introdurre il divieto di utilizzo dei social media per i minori di 16 anni – salvo consenso dei genitori, nel qual caso l'età minima è di 13 anni – la risoluzione raccomanda l'introduzione di nuove restrizioni e regole.
Tra queste, il divieto di pratiche che potrebbero favorire la dipendenza digitale, soprattutto tra i minori, come lo scrolling infinito o la gamification dannosa, o l'uso di elementi o modalità simili a giochi in contesti non ludici. Propone inoltre di vietare i siti web non conformi alle normative europee, nonché altri sistemi e metodi potenzialmente dannosi per i minori, come l'applicazione di algoritmi che personalizzano i contenuti sui social media sfruttando il coinvolgimento dei minori. La risoluzione sottolinea inoltre la necessità di proteggere i minori dallo sfruttamento commerciale, ad esempio vietando le piattaforme che incoraggiano il "kidfluencing", ovvero gli influencer minorenni.
Il Parlamento europeo intende inoltre inasprire le sanzioni potenziali. In particolare, oltre a vietare le piattaforme che non rispettano le normative europee, i deputati hanno proposto di ritenere personalmente responsabili i dirigenti delle piattaforme web "in caso di grave e persistente inosservanza", in particolare per quanto riguarda la tutela dei minori e l'introduzione di sistemi di verifica dell'età.
I rischi dell'intelligenza artificiale
Un altro punto riguarda la necessità di "interventi urgenti" per proteggere i minori dai rischi associati all'uso di strumenti di intelligenza artificiale generativa, che spesso possono esporre i bambini a rischi significativi per la loro sicurezza. Lo abbiamo visto con app che creano deepfake , inclusi nudi, a partire da qualsiasi foto, o con app che consentono di creare chatbot personalizzabili. In California, un ragazzo di 16 anni si è suicidato nell'agosto 2025 dopo aver trascorso mesi a chattare con ChatGPT. In seguito alla sua morte, i suoi genitori hanno fatto causa a OpenAI, ritenendo la sua intelligenza artificiale responsabile della morte del figlio. Sebbene l'azienda abbia negato le accuse e la causa sia in corso, la notizia ha riacceso il dibattito sui rischi dell'IA per la sicurezza dei minori.