Come si insegna a un bambino che esistono confini se l’intero universo digitale che lo circonda è costruito per essere senza limiti?
Oggi, a nove anni, un bambino medio in Italia ha già visto un video pornografico. Non per scelta, spesso. Per caso. Perché qualcuno a scuola glielo mostra, perché l’ha trovato in una chat, perché l’algoritmo ha deciso di suggerirgli un link.
Questo è il contesto in cui nasce la delibera AGCOM 96/25/CONS, che attua quanto previsto dalla legge 13 novembre 2023, n. 159 (Decreto Caivano) e introduce un sistema obbligatorio di verifica dell’età per accedere a contenuti online vietati ai minori. Un provvedimento che tocca da vicino il cuore della missione di Digital for Children: creare uno spazio digitale che sia davvero a misura di bambino.
Per comprendere la portata di questa iniziativa, bisogna partire da un dato semplice e allarmante: l’età media del primo contatto con la pornografia in Italia si aggira tra i 9 e gli 11 anni. Non si tratta di un evento isolato o marginale, ma di un fenomeno diffuso e normalizzato, spesso alimentato dalla condivisione tra pari. Il 51% dei ragazzi dichiara di aver incontrato contenuti pornografici in modo accidentale, mentre oltre un terzo lo fa su spinta di amici o compagni di classe. In più del 20% dei casi, l’esposizione avviene prima dei 9 anni.
Le conseguenze non sono trascurabili. Le ricerche più recenti dimostrano che l’esposizione precoce a contenuti sessualmente espliciti incide negativamente sullo sviluppo affettivo e relazionale, generando modelli distorti di sessualità, dipendenza, isolamento e disorientamento emotivo. In particolare, si registra una crescente incidenza di contenuti violenti o di dominazione, con il rischio che la violenza venga percepita come componente normale della dinamica sessuale.
Alla luce di questo scenario, la delibera AGCOM rappresenta una svolta. Il nuovo sistema impone ai siti che ospitano contenuti vietati ai minori di introdurre, entro sei mesi, meccanismi di verifica dell’età tramite soggetti terzi certificati. La struttura prevede due passaggi: identificazione e autenticazione per ogni accesso, eventualmente mediati da applicazioni dedicate e protetti da un sistema di “doppio anonimato” che assicura la separazione tra chi certifica l’età e chi fornisce il contenuto.
Questa impostazione, che da un lato tutela la riservatezza e dall’altro impone un controllo reale, segna un cambio di passo rispetto alla semplice autodichiarazione oggi diffusa. Ma solleva anche interrogativi. Primo fra tutti: fino a che punto è giusto che sia la legge a stabilire non solo l’obiettivo (proteggere i minori), ma anche lo strumento tecnico con cui raggiungerlo?
Nel diritto europeo vige il principio della neutralità tecnologica, secondo cui la legge dovrebbe definire i fini lasciando al mercato la scelta dei mezzi. In questo caso, invece, la norma entra nel merito del “come”, orientando lo sviluppo delle soluzioni più di quanto forse sarebbe opportuno. Per Digital for Children, questa è una riflessione fondamentale: la protezione dei minori è una priorità, ma non può essere affidata solo alla rigidità di una soluzione tecnica imposta.
Inoltre, il nuovo modello introduce una delega rilevante a soggetti privati: sono loro, i fornitori di verifica e le piattaforme digitali, a dover garantire l’applicazione del sistema. Ciò implica una nuova assunzione di responsabilità, che richiede controlli e criteri di affidabilità chiari e trasparenti.
E poi c’è un ulteriore nodo: l’accessibilità. Se i sistemi risultassero complessi, poco intuitivi o economicamente gravosi, rischierebbero di generare nuove disuguaglianze, lasciando indietro proprio quelle famiglie e quei minori che più avrebbero bisogno di protezione.
Ma guardare solo alla tecnologia significa restare a metà strada. Nessun filtro sarà mai efficace quanto un bambino consapevole. E per costruire quella consapevolezza servono strumenti educativi, linguaggi adatti, alleanze tra scuola, famiglia, istituzioni e piattaforme. Serve un filtro interiore, non solo esterno. Serve cultura.
Per questo Digital for Children sostiene con convinzione l’obiettivo della delibera, ma invita a non fermarsi al perimetro del provvedimento. La tutela dei minori online non può limitarsi a pornografia e gioco d’azzardo. I social network, dove milioni di minori passano ogni giorno ore intere, restano ancora oggi accessibili con una semplice autocertificazione. Anche lì servono regole, limiti, presìdi. Anche lì serve dire chiaramente che crescere non significa essere lasciati soli.
Non è vietando che si educa. Ma senza limiti reali, nessuna libertà è davvero protetta.