Tel.
+39 339.33.46.639
Email
info@giulianodeluca.it
Orari
Lun - Ven : 09:00-19:00
Richiedi un appuntamento

Digital Services Act, la Commissione Europea pubblica le Linee Guida per la protezione dei minori online.

Digital Services Act, la Commissione Europea pubblica le Linee Guida per la protezione dei minori online.

Il 10 ottobre è stato pubblicato sulla Gazzetta Ufficiale dell’Unione Europea il documento “Orientamenti su misure per garantire un elevato livello di tutela della vita privata, di sicurezza e di
protezione dei minori online, a norma dell’articolo 28, paragrafo 4, del regolamento (UE) 2022/2065“. Il documento fornisce linee guida pratiche per i fornitori di piattaforme online accessibili ai minori (<18 anni) affinché garantiscano un elevato livello di tutela della privacy, sicurezza e protezione. Le misure si basano sull’articolo 28 del Regolamento UE 2022/2065 (Digital Services Act), che impone obblighi specifici per proteggere i minori dai rischi digitali. Le linee guida supportano anche il lavoro dei coordinatori dei servizi digitali e delle autorità nazionali nell’applicazione del regolamento.

Ecco i principali aspetti evidenziati nel documento.

Principali rischi per i minori

Le piattaforme digitali espongono i minori a rischi quali:

  • contenuti illegali (es. droga, estremismo, pornografia minorile);
  • pratiche commerciali inappropriate;
  • contatti con persone malintenzionate (bullismo, adescamento, sfruttamento, radicalizzazione);
  • rischi derivanti da tecnologie emergenti (IA, chatbot, deepfake);
  • uso eccessivo, gioco d’azzardo, impatti sulla salute mentale e fisica.

Principi generali

Le misure da adottare devono essere:

  • proporzionate, adeguate ai rischi specifici della piattaforma;
  • orientate al superiore interesse del minore;
  • non discriminatorie e rispettose dei diritti fondamentali;
  • progettate per minimizzare i dati raccolti e trattati;
  • in linea con i più alti standard disponibili e buone pratiche.

Analisi dei rischi

I fornitori devono effettuare un’analisi caso per caso, valutando in particolare:

  • tipologie di rischi presenti;
  • impatto delle misure sui diritti dei minori;
  • evoluzione delle tecnologie e comportamenti.

Verifica dell’età

La verifica dell’età è centrale: gli attuali sistemi devono garantire accuratezza, affidabilità, solidità, non invasività e non discriminazione. La Commissione promuove una soluzione UE di verifica dell’età, che conferma solo se l’utente ha almeno 18 anni, senza fornire altri dati personali, e suggerisce di consentire agli utenti di scegliere tra diversi metodi di verifica, tuttavia l’autodichiarazione non è considerata valida come unico sistema di verifica dell’età.

Impostazioni degli account

Gli account destinati ai minori devono avere per default:

  • massima privacy e protezione;
  • interazioni limitate solo a contatti approvati;
  • geolocalizzazione e tracciamenti disattivati;
  • notifiche e funzioni rischiose (live streaming, reazioni, filtri corpo) disattivate;
  • possibilità di tornare facilmente alle impostazioni di default e avvisi sui rischi legati a modifiche;
  • informazioni spiegate in modo chiaro e adatto all’età.

Registrazione e gestione account

La registrazione va facilitata per i minori, con informazioni e strumenti accessibili, comprensibili e disponibili anche per soggetti con disabilità o bisogni speciali. Non va incentivata la condivisione eccessiva di dati personali, allo stesso modo va impedita la creazione di account da parte di minori privi dei requisiti di età.

Supporto e strumenti per minori e tutori

Le piattaforme devono fornire in particolare:

  • strumenti di supporto immediati per chiedere aiuto (per esempio, blocco e silenziamento di utenti, collegamento diretto con centri di assistenza nazionale);
  • avvertimenti e link alle linee di sostegno quando si interagisce con contenuti potenzialmente dannosi;
  • opzioni per tutori che accompagnino la navigazione del minore, tuttavia senza invadere la sua privacy o limitare sproporzionatamente i suoi diritti.

Responsabilità e governance

Le piattaforme devono adottare:

  • una governance efficace e strutturata con figure responsabili della protezione dei minori;
  • politiche interne e formazione specifica per il personale;
  • sistemi di monitoraggio e rendicontazione periodica sui rischi e sui danni registrati e sulle pratiche adottate;
  • una cultura della partecipazione che valorizzi il coinvolgimento dei minori nella progettazione e nella valutazione dei servizi.

Condizioni generali e trasparenza

Le condizioni d’uso devono essere:

  • chiare, semplici, prive di ambiguità;
  • comunicabili in modo accessibile e interattivo per minori di diverse età e abilità;
  • spiegate attraverso strumenti didattici e visuali (quiz, icone, infografiche);
  • aggiornate e riesaminate anche con il coinvolgimento diretto dei minori e dei tutori.

Segnalazione, reclamo e moderazione

Le piattaforme devono offrire:

  • sistemi di segnalazione, feedback e reclamo facilmente accessibili, anche in modalità anonima, efficaci, visibili, a misura di minore e disponibili nella lingua ufficiale locale;
  • risposte tempestive e chiare alle segnalazioni e ai reclami dei minori;
  • moderazione costante dei contenuti e formazione agli operatori dedicati;
  • priorità alle segnalazioni che riguardano la sicurezza e la privacy dei minori.

Monitoraggio e revisione

Le misure devono essere monitorate, verificate e aggiornate regolarmente, coinvolgendo minori, tutori, esperti e società civile. Le linee guida saranno aggiornate almeno ogni 12 mesi, secondo l’avanzamento tecnologico e normativo. La Commissione incoraggia la trasparenza verso il pubblico e il confronto periodico su efficacia, limiti e buone pratiche.

Digital Services Act la Commissione Europea pubblica le Linee Guida per la protezione dei minori online

Related Posts

Leave a Reply