Digital Services Act
Norme e regolamenti per i fornitori di piattaforme online

Nel novembre 2022 è entrato in vigore il Regolamento Europeo 2022/2065 noto come “Digital Services Act” – che ha introdotto una serie di disposizioni a carico degli intermediari online (piattaforme, gestori di servizi e motori di ricerca) volte a creare uno spazio digitale più sicuro per tutti gli utenti ove i diritti fondamentali vengano rispettati e tutelati e con alcune regole pensate appositamente per proteggere i minori online.
La Rete è un luogo in cui poter leggere, imparare, guardare, ascoltare, giocare o semplicemente vedere i contenuti che condividono persone da tutto il mondo. Ma in un ambiente guidato dal profitto e da specifici business model, i più giovani vengono regolarmente esposti a pubblicità mirate e disinformazione, informazioni e contenuti sessualizzati, comportamenti inadeguati e limitanti rispetto alle loro capacità di comprendere e prestare un consenso informato anche e soprattutto rispetto a una costante raccolta di dati personali invasiva ed estrattiva.
La normalizzazione dei servizi progettati da e per gli adulti crea un ambiente che va oltre le capacità di sviluppo dei più giovani, che è difficile da gestire e li espone a un’ampia gamma di rischi sistemici. Internet, infatti, non è stata creata pensando ai più giovani e chi rischia di pagare il prezzo più alto sono proprio loro, la cui inesperienza, legata principalmente all’età, il bisogno di sperimentarsi e la non comprensione piena delle dinamiche di funzionamento del mezzo, possono aumentare la loro sovraesposizione e vulnerabilità online come offline. Perché online e offline sappiamo oggi non essere due mondi separati e le distinzioni scontate come quelle fra reale e virtuale diventano labili, fluttuanti e incerte. Proprio in questa ottica il Digital Services Act parte dal presupposto che “tutto ciò che è illegale offline deve essere considerato illegale anche online”.
L’Unione Europea vuole assicurarsi che tutti possano divertirsi online, imparare nuove cose e ottenere informazioni rimanendo al sicuro e protetti e che le nuove tecnologie e le piattaforme online rispettino i diritti digitali di tutti.
Il Digital Service Act (DSA), mira a rendere Internet un luogo più sicuro per i cittadini europei, compresi i più giovani, “creando uno spazio digitale più sicuro all’interno del quale siano protetti i diritti fondamentali di tutti gli utenti dei servizi digitali”.
Il DSA punta a fare in modo che tutti i servizi digitali che usano in particolare i più giovani, come le “Piattaforme online di dimensioni molto grandi”, (o “VLOPs”) come Instagram, Snapchat, TikTok, YouTube ecc. facciano tutto il possibile per proteggere i diritti degli utenti, tenerti al sicuro e fermare la diffusione di contenuti illegali o inappropriati.
Il DSA stabilisce che i contenuti a cui accedono online sui siti e sui social media devono corrispondere alla loro età e ai loro interessi. È importante, dunque, che le piattaforme riconoscano e agiscano velocemente su qualunque contenuto possa violare i diritti e la dignità delle persone, la loro privacy e la loro libertà di espressione. Il DSA vuole che le piattaforme online facciano in modo di rispettare in particolare la privacy e la sicurezza dei più giovani e tengano conto dell’impatto che i loro servizi hanno su questioni importanti come la tenuta democratica, il benessere mentale e fisico degli utenti e tutte le forme di violenza di genere.
Gli obiettivi principali della normativa sono:
- Proteggere meglio i consumatori e i loro diritti fondamentali online.
- Stabilire una forte trasparenza e un chiaro quadro di responsabilità per le piattaforme online.
- Impedire che i più giovani ricevano pubblicità mirata poiché il DSA richiede un'attuazione rigorosa dei divieti di profilazione e di data mining di bambini/e e ragazzi/e e. Oltre a questi nuovi limiti sull’uso dei dati dei più giovani, sono vietati anche gli annunci mirati basati su indicatori sociali come l’appartenenza politica, il credo religioso, il genere, le condizioni di salute.
Il Digital Services Act assume una posizione più dura nei confronti degli algoritmi e della promozione algoritmica di contenuti rivolti a bambini/e e ragazzi/e. Le nuove norme vietano severamente infatti l’uso di contenuti promossi algoritmicamente dannosi per i più giovani, come video relativi al suicidio, all’autolesionismo e ai disturbi alimentari.
Con il Digital Services Act, l’UE richiede inoltre alle piattaforme e agli intermediari di assicurarsi che i loro termini di servizio e condizioni d’uso possano essere facilmente compresi dai più giovani. Ciò dovrebbe rendere più semplice per i bambini/e e ragazzi/e comprendere come i loro dati vengono utilizzati e archiviati dai fornitori.
La Commissione Europea ha il compito di individuare le piattaforme che hanno una media superiore ai 45 milioni di utenti mensili e di designarle “Piattaforme di dimensioni molto grandi” (VLOP) o “Motori di ricerca di dimensioni molto grandi” (VLOSE). Tra questi ci sono Amazon, Apple, Facebook, Twitter, Wikipedia, Google Maps e molti altri.
Per queste piattaforme e questi motori di ricerca di dimensioni molto grandi l’obbligo di rispettare il Digital Services Act è scattato da settembre del 2023.
Da febbraio del 2024 gli obblighi imposti dal Digital Services Act sono diventati applicabili per tutti i servizi online, grandi e piccoli.
La Ue e gli Stati membri, tramite i Coordinatori dei Servizi Digitali controlleranno che queste regole vengano seguite e possono multare le aziende che le infrangono. Il Coordinatore italiano è l’Autorità per le Garanzie nelle Comunicazioni.
Per saperne di più:
Pagina Informativa Digital-Services-Act
Il Digital-Services-Act in breve -Misure per proteggere i bambini e i giovani online
Allegati
Torna alla lista