Digital Service Act: cosa prevede e cosa cambia

Dal 17.02.2024 si applicheranno a tutti gli operatori europei gli obblighi introdotti dal Regolamento (UE) 2022/2065 relativo al mercato unico dei servizi digitali (Digital Service Act o DSA).

Per quanto riguarda le c.d. Big Tech, il 25.08.2023 sono già entrate in vigore alcune disposizioni del Digital Service Act che hanno introdotto nuovi obblighi di trasparenza e controllo finalizzati a creare un ambiente digitale più sicuro per gli utenti.

Quali sono le Big Tech individuate dalla Commissione Europea

Il Digital Service Act prevede obblighi e responsabilità più stringenti per le piattaforme e i motori di ricerca online di dimensioni molto grandi, ossia per quei fornitori di servizi online che hanno un numero medio mensile di destinatari del servizio europei pari o superiore a 45 milioni.

A seguito dell’entrata in vigore del DSA (il 16.11.2022), le piattaforme online hanno avuto 3 mesi di tempo per comunicare il numero degli utenti finali attivi sui loro siti web. Sulla base dei dati forniti, la Commissione ha poi designato le piattaforme che risultavano avere grandi dimensioni.

Ad aprile sono state notificate alle società interessate gli atti di designazione della Commissione e, a partire da quel momento, le società avrebbero avuto 4 mesi di tempo per conformarsi agli obblighi previsti dal DSA.

Nell’elenco delle Big Tech stilato dalla Commissione figurano Amazon, Apple AppStore, Booking, Facebook, Google, Instagram, LinkedIn, TikTok, Twitter, Wikipedia, Youtube, Pinterest, Snapchat, Zalando, Bing e Alibaba Aliexpress.

I nuovi obblighi delle Big Tech

Trattandosi di piattaforme in grado di raggiungere mensilmente il 10% della popolazione europea, il Digital Service Act ha elaborato un complesso di obblighi volti a prevenire e contenere i rischi che gli utenti potrebbero subire attraverso la fruizione dei servizi offerti dalle grandi piattaforme.

Nel disegnare questi nuovi obblighi, il legislatore europeo ha riconosciuto che queste piattaforme possono avere un impatto significativo sulla società e, quindi, gli viene imposto di identificare, analizzare e comunicare periodicamente alla Commissione i rischi sistemici derivanti dalla progettazione e dal funzionamento dei propri servizi. Nel predisporre la valutazione del rischio, le Big Tech dovranno valutare, tra l’altro, i rischi legati alla diffusione di contenuti illegali attraverso i loro servizi, i rischi per i diritti e le libertà fondamentali e i potenziali effetti negativi del servizio sul dibattito pubblico e sui processi elettorali. Una volta individuati i rischi, le piattaforme dovranno implementare tutte le misure necessarie a contenerli e prevenirli, sottoponendosi a procedure di audit periodiche.

Oltre all’identificazione del rischio, alle grandi piattaforme si chiede maggiore trasparenza nei confronti degli utenti per quanto riguarda le condizioni di utilizzo, la pubblicità, i sistemi di raccomandazione o di moderazione dei contenuti, si introducono maggiori garanzie a tutela dei minori e si prevedono misure specifiche per il contrasto degli illeciti.

In particolare, gli algoritmi di raccomandazione dei contenuti

Le piattaforme che usano algoritmi di raccomandazione dei contenuti dovranno spiegare in modo chiaro come funzionano questi sistemi e quali sono i parametri usati per suggerire determinati contenuti all’utente. Inoltre, le Big Tech dovranno assicurare sempre all’utente la possibilità di visualizzare contenuti in un ordine che non sia determinato da meccanismi di profilazione.

 

Ilaria Feriti