Con lo scopo di creare uno spazio digitale più sicuro e aperto, fondato sul rispetto dei diritti fondamentali in tutta l’UE, il digital services act e il digital markets act sono ormai una realtà applicata al web. Capiamo insieme cosa sono e come queste norme influenzeranno i servizi digitali.
Indice
Presentati dalla Commissione europea al Parlamento e al Consiglio dell’Unione europea a dicembre 2020, DSA e DMA sono le nuove normative nate per regolamentare in maniera ancor più definita gli attuali sistemi di informazione tecnologica. La trasformazione digitale dei nostri sistemi social, marketing e di contenuto li pone a rischio di sempre nuove minacce, interne ed esterne. L’UE vuole in questo modo proteggere i dati degli utenti e il mercato dagli illeciti che fin’ora sono stati fatti e da quelli che potrebbero avvenire tramite le nuove norme introdotte.
Qual è lo scopo di DSA e DMA?
Il Digital Services Act – DSA, in italiano normativa sui servizi digitali, è un regolamento dell’Unione europea per modernizzare la regolamentazione sul commercio elettronico in relazione ai contenuti illegali, alla pubblicità trasparente e alla disinformazione. Inoltre punta a modernizzare e ampliare la Direttiva sul commercio elettronico adottata nel 2000. Presentato insieme al Digital Markets Act – DMA, il DSA mira ad armonizzare le diverse legislazioni nazionali nell’Unione Europea sulla tematica di affrontare i contenuti illegali.
Il DMA invece nasce per contrastare gli abusi di posizione dominante prima che si verifichi la violazione. Si può definire il DMA uno strumento normativo ex ante: regola e definisce condotte e obblighi per le imprese prima che avvenga l’abuso. Al contrario, la normativa antitrust agisce ex post ovvero sanziona dopo che la violazione anticoncorrenziale è avvenuta. Obiettivo finale del DMA è anche quello di stimolare l’innovazione e la concorrenza dei mercati digitali.
Cosa prevede il digital services act
Il DSA ha lo scopo di migliorare la moderazione dei contenuti sulle piattaforme dei social media per affrontare le preoccupazioni sui contenuti illegali. Attualmente la regola sancisce che le società che ospitano dati altrui non sono responsabili del contenuto a meno che non sappiano effettivamente che è illegale. Il DSA mantiene tale norma e sanziona chi non agisce, una volta ottenuta tale conoscenza, per rimuovere tali contenuti. Oltre alle esenzioni dalla responsabilità, la regolamentazione introduce un’ampia serie di nuovi obblighi sulle piattaforme, compresi alcuni che mirano a rivelare alle autorità di regolamentazione come funzionano i loro algoritmi. Altri obblighi mirano a creare trasparenza su come vengono prese le decisioni di rimozione dei contenuti e sul modo in cui gli inserzionisti prendono di mira gli utenti.
Si prevedono quindi delle procedure di più rapida rimozione dei contenuti illegali e nuovi strumenti per tutelare i diritti fondamentali degli utenti. Un esempio è il meccanismo di notice and action – avviso e azione per la rimozione dei contenuti illegali: una volta ricevuto l’avviso, i fornitori di servizi di hosting dovranno attuare misure di sicurezza “senza indebito ritardo, tenendo conto del tipo di contenuto illegale che viene notificato e dell’urgenza di agire”.
Quali saranno gli obblighi per le piattaforme
Oltre alle esenzioni dalla responsabilità, il DSA introduce un’ampia serie di nuovi obblighi sulle piattaforme, compresi alcuni che mirano a rivelare alle autorità di regolamentazione come funzionano i loro algoritmi, mentre altri obblighi richiedono trasparenza su come vengono prese le decisioni di rimozione dei contenuti e sul modo in cui gli inserzionisti personalizzano la pubblicità nei confronti degli utenti. L’elenco dei nuovi obblighi per le piattaforme include, principalmente:
- obblighi di trasparenza: tutti devono rispettare l’obbligo di fornire ai ricercatori l’accesso ai dati, trasparenza dei sistemi di suggerimento e di pubblicità mirata.
- meccanismo di segnalazione e azione: i prestatori di servizi predispongono meccanismi per consentire a qualsiasi persona o ente di notificare la presenza di informazioni specifiche che possano costituire contenuti illegali; se le informazioni costituiscono contenuti illegali, vi saranno delle restrizioni che dovranno essere chiaramente e specificatamente motivate.
- obbligo di informare l’utente della decisione della piattaforma di attuare moderazione del contenuto, motivando e permettendo la contestazione.
- obbligo di fornire l’opzione all’utente di non ricevere suggerimenti basati sulla profilazione
- obbligo di chiarezza e rispetto dei diritti fondamentali nei termini di servizio
- obbligo di presenza di un quadro completo di gestione del rischio e relativo audit indipendente.
Alcune delle sue disposizioni si applicano solo alle piattaforme che hanno più di 45 milioni di utenti nell’Unione Europea, ovvero il 10% del totale dei suoi cittadini. Piattaforme come Facebook ad esempio, la controllata di Google YouTube, X e TikTok raggiungono tale soglia e sono soggette a tutti gli obblighi previsti. Sono invece esentate da alcuni obblighi le microimprese e piccole imprese.
Quando entra in vigore il digital services act
Approvato nell’ ottobre 2022, il digital services act sarà pienamente applicabile in tutta l’UE. La sua applicazione è fissata ufficialmente da oggi, 17 febbraio 2024. Recentemente abbiamo assistito ad una delle sue prime applicazioni in via preliminare, nel caso dell’App Store Apple.
Margrethe Vestager, vicepresidente esecutiva per un’Europa pronta all’era digitale, ha commentato la notizia in una nota ufficiale affermando: “Il Parlamento europeo ha adottato una novità mondiale: una regolamentazione forte e ambiziosa delle piattaforme online. La legge sui servizi digitali consente la protezione dei diritti degli utenti online. La legge sui mercati digitali crea mercati online equi e aperti. Ad esempio, l’incitamento all’odio illegale può anche essere affrontato online. E i prodotti acquistati online devono essere sicuri. Le grandi piattaforme dovranno astenersi dal promuovere i propri interessi, condividere i propri dati con altre aziende, abilitare più app store. Perché con le dimensioni arriva la responsabilità – come una grande piattaforma, ci sono cose che devi fare e cose che non puoi fare”.
Quali aziende verranno coinvolte dal digital services act
Il DSA si applica a tutti i “servizi intermediari”, ovvero a quelle piattaforme online che mettono in contatto utenti e fornitori di beni o servizi. Rientrano quindi nell’ambito di applicazione i Social network , i Motori di ricerca , le Piattaforme di e-commerce, i Servizi di pagamento online e di hosting.
Prevede per le grandi piattaforme digitali (identificate con l’acronimo VLOPs – very large online platforms) che hanno quindi più di 45 milioni di utenti nell’Unione Europea, che specifichino obblighi di moderazione e supervisione. Saranno cionvolte ovviamente piattaforme come Facebook, la controllata di Google YouTube, X (Twitter) e TikTok che raggiungono tale soglia e sarebbero soggette quindi ai nuovi obblighi. Molti però fanno notare la mancanza di alcune piattaforme molto diffuse, in particolare non sono coinvolte: eBay, Airbnb, Netflix e PornHub.
Il Digital Markets Act individua i gatekeeper: le persone che vigilano su accessi e uscite in un determinato spazio. In altre parole chi ha il potere di far filtrare o meno una informazione. Nel business, indica le società che hanno il controllo di un determinato settore di mercato. Nel mercato digitale, le società gatekeeper sono le LoPs – Large Online Platforms, che hanno il controllo per motivi quantitativi e qualitativi.
Cosa molto importante: il DSA regolamenterà anche le aziende extra-europee che operano nel nostro continente. In caso di violazione delle norme, il Digital Markets Act prevede sanzioni fino al 10% del fatturato dell’azienda e al 20% in caso di recidiva. Le violazioni delle nuove regole del Digital Services Act (DSA) invece potrebbero comportare multe fino al 6% delle entrate globali delle aziende.
[suggeriti]
Privacy e informazione
Le nuove misure per responsabilizzare gli utenti contenute nel DSA individuano la possibilità di contestare le decisioni di moderazione dei contenuti delle piattaforme e di richiedere un risarcimento. Ciò potrà avvenire sia attraverso un meccanismo di controversia extragiudiziale che un ricorso giurisdizionale.
Un altra misura molto importante contenuta è quella che permette di fornire ai ricercatori l’accesso ai dati chiave delle piattaforme più grandi ed alle ONG l’accesso ai dati pubblici. Ciò per ottenere maggiori informazioni sull’evoluzione dei rischi online.
Infine sono molte le nuove garanzie per la tutela dei minori e limiti all’utilizzo dei dati personali sensibili per la pubblicità mirata. Utilizzare determinati tipi di pubblicità mirata sulle piattaforme online per bambini o specifiche categorie di dati personali, come etnia, opinioni politiche, orientamento sessuale, sarà vietato.