Skip to main content
Plasmare il futuro digitale dell'Europa

L'impatto della legge sui servizi digitali sulle piattaforme digitali

Dall'agosto 2023, le piattaforme hanno già iniziato a cambiare i loro sistemi e interfacce secondo la legge sui servizi digitali (DSA) per fornire un'esperienza online più sicura per tutti.

    lavoro collaborativo

© aurielaki - iStock Getty

La descrizione che segue è stata preparata dai servizi della Commissione unicamente a scopo informativo. Essa non vincola la Commissione, né comporta un'approvazione o un pregiudizio ad una valutazione successiva in alcun modo.

La legge sui servizi digitali migliora significativamente i meccanismi per la rimozione dei contenuti illegali e per l'effettiva protezione dei diritti fondamentali degli utenti online, compresa la libertà di parola. Crea inoltre un meccanismo di controllo pubblico più forte per le piattaforme online, in particolare per quelle piattaforme online di dimensioni molto grandi (VLOP) che raggiungono oltre il 10 % della popolazione dell'UE.

Più facile segnalazione di contenuti illegali 

Il DSA impone alle piattaforme di mettere in atto misure per contrastare la diffusione di beni, servizi o contenuti illegali online, come meccanismi per gli utenti per segnalare tali contenuti e per le piattaforme per cooperare con "bandiere attendibili". Quelli con gli occhi più acuti potrebbero aver già notato alcune modifiche all'ambiente online, come la nuova funzionalità di X per segnalare contenuti illegali. Questa funzione è disponibile se si fa clic sui tre piccoli punti nell'angolo in alto a destra di ogni post. X non è l'unica piattaforma ad aver implementato nuove e user-friendly opzioni per segnalare contenuti illeciti. Apple, Pinterest, Facebook, Instagram e TikTok hanno anche messo in atto nuovi e semplici modi per segnalare contenuti illegali sulle loro piattaforme.

Maggiore trasparenza nella moderazione dei contenuti e più opzioni per fare appello

Le piattaforme online sono uno spazio digitale in cui ci esprimiamo, mostriamo il nostro lavoro e siamo in contatto con amici o clienti. Questo è il motivo per cui è particolarmente frustrante quando i nostri contenuti vengono rimossi o la portata dei nostri post è inspiegabilmente ridotta. Con il DSA, i fornitori di servizi intermediari, comprese le piattaforme online, devono comunicare ai loro utenti perché hanno rimosso i loro contenuti o perché l'accesso a un account è stato limitato. I prestatori di servizi di hosting, comprese le piattaforme online, hanno ora l'obbligo legale esplicito di fornire motivazioni chiare e specifiche per le loro decisioni di moderazione dei contenuti. La DSA consente inoltre agli utenti di impugnare tali decisioni attraverso un meccanismo extragiudiziale di risoluzione delle controversie.

Anche le piattaforme online che hanno già offerto informazioni sulle loro decisioni di moderazione dei contenuti, come Facebook e Instagram, offrono ora una maggiore gamma di informazioni sulla moderazione dei contenuti.

Inoltre, al fine di garantire la trasparenza e consentire il controllo delle decisioni di moderazione dei contenuti da parte dei fornitori di piattaforme online, come richiesto dal DSA, la Commissione ha lanciato la banca dati sulla trasparenza della DSA. La banca dati sulla trasparenza DSA è una banca dati unica nel suo genere che rende accessibili al pubblico tutte le dichiarazioni di motivazione fornite dai fornitori di piattaforme online per la loro decisione di moderazione dei contenuti. I VLOP devono pubblicare le loro dichiarazioni di motivazione a partire dalla fine di agosto, mentre il termine per la pubblicazione per tutti gli altri fornitori di piattaforme online che rientrano nell'ambito di applicazione del DSA è il 17 febbraio 2024.

Più conoscenza e scelta su ciò che vediamo — e più controllo sulle opzioni di personalizzazione 

La DSA obbliga i fornitori di piattaforme online a garantire maggiore trasparenza e controllo su ciò che vediamo nei nostri feed. Questo dovrebbe permetterci di scoprire su quale base le piattaforme online classificano i contenuti sui nostri feed e di decidere se vogliamo rinunciare alle raccomandazioni personalizzate, dal momento che i VLOP devono offrire un'opzione per disattivare i contenuti personalizzati. Obblighi analoghi si applicano agli annunci: oltre a una maggiore trasparenza e controllo sul motivo per cui vediamo un determinato annuncio sul nostro feed, le piattaforme devono etichettare gli annunci e i VLOP devono mantenere un repository con i dettagli sulle campagne pubblicitarie a pagamento eseguite sulle loro interfacce online. 

TikTok, Facebook e Instagram offrono attualmente un'opzione per disabilitare il feed personalizzato sulle loro piattaforme.

Gli Stati membri e la Commissione controlleranno e faranno rispettare, in stretta cooperazione, le disposizioni relative alla trasparenza dei sistemi di raccomandazione e della pubblicità, compresa l'attuazione di archivi pubblicitari.

Tolleranza zero sul targeting degli annunci per bambini e adolescenti e sul targeting degli annunci basati su dati sensibili

Il DSA vieta la pubblicità mirata ai minori sulle piattaforme online. I VLOP hanno adottato misure per conformarsi a tali divieti. Ad esempio, Snapchat, Google e YouTube di Alphabet, Instagram e Facebook di Metanon consentono più agli inserzionisti di mostrare annunci mirati agli utenti minorenni. TikTok e YouTube ora impostano gli account degli utenti di età inferiore a 16 anni a privati per impostazione predefinita. 

La pubblicità mirata sulle piattaforme online è vietata anche quando la profilazione utilizza categorie speciali di dati personali, come l'etnia, le opinioni politiche, l'orientamento sessuale.

Protezione dei minori

Secondo le nuove norme, le piattaforme online accessibili ai minori dovrebbero proteggere la vita privata e la sicurezza di tali utenti, nonché il loro benessere mentale e fisico, ad esempio adottando impostazioni specifiche per la privacy e la sicurezza. Le piattaforme online possono mettere in atto misure di verifica dell'età per controllare chi può accedere ai loro servizi, controlli parentali in modo che i genitori e i tutori possano contribuire a proteggere i loro figli dal rischio di esposizione a contenuti dannosi e strumenti in cui gli utenti possono segnalare abusi o ottenere sostegno. Si stanno compiendo alcuni primi passi.

Ad esempio, TikTok e YouTube, oltre a vietare gli annunci mirati per i minori, hanno impostato automaticamente i profili dei minori su privati, il che significa che i video che caricano possono essere visualizzati solo dalle persone che approvano.

Integrità delle elezioni

Il DSA richiede ai VLOP e ai VLOSE di identificare, analizzare e mitigare con misure efficaci i rischi relativi ai processi elettorali e al discorso civico, garantendo nel contempo la protezione della libertà di espressione. Le elezioni parlamentari slovacche del 30 settembre 2023 hanno costituito il primo caso di prova per tali requisiti dopo l'entrata in applicazione del DSA per i VLOP e i VLOSE. Grazie al DSA, l'approccio dei fornitori di VLOP e VLOSE all'integrità elettorale è cambiato. Sono stati compiuti progressi per quanto riguarda i tempi di risposta più brevi alla segnalazione da parte delle autorità locali e dei partner affidabili, un'escalation più chiara dei processi di disinformazione e disinformazione, un aumento delle capacità di controllo dei fatti e un aumento complessivo delle risorse e delle capacità. 

Nuovi obblighi in materia di tracciabilità degli utenti commerciali nei mercati online 

Il DSA introduce nuovi obblighi per i fornitori di mercati online per contrastare la diffusione di beni illegali. In particolare, tali fornitori devono ora garantire che i venditori forniscano informazioni verificate sulla loro identità prima di poter iniziare a vendere i loro beni su tali mercati online. Tali fornitori devono inoltre garantire che gli utenti possano facilmente identificare la persona responsabile della vendita. Inoltre, se un fornitore di mercato online viene a conoscenza della vendita di un prodotto o servizio illegale da parte di un venditore, deve informare gli utenti che hanno acquistato il bene o il prodotto illegale, nonché l'identità del venditore e le opzioni di ricorso. 

La Commissione, insieme agli Stati membri, sovrintenderà e farà rispettare gli obblighi contro la diffusione di merci illegali sui mercati online.

 

Questi sono alcuni dei cambiamenti che noi, come utenti, possiamo notare immediatamente nelle nostre interazioni digitali quotidiane.

Il lavoro della Commissione in qualità di esecutore è appena iniziato. Verificheremo se questi primi passi sono genuini e quale impatto hanno sulla sicurezza degli utenti e della società nel suo complesso. Useremo i mezzi che abbiamo per creare una realtà digitale e un futuro migliori. Proprio come lo rifiutiamo nel mondo offline, le molestie, il bullismo e i contenuti illegali non hanno posto sulle piattaforme online che sono diventate strumenti integrali della nostra vita quotidiana e dei nostri figli. Sono in arrivo ulteriori cambiamenti e il monitoraggio dell'applicazione delle misure introdotte dalla DSA è appena iniziato. L'obiettivo, tuttavia, non è cambiato: un mondo digitale più sicuro e inclusivo per tutti.

Contenuti correlati

Quadro generale

Il pacchetto sulla legge sui servizi digitali

La legge sui servizi digitali e la legge sui mercati digitali mirano a creare uno spazio digitale più sicuro in cui siano protetti i diritti fondamentali degli utenti e a creare condizioni di parità per le imprese.

Vedere anche

Coordinatori dei servizi digitali

I coordinatori dei servizi digitali aiutano la Commissione a monitorare e far rispettare gli obblighi previsti dalla legge sui servizi digitali (DSA).