Skip to main content
Plasmare il futuro digitale dell'Europa

L'impatto della legge sui servizi digitali sulle piattaforme digitali

Con la legge sui servizi digitali le piattaforme hanno già modificato i loro sistemi e le loro interfacce per offrire un'esperienza online più sicura a tutti gli europei.

La descrizione che segue è stata preparata dai servizi della Commissione a titolo puramente informativo. Essa non vincola la Commissione, né implica un'approvazione o pregiudica in alcun modo una valutazione successiva.

La legge sui servizi digitali migliora in modo significativo i meccanismi per la rimozione dei contenuti illegali e per l'efficace protezione dei diritti fondamentali degli utenti online, compresa la libertà di parola. Crea inoltre un meccanismo di controllo pubblico più forte per le piattaforme online, in particolare per le piattaforme online di dimensioni molto grandi (VLOP) e i motori di ricerca (VLOSE). Si tratta di oltre 45 milioni di utenti mensili, che raggiungono oltre il 10% della popolazione dell'UE.  

Segnalazione più semplice di contenuti illegali

La legge sui servizi digitali impone alle piattaforme di mettere in atto misure per contrastare la diffusione di beni, servizi o contenuti illegali online, quali meccanismi che consentano agli utenti di segnalare tali contenuti. 

Potresti aver già notato alcune modifiche all'ambiente online, come la funzione di X per segnalare contenuti illegali, disponibile se fai clic sui tre piccoli punti nell'angolo in alto a destra di ciascun post. Anche Apple, Pinterest, TikTok, Facebook & Instagram hanno messo in atto nuovi modi per segnalare contenuti illegali sulle loro piattaforme.

La legge sui servizi digitali impone inoltre alle piattaforme di trattare con notifiche di priorità presentate da segnalatori attendibili. Si tratta di esperti imparziali specializzati nell'individuazione di determinati tipi di contenuti illegali. Oltre 60 segnalatori attendibili sono già stati nominati dalle autorità nazionali, ad esempio in relazione alla protezione dei minori, all'individuazione di contenuti terroristici e all'identificazione di truffe nei confronti dei consumatori. 

Maggiore trasparenza nella moderazione dei contenuti e maggiori possibilità di ricorso

Le piattaforme online sono uno spazio digitale in cui esprimiamo noi stessi, mostriamo il nostro lavoro e ci connettiamo con amici o clienti. Questo è il motivo per cui è particolarmente frustrante quando i nostri contenuti vengono rimossi o la portata dei nostri post è inspiegabilmente ridotta. 

Con la legge sui servizi digitali, i prestatori di servizi intermediari, comprese le piattaforme online, devono comunicare ai loro utenti perché hanno rimosso i loro contenuti o perché l'accesso a un account è stato limitato, attraverso motivazioni chiare e specifiche per qualsiasi decisione di moderazione dei contenuti che adottano. 

Per garantire la trasparenza e consentire il controllo delle decisioni di moderazione dei contenuti adottate dai fornitori di piattaforme online come richiesto dalla legge sui servizi digitali, la Commissione ha lanciato la banca dati sulla trasparenza della legge sui servizi digitali. Il database è il primo nel suo genere. Fornisce l'accesso pubblico a tutte le dichiarazioni di motivazione anonime e aggregate dei fornitori di piattaforme online sulle loro decisioni di moderazione dei contenuti.

Ad esempio, la banca dati mostra che solo nella prima metà del 2025 le piattaforme hanno segnalato oltre 9 miliardi di decisioni di moderazione dei contenuti, di cui il 99 % è stato adottato in modo proattivo sulla base dei propri termini e condizioni. Solo una frazione marginale è legata alle segnalazioni di contenuti illegali.

La legge sui servizi digitali impone inoltre maggiore trasparenza alle piattaforme in merito ai loro processi e alle pratiche di moderazione dei contenuti. Le piattaforme online, come Snapchat, TikTok, Pinterest, AliExpress, Facebook & Instagram, offrono una gamma più ampia di informazioni sulla moderazione dei contenuti. Ciò include il numero di rimozione dei contenuti, l'accuratezza dei sistemi automatizzati, il numero di reclami degli utenti ricevuti e le informazioni sui team di moderazione dei contenuti.

Ai sensi della legge sui servizi digitali, gli utenti hanno il diritto di contestare le decisioni di moderazione dei contenuti. Coloro che non sono soddisfatti possono scegliere tra presentare un reclamo alla piattaforma o utilizzare un meccanismo di risoluzione extragiudiziale delle controversie.

Dal 2024 gli utenti dell'UE hanno presentato ricorso attraverso i meccanismi interni delle piattaforme per oltre 165 milioni di decisioni di moderazione dei contenuti delle piattaforme online di dimensioni molto grandi e dei motori di ricerca online di dimensioni molto grandi, il che ha portato a una decisione inversa in quasi il 30 % dei casi. Solo nella prima metà del 2025, gli organismi di risoluzione extragiudiziale delle controversie hanno esaminato oltre 1800 controversie in relazione ai contenuti diffusi nell'UE su Facebook, Instagram e TikTok, invertendo la decisione delle piattaforme nel 52 % dei casi chiusi, ripristinando contenuti e account, in modo più rapido ed economico rispetto al ricorso in tribunale.

Maggiori conoscenze e possibilità di scelta su ciò che vediamo e maggiore controllo sulle opzioni di personalizzazione

La legge sui servizi digitali obbliga i fornitori di piattaforme online a garantire maggiore trasparenza e controllo su ciò che vediamo nei nostri feed. Questo ci consente di scoprire su quale base le piattaforme online classificano i contenuti sui nostri feed e di decidere se desideriamo rinunciare alle raccomandazioni personalizzate, dal momento che i VLOP devono offrire un'opzione per disattivare i contenuti personalizzati. TikTok, Facebook e Instagram offrono attualmente un'opzione per disabilitare il feed personalizzato sulle loro piattaforme.

Obblighi analoghi si applicano agli annunci: oltre a un'ulteriore trasparenza e controllo sul motivo per cui vediamo una determinata pubblicità sul nostro feed, le piattaforme devono etichettare gli annunci e le piattaforme online di dimensioni molto grandi devono mantenere un archivio con i dettagli sulle campagne pubblicitarie a pagamento eseguite sulle loro interfacce online. 

Gli Stati membri e la Commissione vigilano e applicano in stretta cooperazione le disposizioni relative alla trasparenza dei sistemi di raccomandazione e della pubblicità, compresa l'attuazione dei repertori di annunci.

A seguito dei procedimenti avviati dalla Commissione, i fornitori di TikTok e di AliExpress si sono impegnati a fornire archivi pubblicitari che garantiscano la piena trasparenza degli annunci sui rispettivi servizi.

Nei casi in cui non sia possibile raggiungere un accordo su come garantire che gli archivi pubblicitari siano conformi alla legge sui servizi digitali, la Commissione si impegna ad agire. Ad esempio con la sanzione pecuniaria di 45 milioni di EUR inflitta al fornitore di X per il suo repertorio pubblicitario non conforme.

Tolleranza zero sul targeting degli annunci per bambini e adolescenti e sul targeting degli annunci sulla base di dati sensibili

La legge sui servizi digitali vieta la pubblicità mirata ai minori sulle piattaforme online. Le piattaforme online di dimensioni molto grandi hanno adottato misure per conformarsi a tali divieti. Ad esempio, Snapchat, Instagram e Facebook di TikTok e Meta non consentono più agli inserzionisti di mostrare annunci mirati agli utenti minorenni.

La pubblicità mirata sulle piattaforme online è vietata anche quando la profilazione utilizza categorie particolari di dati personali, quali l'etnia, le opinioni politiche o l'orientamento sessuale.

Protezione dei minori

Secondo la legge sui servizi digitali, le piattaforme online accessibili ai minori devono proteggere il loro benessere mentale e fisico, la loro privacy e la loro sicurezza.

Nel luglio 2025 la Commissione ha adottato gli orientamenti per la protezione dei minori e un piano per una soluzione di verifica dell'età. Gli orientamenti affrontano questioni quali la progettazione che crea dipendenza, disabilitando caratteristiche quali le "ricevute di lettura" per frenare l'uso eccessivo e combattendo il cyberbullismo consentendo ai minori di bloccare gli utenti e prevenendo il download di contenuti indesiderati. Mirano anche a mitigare l'impatto dei contenuti dannosi dando ai minori un maggiore controllo sulle raccomandazioni e promuovendo account privati per impostazione predefinita per prevenire contatti indesiderati da parte di estranei. 

Le linee guida raccomandano inoltre l'uso di efficaci metodi di assicurazione dell'età online, a condizione che siano accurati, affidabili, robusti, non intrusivi e non discriminatori. In particolare, raccomandano l'adozione di misure di verifica dell'età per i contenuti per adulti, come la pornografia o il gioco d'azzardo, o quando le leggi nazionali stabiliscono un'età minima per i social media.

Il modello per una soluzione di verifica dell'età offre un metodo di tutela della privacy per gli utenti per confermare la loro età senza divulgare ulteriori informazioni personali. Questo nuovo standard per l'assicurazione online dell'età è attualmente in fase pilota. Il software sarà testato e perfezionato in collaborazione con gli Stati membri, le piattaforme online e gli utenti finali. Un secondo piano è stato pubblicato in ottobre, aggiungendo l'uso di passaporti e carte d'identità per l'onboarding, nonché il supporto per le credenziali digitali API.

Integrità delle elezioni

La legge sui servizi digitali impone alle piattaforme online di dimensioni molto grandi e alle piattaforme online di dimensioni molto grandi di individuare, analizzare e attenuare con misure efficaci i rischi connessi ai processi elettorali e al discorso civico, garantendo nel contempo la protezione della libertà di espressione.

 Nel marzo 2024 la Commissione ha pubblicato orientamenti per le piattaforme online di dimensioni molto grandi e le piattaforme online di dimensioni molto grandi sull'attenuazione dei rischi online per i processi elettorali.  

Seguendo la guida, Bing e Google hanno migliorato la qualità della risposta dei loro chatbot AI e implementato misure per evitare allucinazioni, mentre il fornitore di Facebook e Instagram si è impegnato a etichettare meglio i deepfake generati dall'IA.

Obblighi in materia di tracciabilità degli utenti commerciali nei mercati online

La legge sui servizi digitali introduce l'obbligo per i fornitori di mercati online di contrastare la diffusione di merci illegali. In particolare, tali fornitori devono garantire che i venditori forniscano informazioni verificate sulla loro identità prima di poter iniziare a vendere i loro beni su tali mercati online. Tali fornitori devono inoltre garantire che gli utenti possano facilmente identificare la persona responsabile della vendita.

Nel giugno 2025 la Commissione ha reso vincolante una serie di impegni ad ampio raggio offerti dal fornitore di AliExpress per rispondere a una serie di preoccupazioni della Commissione, migliorando la tracciabilità dei suoi operatori commerciali, la trasparenza dei suoi sistemi di pubblicità e raccomandazione e l'accesso ai dati per i ricercatori. Gli utenti di AliExpress possono ora segnalare facilmente i contenuti illegali che incontrano sulla piattaforma anche se non sono registrati con la piattaforma. Le offerte di "oggetti per adulti" su AliExpress (ad esempio giocattoli sessuali), precedentemente visibili ai minori, vengono ora rilevate automaticamente e sfocate.

Se un fornitore di un mercato online viene a conoscenza della vendita di un prodotto o servizio illegale da parte di un venditore, deve:

  • informare gli utenti che hanno acquistato il bene o il prodotto illegale
  • identificare il venditore
  • Offrire possibilità di ricorso

Diversi fornitori di mercati online hanno ora creato una pagina web di richiamo specifica dell'UE per informare i consumatori di tali prodotti o servizi illegali offerti sulla loro piattaforma negli ultimi sei mesi e informarli in merito a qualsiasi mezzo di ricorso pertinente (compreso il ricorso collettivo). Altri inviano le notifiche di richiamo direttamente ai consumatori che hanno acquistato i prodotti illegali attraverso i loro servizi.

Questi sono alcuni dei cambiamenti che noi, come utenti, possiamo notare nelle nostre interazioni digitali quotidiane.

Nel corso di questi due anni la Commissione e i coordinatori nazionali dei servizi digitali hanno supervisionato attivamente l'applicazione della legge sui servizi digitali in tutta Europa, avviando finora 16 procedimenti e garantendo risultati tangibili per i cittadini. Ad esempio, il ritiro del programma di ricompensa di TikTok Lite dall'UE e il rafforzamento delle misure di sicurezza dei consumatori introdotte da AliExpress.

Tali indagini integrano le azioni orizzontali condotte dal comitato per i servizi digitali, che si concentrano sulla protezione dei minori e sulla lotta contro le truffe e le frodi online. Vi sono inoltre indagini nazionali avviate dai coordinatori dei servizi digitali per garantire il rispetto degli obblighi della legge sui servizi digitali nell'ambito delle loro competenze. 

Contenuti correlati

Quadro generale

La legge sui servizi digitali contribuisce a rendere l'ambiente online sicuro e affidabile.

Per ulteriori approfondimenti