Skip to main content
Bâtir l’avenir numérique de l’Europe

L’incidence de la législation sur les services numériques sur les plateformes numériques

Depuis août 2023, les plateformes ont déjà commencé à modifier leurs systèmes et interfaces conformément à la législation sur les services numériques afin de fournir une expérience en ligne plus sûre pour tous.

La description ci-dessous a été élaborée par les services de la Commission à titre d’information uniquement. Elle ne lie pas la Commission et n’entraîne ni approbation ni préjudice d’aucune évaluation ultérieure.

Le règlement sur les services numériques améliore considérablement les mécanismes de suppression des contenus illicites et de protection efficace des droits fondamentaux des utilisateurs en ligne, y compris la liberté d’expression. Elle crée également un mécanisme de surveillance publique renforcé pour les plateformes en ligne, en particulier pour les très grandes plateformes en ligne (VLOP) qui atteignent plus de 10 % de la population de l’UE.

Signalement plus facile des contenus illicites

Le règlement sur les services numériques impose aux plateformes de mettre en place des mesures pour lutter contre la diffusion de biens, de services ou de contenus illicites en ligne, telles que des mécanismes permettant aux utilisateurs de signaler ces contenus et aux plateformes de coopérer avec les «signaleurs de confiance». Ceux qui ont les yeux les plus vifs ont peut-être déjà remarqué certains changements dans l’environnement en ligne, tels que la fonctionnalité de X pour signaler les contenus illicites. Cette fonctionnalité est disponible si vous cliquez sur les trois petits points dans le coin supérieur droit de chaque message. X n'est pas la seule plateforme à avoir mis en place des options conviviales pour signaler les contenus illicites. Apple, Pinterest, Facebook, Instagram et TikTok ont également mis en place des moyens faciles de signaler les contenus illicites sur leurs plateformes.

Plus de transparence dans la modération du contenu et plus d'options pour faire appel

Les plateformes en ligne sont un espace numérique où nous nous exprimons, présentons notre travail et sommes en contact avec des amis ou des clients. C'est pourquoi il est particulièrement frustrant lorsque notre contenu est supprimé ou que la portée de nos publications est inexplicablement réduite. Avec le règlement sur les services numériques, les fournisseurs de services intermédiaires, y compris les plateformes en ligne, doivent indiquer à leurs utilisateurs pourquoi ils ont supprimé leur contenu ou pourquoi l’accès à un compte a été restreint. Les fournisseurs de services d’hébergement, y compris les plateformes en ligne, ont désormais l’obligation légale expresse de fournir des motifs clairs et spécifiques pour leurs décisions de modération de contenu. Le règlement sur les services numériques permet également aux utilisateurs de contester ces décisions au moyen d’un mécanisme de règlement extrajudiciaire des litiges.

Même les plateformes en ligne qui proposaient déjà des informations sur leurs décisions en matière de modération de contenu, telles que Facebook et Instagram, offrent désormais une plus grande gamme d’informations sur la modération de contenu.

En outre, afin de garantir la transparence et de permettre le contrôle des décisions de modération de contenu des fournisseurs de plateformes en ligne, comme l’exige le règlement sur les services numériques, la Commission a lancé la base de données sur la transparence du règlement sur les services numériques. La base de données sur la transparence du règlement sur les services numériques est une base de données unique en son genre qui rend accessibles au public tous les exposés des motifs fournis par les fournisseurs de plateformes en ligne pour leur décision de modération de contenu. Les très grandes plateformes en ligne doivent publier leurs exposés des motifs à partir de la fin du mois d’août, tandis que la date limite de publication pour tous les autres fournisseurs de plateformes en ligne relevant du champ d’application du règlement sur les services numériques est le 17 février 2024.

Plus de connaissances et de choix sur ce que nous voyons – et plus de contrôle sur les options de personnalisation

Le règlement sur les services numériques oblige les fournisseurs de plateformes en ligne à garantir une plus grande transparence et un meilleur contrôle de ce que nous voyons dans nos flux. Cela devrait nous permettre de découvrir sur quelle base les plateformes en ligne classent le contenu de nos flux et de décider si nous voulons refuser les recommandations personnalisées, étant donné que les très grandes plateformes en ligne doivent offrir la possibilité de désactiver le contenu personnalisé. Des obligations similaires s'appliquent aux annonces: en plus d’accroître la transparence et le contrôle des raisons pour lesquelles nous voyons une certaine publicité sur nos flux, les plateformes doivent étiqueter les publicités et les très grandes plateformes en ligne doivent tenir un répertoire contenant des détails sur les campagnes publicitaires payantes exécutées sur leurs interfaces en ligne. 

TikTok, Facebook et Instagram offrent actuellement la possibilité de désactiver le flux personnalisé sur leurs plateformes.

Les États membres et la Commission superviseront et appliqueront en étroite coopération les dispositions relatives à la transparence des systèmes de recommandation et de la publicité, y compris la mise en place de répertoires de publicités.

Tolérance zéro en ce qui concerne le ciblage des publicités destinées aux enfants et aux adolescents et le ciblage des publicités sur la base de données sensibles

Le règlement sur les services numériques interdit la publicité ciblée destinée aux mineurs sur les plateformes en ligne. Les TGPL ont pris des mesures pour se conformer à ces interdictions. Par exemple, Snapchat, Google et YouTube d’Alphabet et Instagram et Facebook de Metane permettent plus aux annonceurs de diffuser des publicités ciblées aux utilisateurs mineurs. TikTok et YouTube définissent désormais les comptes des utilisateurs de moins de 16 ans comme privés par défaut.

La publicité ciblée sur les plateformes en ligne est également interdite lorsque le profilage utilise des catégories particulières de données à caractère personnel, telles que l’origine ethnique, les opinions politiques et l’orientation sexuelle.

Protection des mineurs

Selon la législation sur les services numériques, les plateformes en ligne accessibles aux mineurs devraient protéger la vie privée et la sécurité de ces utilisateurs, ainsi que leur bien-être mental et physique.

Certaines plateformes en ligne ont déjà pris des mesures à cet égard. Par exemple, TikTok et YouTube, en plus d’interdire les publicités ciblées pour les mineurs, ont automatiquement placé les profils des mineurs en privé, ce qui signifie que les vidéos qu’ils téléchargent ne peuvent être visionnées que par les personnes qu’ils approuvent.

En juillet 2025, la Commission a adopté les lignes directrices pour la protection des enfants et un plan pour une solution de vérification de l’âge.

Les lignes directrices abordent des questions telles que la conception addictive, en désactivant des fonctionnalités telles que les «rayures» et les «reçus de lecture» pour limiter l’utilisation excessive, et en luttant contre la cyberintimidation en donnant aux mineurs les moyens de bloquer les utilisateurs et en empêchant les téléchargements de contenus indésirables. Ils visent également à atténuer l'impact des contenus préjudiciables en donnant aux mineurs plus de contrôle sur les recommandations et en promouvant les comptes privés par défaut pour empêcher les contacts indésirables d'étrangers.

Les lignes directrices recommandent également l’utilisation de méthodes efficaces d’assurance de l’âge en ligne, à condition qu’elles soient précises, fiables, robustes, non intrusives et non discriminatoires. En particulier, ils recommandent que des mesures de vérification de l’âge soient mises en place pour les contenus pour adultes, tels que la pornographie ou les jeux d’argent, ou lorsque les législations nationales fixent un âge minimum pour les médias sociaux.

Le plan d'une solution de vérification de l'âge offre une méthode de protection de la vie privée permettant aux utilisateurs de confirmer leur âge sans divulguer d'informations personnelles supplémentaires. Cette nouvelle norme pour l'assurance de l'âge en ligne est actuellement dans une phase pilote. Le logiciel sera testé et affiné en collaboration avec les États membres, les plateformes en ligne et les utilisateurs finaux.

Intégrité des élections

La législation sur les services numériques exige des TGPL et des TGPL qu’ils identifient, analysent et atténuent, au moyen de mesures efficaces, les risques liés aux processus électoraux et au discours civique, tout en garantissant la protection de la liberté d’expression. Les élections législatives slovaques du 30 septembre 2023 ont constitué le premier test pour ces exigences après l’entrée en application du règlement sur les services numériques pour les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne. Grâce à la législation sur les services numériques, l’approche des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en matière d’intégrité électorale a changé. Des progrès ont été accomplis en ce qui concerne les délais de réponse plus courts aux signalements par les autorités locales et les partenaires de confiance, des processus d’escalade plus clairs de désinformation et de désinformation, une augmentation des capacités de vérification des faits et une augmentation globale des ressources et des capacités. 

Obligations en matière de traçabilité des entreprises utilisatrices sur les places de marché en ligne

Le règlement sur les services numériques introduit des obligations pour les fournisseurs de places de marché en ligne afin de lutter contre la propagation de biens illicites. En particulier, ces fournisseurs doivent désormais veiller à ce que les vendeurs fournissent des informations vérifiées sur leur identité avant de pouvoir commencer à vendre leurs produits sur ces places de marché en ligne. Ces fournisseurs doivent également garantir que les utilisateurs peuvent facilement identifier la personne responsable de la vente. En outre, si un fournisseur de place de marché en ligne prend connaissance de la vente d’un produit ou d’un service illégal par un vendeur, il doit en informer les utilisateurs qui ont acheté le bien ou le produit illégal, ainsi que l’identité du vendeur et les possibilités de recours.

La Commission, de concert avec les États membres, supervisera et veillera au respect des obligations en matière de lutte contre la propagation de biens illicites sur les places de marché en ligne.

 

Ce sont quelques-uns des changements que nous, en tant qu'utilisateurs, pouvons remarquer immédiatement dans nos interactions numériques quotidiennes.

Les travaux de la Commission en tant qu’autorité de contrôle viennent de commencer. Nous vérifierons si ces premières étapes sont authentiques et quel impact elles ont sur la sécurité des utilisateurs et de la société dans son ensemble. Nous utiliserons les moyens dont nous disposons pour créer une meilleure réalité numérique et un meilleur avenir. Tout comme nous le rejetons dans le monde hors ligne, le harcèlement, l'intimidation et les contenus illégaux n'ont pas leur place sur les plateformes en ligne qui sont devenues des outils essentiels de notre vie quotidienne et de celle de nos enfants. D’autres changements sont à venir et le suivi de l’application des mesures introduites par le règlement sur les services numériques vient de commencer. L'objectif n'a toutefois pas changé: un monde numérique plus sûr et plus inclusif pour tous.

Contenu associé

Vue d’ensemble

Les très grandes plateformes en ligne et les moteurs de recherche comptent plus de 45 millions d’utilisateurs dans l’UE. Ils doivent respecter les règles les plus strictes de la DSA.