Skip to main content
Bâtir l’avenir numérique de l’Europe

L’incidence de la législation sur les services numériques sur les plateformes numériques

Depuis août 2023, les plateformes ont déjà commencé à modifier leurs systèmes et interfaces conformément à la législation sur les services numériques (DSA) afin d’offrir une expérience en ligne plus sûre pour tous.

    travail collaboratif

© aurielaki - iStock Getty

La description ci-dessous a été élaborée par les services de la Commission à titre d’information uniquement. Elle n’engage pas la Commission et n’implique aucune approbation ni ne préjuge d’aucune évaluation ultérieure.

La législation sur les services numériques améliore considérablement les mécanismes de suppression des contenus illicites et de protection efficace des droits fondamentaux des utilisateurs en ligne, y compris la liberté d’expression. Elle crée également un mécanisme de surveillance publique renforcé pour les plateformes en ligne, en particulier pour les très grandes plateformes en ligne (VLOP) qui touchent plus de 10 % de la population de l’UE.

Signalement plus facile des contenus illicites 

La législation sur les services numériques impose aux plateformes de mettre en place des mesures pour lutter contre la diffusion de biens, de services ou de contenus illicites en ligne, telles que des mécanismes permettant aux utilisateurs de signaler ces contenus et aux plateformes de coopérer avec les «signaleurs de confiance». Ceux qui ont les yeux les plus vifs ont peut-être déjà remarqué certains changements dans l’environnement en ligne, tels que la nouvelle fonctionnalité de X pour signaler les contenus illicites. Cette fonctionnalité est disponible si vous cliquez sur les trois petits points dans le coin supérieur droit de chaque message. X n'est pas la seule plateforme à avoir mis en place de nouvelles options conviviales pour signaler les contenus illicites. Apple, Pinterest, Facebook, Instagram et TikTok ont également mis en place de nouveaux moyens simples de signaler les contenus illicites sur leurs plateformes.

Une plus grande transparence dans la modération du contenu et plus d'options pour faire appel

Les plateformes en ligne sont un espace numérique où nous nous exprimons, présentons notre travail et sommes en contact avec des amis ou des clients. C'est pourquoi il est particulièrement frustrant lorsque notre contenu est supprimé ou que la portée de nos messages est inexplicablement réduite. Avec la législation sur les services numériques, les fournisseurs de services intermédiaires, y compris les plateformes en ligne, doivent communiquer à leurs utilisateurs les raisons pour lesquelles ils ont supprimé leur contenu ou pour lesquelles l’accès à un compte a été restreint. Les fournisseurs de services d’hébergement, y compris les plateformes en ligne, ont désormais l’obligation légale expresse de fournir des motifs clairs et spécifiques pour leurs décisions de modération de contenu. La législation sur les services numériques permet également aux utilisateurs de contester ces décisions au moyen d’un mécanisme de règlement extrajudiciaire des litiges.

Même les plateformes en ligne qui offraient déjà des informations sur leurs décisions en matière de modération de contenu, telles que Facebook et Instagram, offrent désormais un plus large éventail d’informations sur la modération de contenu.

En outre, afin de garantir la transparence et de permettre un contrôle des décisions de modération des contenus des fournisseurs de plateformes en ligne, comme l’exige la législation sur les services numériques, la Commission a lancé la base de données sur la transparence de la législation sur les services numériques. La base de données sur la transparence de la législation sur les services numériques est une base de données unique en son genre qui rend accessibles au public toutes les déclarations de motivation fournies par les fournisseurs de plateformes en ligne pour leur décision de modération de contenu. Les VLOP doivent publier leurs exposés des motifs à partir de la fin du mois d’août, tandis que la date limite de publication pour tous les autres fournisseurs de plateformes en ligne relevant du champ d’application de la législation sur les services numériques est le 17 février 2024.

Plus de connaissances et de choix sur ce que nous voyons – et plus de contrôle sur les options de personnalisation 

La législation sur les services numériques oblige les fournisseurs de plateformes en ligne à garantir une plus grande transparence et un meilleur contrôle de ce que nous voyons dans nos flux. Cela devrait nous permettre de découvrir sur quelle base les plateformes en ligne classent le contenu de nos flux et de décider si nous voulons refuser les recommandations personnalisées, car les VLOP doivent offrir une option pour désactiver le contenu personnalisé. Des obligations similaires s'appliquent aux annonces: en plus de renforcer la transparence et le contrôle sur les raisons pour lesquelles nous voyons une certaine publicité sur notre flux, les plateformes doivent étiqueter les publicités et les VLOP doivent conserver un référentiel contenant des détails sur les campagnes publicitaires payantes menées sur leurs interfaces en ligne. 

TikTok, Facebook et Instagram offrent actuellement la possibilité de désactiver le flux personnalisé sur leurs plateformes.

Les États membres et la Commission superviseront et appliqueront en étroite coopération les dispositions relatives à la transparence des systèmes de recommandation et de la publicité, y compris la mise en place de répertoires d’annonces.

Tolérance zéro sur le ciblage des publicités pour les enfants et les adolescents et sur le ciblage des publicités basées sur des données sensibles

La législation sur les services numériques interdit la publicité ciblée destinée aux mineurs sur les plateformes en ligne. Les VLOP ont pris des mesures pour se conformer à ces interdictions. Par exemple, Snapchat, Google et YouTube d’Alphabet et Instagram et Facebook de Metane permettent plus aux annonceurs de diffuser des publicités ciblées aux utilisateurs mineurs. TikTok et YouTube définissent désormais les comptes des utilisateurs de moins de 16 ans comme privés par défaut. 

La publicité ciblée sur les plateformes en ligne est également interdite lorsque le profilage utilise des catégories particulières de données à caractère personnel, telles que l’origine ethnique, les opinions politiques et l’orientation sexuelle.

Protection des enfants

Selon les nouvelles règles, les plateformes en ligne accessibles aux enfants devraient protéger la vie privée et la sécurité de ces utilisateurs, ainsi que leur bien-être mental et physique, par exemple en adoptant des paramètres spéciaux de confidentialité et de sécurité par défaut. Les plateformes en ligne peuvent mettre en place des mesures de vérification de l’âge pour contrôler qui peut accéder à leurs services, des contrôles parentaux afin que les parents et les tuteurs puissent aider à protéger leurs enfants contre le risque d’exposition à des contenus préjudiciables, et des outils permettant aux utilisateurs de signaler des abus ou d’obtenir un soutien. Quelques premiers pas sont en cours.

Par exemple, TikTok et YouTube, en plus d’interdire les publicités ciblées pour les mineurs, ont automatiquement défini les profils des mineurs sur privés, ce qui signifie que les vidéos qu’ils téléchargent ne peuvent être visionnées que par les personnes qu’ils approuvent.

Intégrité des élections

La législation sur les services numériques impose aux VLOP et aux VLOSE d’identifier, d’analyser et d’atténuer, au moyen de mesures efficaces, les risques liés aux processus électoraux et au discours civique, tout en garantissant la protection de la liberté d’expression. Les élections législatives slovaques du 30 septembre 2023 ont constitué le premier test pour ces exigences après l’entrée en application de la législation sur les services numériques pour les VLOP et les VLOSE. Grâce à la DSA, l'approche des fournisseurs de VLOP et de VLOSE en matière d'intégrité électorale a changé. Des progrès ont été accomplis en ce qui concerne des délais de réponse plus courts aux signalements par les autorités locales et les partenaires de confiance, des processus d’escalade plus clairs de désinformation et de désinformation, une augmentation des capacités de vérification des faits et une augmentation globale des ressources et des capacités. 

Nouvelles obligations en matière de traçabilité des entreprises utilisatrices sur les places de marché en ligne 

La législation sur les services numériques introduit de nouvelles obligations pour les fournisseurs de places de marché en ligne afin de lutter contre la propagation des biens illicites. En particulier, ces fournisseurs doivent désormais veiller à ce que les vendeurs fournissent des informations vérifiées sur leur identité avant de pouvoir commencer à vendre leurs produits sur ces places de marché en ligne. Ces fournisseurs doivent également garantir que les utilisateurs peuvent facilement identifier la personne responsable de la vente. En outre, si un fournisseur de place de marché en ligne a connaissance de la vente d’un produit ou d’un service illégal par un vendeur, il doit en informer les utilisateurs qui ont acheté le bien ou le produit illégal, ainsi que l’identité du vendeur et les possibilités de recours. 

La Commission, en collaboration avec les États membres, supervisera et veillera au respect des obligations en matière de lutte contre la propagation de biens illicites sur les places de marché en ligne.

 

Ce sont quelques-uns des changements que nous, en tant qu'utilisateurs, pouvons remarquer immédiatement dans nos interactions numériques quotidiennes.

Le travail de la Commission en tant qu’autorité chargée de l’application de la législation vient de commencer. Nous vérifierons si ces premières mesures sont authentiques et quel impact elles ont sur la sécurité des utilisateurs et de la société dans son ensemble. Nous utiliserons les moyens dont nous disposons pour créer une meilleure réalité numérique et un avenir meilleur. Tout comme nous le rejetterions dans le monde hors ligne, le harcèlement, l'intimidation et le contenu illégal n'ont pas leur place sur les plateformes en ligne qui sont devenues des outils intégrés de notre vie quotidienne et de celle de nos enfants. D’autres changements sont à venir et le suivi de l’application des mesures introduites par la législation sur les services numériques vient de commencer. L'objectif, cependant, n'a pas changé: un monde numérique plus sûr et plus inclusif pour tous.

Contenu associé

Vue d’ensemble

Le paquet législatif sur les services numériques

La législation sur les services numériques et la législation sur les marchés numériques visent à créer un espace numérique plus sûr où les droits fondamentaux des utilisateurs sont protégés et à créer des conditions de concurrence équitables pour les entreprises.

À lire également

Comité européen des services numériques

Le comité européen des services numériques est un groupe consultatif indépendant institué par la législation sur les services numériques, avec effet au 17 février 2024.

Outil de dénonciation DSA

L’outil de dénonciation DSA (Digital Services Act) permet aux employés et autres initiés de signaler les pratiques préjudiciables des très grandes plateformes en ligne et des moteurs de recherche (VLOP/VLOSE).