Skip to main content
Bâtir l’avenir numérique de l’Europe

L’impact de la législation sur les services numériques sur les plateformes numériques

Depuis août 2023, les plateformes ont déjà commencé à modifier leurs systèmes et interfaces conformément à la législation sur les services numériques (DSA) pour offrir une expérience en ligne plus sûre pour tous.

    travail collaboratif

© aurielaki - iStock Getty

La description ci-dessous a été préparée par les services de la Commission à titre d’information uniquement. Elle n’engage ni la Commission, ni l’approbation ou le préjudice d’une quelconque appréciation ultérieure.

L’ASD améliore considérablement les mécanismes de suppression des contenus illicites et de protection effective des droits fondamentaux des utilisateurs en ligne, y compris la liberté d’expression. Il crée également un mécanisme de surveillance publique renforcé pour les plateformes en ligne, en particulier pour les très grandes plateformes en ligne (VLOP) qui touchent plus de 10 % de la population de l’UE.

Communication plus facile des contenus illicites 

La DSA exige des plateformes qu’elles mettent en place des mesures pour lutter contre la diffusion de biens, de services ou de contenus illicites en ligne, telles que des mécanismes permettant aux utilisateurs de signaler ces contenus et aux plateformes de coopérer avec des «significateurs de confiance». Ceux qui ont les yeux les plus vifs ont peut-être déjà remarqué des changements dans l’environnement en ligne, tels que la nouvelle fonctionnalité de X pour signaler des contenus illicites. Cette fonctionnalité est disponible si vous cliquez sur les trois petits points dans le coin supérieur droit de chaque article. X n’est pas la seule plateforme à avoir mis en place de nouvelles options conviviales pour signaler les contenus illicites. Apple, Pinterest, Facebook, Instagram et TikTok ont également mis en place de nouveaux moyens simples de signaler des contenus illicites sur leurs plateformes.

Une plus grande transparence dans la modération du contenu et plus d’options pour attirer

Les plateformes en ligne sont un espace numérique où nous nous exprimons, présentons notre travail et sommes en contact avec des amis ou des clients. C’est pourquoi il est particulièrement frustrant lorsque notre contenu est supprimé, ou que la portée de nos publications est inexplicablement réduite. Avec la DSA, les fournisseurs de services intermédiaires, y compris les plateformes en ligne, doivent communiquer à leurs utilisateurs les raisons pour lesquelles ils ont supprimé leur contenu ou pourquoi l’accès à un compte a été restreint. Les fournisseurs de services d’hébergement, y compris les plateformes en ligne, ont désormais l’obligation légale expresse de fournir des motifs clairs et spécifiques pour leurs décisions de modération de contenu. La DSA permet également aux utilisateurs de contester ces décisions au moyen d’un mécanisme de règlement extrajudiciaire des différends.

Même les plateformes en ligne qui offraient déjà des informations sur leurs décisions de modération de contenu, telles que Facebook et Instagram, offrent maintenant un plus grand éventail d’informations sur la modération de contenu.

En outre, afin d’assurer la transparence et de permettre le contrôle des décisions relatives à la modération du contenu des fournisseurs de plateformes en ligne, comme l’exige la DSA, la Commission a lancé la base de données sur la transparence des services numériques. La base de données sur la transparence de la DSA est une base de données unique en son genre qui rend accessible au public toutes les déclarations de motivation fournies par les fournisseurs de plateformes en ligne pour leur décision de modération de contenu. Les VLOP doivent publier leurs justifications à partir de la fin du mois d’août, tandis que la date limite de publication pour tous les autres fournisseurs de plateformes en ligne relevant du champ d’application de la DSA est le 17 février 2024.

Plus de connaissances et de choix sur ce que nous voyons — et plus de contrôle sur les options de personnalisation 

La DSA oblige les fournisseurs de plateformes en ligne à garantir une plus grande transparence et un contrôle accru sur ce que nous voyons dans nos flux. Cela devrait nous permettre de découvrir sur quelle base les plateformes en ligne classent le contenu sur nos flux et de décider si nous voulons nous désinscrire des recommandations personnalisées, car les VLOP doivent offrir une option pour désactiver le contenu personnalisé. Des obligations similaires s’appliquent aux annonces: en plus de plus de transparence et de contrôle sur la raison pour laquelle nous voyons une certaine publicité sur notre flux, les plateformes doivent étiqueter les annonces et les VLOP doivent maintenir un référentiel avec des détails sur les campagnes publicitaires payantes exécutées sur leurs interfaces en ligne. 

TikTok, Facebook et Instagram offrent actuellement une option pour désactiver le flux personnalisé sur leurs plateformes.

Les États membres et la Commission superviseront et appliqueront, en étroite coopération, les dispositions relatives à la transparence des systèmes de recommandation et de la publicité, y compris la mise en œuvre des répertoires d’annonces.

Tolérance zéro en ce qui concerne le ciblage des annonces pour les enfants et les adolescents et le ciblage des annonces basées sur des données sensibles

La DSA interdit la publicité ciblée aux mineurs sur les plateformes en ligne. Les VLOP ont pris des mesures pour se conformer à ces interdictions. Par exemple, Snapchat, Google et YouTube d’ Alphabetet Instagram et Facebook de Metane permettent plus aux annonceurs d’afficher des publicités ciblées aux utilisateurs mineurs. TikTok et YouTube mettent désormais les comptes des utilisateurs de moins de 16 ans à privés par défaut. 

La publicité ciblée sur les plateformes en ligne est également interdite lorsque le profilage utilise des catégories particulières de données à caractère personnel, telles que l’origine ethnique, les opinions politiques et l’orientation sexuelle.

Protection des enfants

Conformément aux nouvelles règles, les plateformes en ligne accessibles aux enfants devraient protéger la vie privée et la sécurité de ces utilisateurs, ainsi que leur bien-être mental et physique, par exemple en adoptant par défaut des paramètres spéciaux de confidentialité et de sécurité. Les plateformes en ligne peuvent mettre en place des mesures de vérification de l’âge pour contrôler qui peut accéder à leurs services, le contrôle parental afin que les parents et les tuteurs puissent aider à protéger leurs enfants contre le risque d’exposition à des contenus préjudiciables, et des outils permettant aux utilisateurs de signaler des abus ou d’obtenir un soutien. Quelques premières mesures sont prises.

Par exemple, TikTok et YouTube, en plus d’interdire les publicités ciblées pour les mineurs, ont automatiquement défini les profils de mineurs sur privés, ce qui signifie que les vidéos qu’ils téléchargent ne peuvent être visionnées que par les personnes qu’elles approuvent.

Intégrité des élections

La DSA exige des VLOP et des VLOSE qu’ils identifient, analysent et atténuent avec des mesures efficaces les risques liés aux processus électoraux et au discours civique, tout en assurant la protection de la liberté d’expression. Les élections législatives slovaques du 30 septembre 2023 ont constitué le premier cas de test pour ces exigences après l’entrée en application de la DSA pour les VLOP et les VLOSE. Grâce à la DSA, l’approche des fournisseurs de VLOP et de VLOSE en matière d’intégrité électorale a changé. Des progrès ont été accomplis en ce qui concerne la réduction des délais de réponse aux signalements par les autorités locales et les partenaires de confiance, une escalade plus claire des processus de désinformation et de désinformation, une augmentation des capacités de vérification des faits et une augmentation globale des ressources et des capacités. 

Nouvelles obligations en matière de traçabilité des entreprises utilisatrices sur les places de marché en ligne 

La DSA introduit de nouvelles obligations pour les fournisseurs de places de marché en ligne afin de lutter contre la propagation des marchandises illégales. En particulier, ces fournisseurs doivent désormais veiller à ce que les vendeurs fournissent des informations vérifiées sur leur identité avant de pouvoir commencer à vendre leurs produits sur ces places de marché en ligne. Ces fournisseurs doivent également garantir que les utilisateurs peuvent facilement identifier la personne responsable de la vente. En outre, si un fournisseur de marché en ligne a connaissance de la vente d’un produit ou d’un service illégal par un vendeur, il doit en informer les utilisateurs qui ont acheté le produit ou le produit illégal, ainsi que l’identité du vendeur et les possibilités de recours. 

La Commission, avec les États membres, supervisera et veillera au respect des obligations en matière de lutte contre la propagation de marchandises illicites sur les places de marché en ligne.

 

Ce sont quelques-uns des changements que nous, en tant qu’utilisateurs, pouvons remarquer immédiatement dans nos interactions numériques quotidiennes.

Le travail de la Commission en tant que responsable de l’application de la loi vient de commencer. Nous vérifierons si ces premières étapes sont authentiques et quel impact elles ont sur la sécurité des utilisateurs et de la société dans son ensemble. Nous utiliserons les moyens dont nous disposons pour créer une meilleure réalité numérique et un avenir meilleur. Tout comme nous le rejetons dans le monde hors ligne, le harcèlement, l’intimidation et les contenus illicites n’ont pas leur place sur les plateformes en ligne qui sont devenues des outils intégrés de notre vie quotidienne et de celles de nos enfants. D’autres changements sont à venir, et le suivi de l’application des mesures introduites par la DSA vient de commencer. Cependant, l’objectif n’a pas changé: un monde numérique plus sûr et plus inclusif pour tous.

Contenu associé

Vue d’ensemble

Le paquet législatif sur les services numériques

La législation sur les services numériques et la législation sur les marchés numériques visent à créer un espace numérique plus sûr où les droits fondamentaux des utilisateurs sont protégés et à créer des conditions de concurrence équitables pour les entreprises.

À lire également

Coordinateurs des services numériques

Les coordinateurs pour les services numériques aident la Commission à surveiller et à faire respecter les obligations prévues par la législation sur les services numériques.