Si vous avez une question non couverte ici, vous pouvez nous contacter et nous essaierons de vous répondre le plus rapidement possible.
Législation sur les services numériques
La législation sur les services numériques (DSA) est un nouvel ensemble de règles à l’échelle de l’UE pour les services numériques agissant en tant qu’intermédiaires pour les consommateurs et les biens, les services et les contenus. Dans le contexte du règlement sur les services numériques, les services numériques désignent des services intermédiaires tels que les fournisseurs d’hébergement, les places de marché en ligne et les réseaux de médias sociaux.
La législation sur les services numériques vise à créer un monde en ligne plus sûr et plus équitable. Elle introduira des règles qui protègent également tous les utilisateurs dans l’UE, tant en ce qui concerne les biens, contenus ou services illicites que leurs droits fondamentaux.
Par exemple, il garantit:
- un moyen facile de signaler les contenus, biens ou services illicites;
- des protections renforcées pour les personnes ciblées par le harcèlement et l’intimidation en ligne;
- la transparence en matière de publicité;
- l’interdiction de certains types de publicité ciblée, tels que l’utilisation de données sensibles ou de données de mineurs;
- des mécanismes de plainte faciles à utiliser et gratuits si une plateforme en ligne supprime notre contenu;
- des conditions simplifiées.
Découvrez d’autres moyens par lesquels la législation sur les services numériques vous protège.
La législation sur les services numériques (DSA) est publiée sur le site web EUR-Lex. Vous pouvez le lire dans n'importe quelle langue officielle de l'UE.
Visitez la page EUR-Lex du règlement sur les services numériques.
La législation sur les services numériques ne remplace pas la directive sur le commerce électronique.
Toutefois, afin de parvenir à une plus grande harmonisation, le règlement sur les services numériques intègre les règles existantes d’exemption de responsabilité de la directive sur le commerce électronique, qui garantissent que les services intermédiaires peuvent continuer à prospérer dans le marché unique.
La législation sur les services numériques vise à compléter les règles du RGPD afin de garantir le plus haut niveau de protection des données.
Par exemple, en ce qui concerne le traitement des données à caractère personnel à des fins publicitaires, les fournisseurs de services de plateforme relèvent simultanément du champ d’application du règlement sur les services numériques et du RGPD.
Outre les conditions du RGPD pour tout traitement de données à caractère personnel, le règlement sur les services numériques interdit aux fournisseurs de plateformes en ligne de cibler les publicités utilisant le profilage des utilisateurs qui s’appuie sur les catégories particulières de données spécifiées à l’article 9, paragraphe 1, du RGPD, telles que l’orientation sexuelle, l’appartenance ethnique ou les convictions religieuses.
En outre, toute utilisation du profilage pour présenter des publicités ciblées est interdite, lorsque les fournisseurs sont conscients avec une certitude raisonnable que l'utilisateur est mineur.
En raison d’efforts réglementaires non coordonnés au niveau national, les questions réglementaires couvertes par la législation sur les services numériques sont soumises à de multiples règles divergentes dans différents États membres, ce qui crée de la confusion chez les entreprises comme chez les citoyens. La législation sur les services numériques vise à rationaliser ces législations en définissant un ensemble unique de règles à l’échelle de l’UE et en établissant des réseaux de coordination et de contrôle de l’application dans tous les États membres.
La législation sur les services numériques couvre les intermédiaires et les plateformes en ligne (par exemple, les places de marché en ligne, les réseaux sociaux, les plateformes de partage de contenu, les boutiques d’applications et les plateformes de voyage et d’hébergement en ligne) dans le but d’établir une nouvelle norme pour la responsabilité des plateformes en ligne en ce qui concerne la désinformation, les contenus illicites et d’autres risques sociétaux. Il comprend des principes généraux et des garanties solides pour la liberté d’expression et d’autres droits fondamentaux.
La législation sur les marchés numériques comprend des règles qui régissent les plateformes en ligne des contrôleurs d’accès. Elle vise à garantir que ces plateformes se comportent de manière équitable en ligne. Ces règles contribueront à établir des conditions de concurrence équitables pour favoriser l’innovation, la croissance et la compétitivité, tant au sein du marché unique européen qu’à l’échelle mondiale.
La législation sur les services numériques s’applique à tous les intermédiaires et plateformes en ligne dans l’UE, par exemple les places de marché en ligne, les réseaux sociaux, les plateformes de partage de contenu, les boutiques d’applications et les plateformes de voyage et d’hébergement en ligne.
Les petites et microentreprises sont exemptées de certaines règles qui pourraient leur être plus contraignantes. La Commission suivra attentivement les effets du nouveau règlement sur les PME.
Les très grandes plateformes en ligne et les très grands moteurs de recherche (VLOP et VLOSE) ont des obligations supplémentaires.
Les très grandes plateformes en ligne et les très grands moteurs de recherche sont ceux dont les utilisateurs moyens atteignent ou dépassent 10 % de la population de l’UE. Cela équivaut à avoir 45 millions d'utilisateurs ou plus.
Consultez la liste complète des plateformes que la Commission européenne a désignées comme étant une très grande plateforme en ligne ou un très grand moteur de recherche.
Les très grandes plateformes en ligne (VLOP) et les moteurs de recherche (VLOSE) doivent satisfaire à un certain nombre d’obligations, telles que:
- la réalisation d'évaluations des risques;
- l'introduction de mesures d'atténuation des risques;
- fournir des versions multilingues et faciles à lire de leurs conditions générales;
- mettre en place un mécanisme de réaction aux crises;
- la création d’un répertoire public des publicités utilisées sur leurs services.
En outre, ils sont tenus de mettre en œuvre ces obligations quatre mois après leur désignation. Cela signifie que pour les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne désignés en avril 2023, ces obligations s’appliquent déjà.
La législation sur les services numériques a été proposée en décembre 2020. Un accord politique a été conclu en avril 2022 et est entré en vigueur en novembre 2022.
Au 17 février 2023, les plateformes et les moteurs de recherche étaient tenus de publier leurs numéros d’utilisateur.
Les plateformes désignées comme TGPL ou TGPL disposent d’un délai de quatre mois à compter de la désignation pour se conformer aux règles du règlement sur les services numériques, ce qui comprend la publication d’une évaluation des risques.
Toutes les entités réglementées devront se conformer à la législation sur les services numériques au plus tard le 17 février 2024. C’est également la date limite pour que les États membres mettent en place des coordinateurs pour les services numériques.
Utilisateurs
La législation sur les services numériques introduit un certain nombre de règles visant à protéger nos droits fondamentaux en ligne. Ces droits comprennent la liberté de pensée, la liberté d'expression, la liberté d'information et la liberté d'opinion sans manipulation.
Le règlement sur les services numériques garantit:
- la transparence des décisions et des injonctions de suppression de contenu;
- des rapports accessibles au public sur la manière dont la modération automatisée des contenus est utilisée et son taux d’erreur;
- harmonisation des réponses aux contenus illicites en ligne.
- moins de motifs sombres en ligne;
- une interdiction de la publicité ciblée utilisant des données sensibles ou des données de mineurs;
- une plus grande transparence des utilisateurs en ce qui concerne leur flux d’informations, telles que des informations sur les paramètres des systèmes de recommandation et des modalités et conditions accessibles.
En savoir plus sur ce que fait l'UE pour protéger nos droits en ligne
Les modèles sombres sont un moyen de concevoir des plateformes en ligne pour inciter les utilisateurs à faire des choses qu'ils n'auraient pas envisagées autrement, souvent mais pas toujours impliquant de l'argent.
Par exemple, les plateformes peuvent inciter les utilisateurs à partager plus d'informations qu'ils n'en accepteraient autrement. Ou, ils peuvent annoncer un produit moins cher mais indisponible, puis diriger l'utilisateur vers des produits similaires qui coûtent plus cher. D'autres exemples incluent le fait de tromper les utilisateurs pour qu'ils s'abonnent à des services, de cacher ou de créer des boutons trompeurs, ce qui rend difficile la désinscription aux newsletters et plus encore.
La législation sur les services numériques contient une obligation qui équivaut à une interdiction d’utiliser des modèles dits sombres sur les plateformes en ligne. En vertu de cette obligation, les plateformes en ligne devront concevoir leurs services d’une manière qui n’induise pas en erreur, ne manipule pas, ne fausse pas de manière substantielle ou n’entrave pas la capacité des utilisateurs à prendre des décisions libres et éclairées.
La législation sur les services numériques introduit un certain nombre d’obligations pour lutter contre la propagation de la désinformation.
Premièrement, elle impose aux très grandes plateformes en ligne et aux très grands moteurs de recherche en ligne d’effectuer des évaluations des risques sur divers éléments de leurs services. Les évaluations des risques devraient inclure les risques découlant de leur conception, de leur fonctionnement ou de leur utilisation, tels que les campagnes coordonnées de désinformation. L’évaluation devrait examiner la manière dont les services de la TGPL ou du TGPL sont utilisés pour diffuser ou amplifier des contenus trompeurs. Sur la base des évaluations des risques, les plateformes en ligne sont tenues de mettre en œuvre des mesures d’atténuation des risques.
Deuxièmement, les TGPL et les TGPL doivent disposer d’un mécanisme de réaction aux crises. Cela devrait inclure des mesures à prendre lorsque leur plateforme est utilisée pour la propagation rapide de la désinformation.
Troisièmement, la législation sur les services numériques encourage les plateformes à adhérer aucode de bonnes pratiques volontairesur la désinformation.
Enfin, le règlement sur les services numériques reconnaît le rôle que la publicité ciblée peut jouer dans la diffusion de la désinformation. Outre les règles limitant la publicité ciblée, le règlement sur les services numériques exige que les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne tiennent un registre public des publicités. Ces répertoires aideront les chercheurs à étudier les risques émergents, tels que les campagnes de désinformation qui ont une incidence négative sur la santé publique, la sécurité, le discours civil, la participation politique ou l’égalité.
En savoir plus sur les mesures prises par la Commission pour lutter contre la désinformation
La législation sur les services numériques exige que les plateformes disposent de mécanismes de signalement faciles à utiliser pour les contenus illicites. Les plateformes devraient traiter les signalements de contenus illicites en temps utile, en fournissant des informations à la fois à l’utilisateur qui signale le contenu illicite et à l’utilisateur qui a publié le contenu sur sa décision et sur toute autre mesure.
Non. Les nouvelles règles établissent un cadre à l’échelle de l’UE pour détecter, signaler et supprimer les contenus illicites, ainsi que de nouvelles obligations en matière d’évaluation des risques pour les très grandes plateformes en ligne et les moteurs de recherche afin de déterminer comment les contenus illicites se propagent sur leur service.
Ce qui constitue un contenu illicite est défini dans d’autres législations au niveau de l’UE ou au niveau national – par exemple, les contenus à caractère terroriste, le matériel pédopornographique ou les discours de haine illégaux sont définis au niveau de l’UE. Lorsqu'un contenu n'est illicite que dans un État membre donné, il ne devrait, en règle générale, être retiré que sur le territoire où il est illicite.
Le DSA oblige les plates-formes à avoir un point de contact pour les utilisateurs, tels que les adresses e-mail, les messages instantanés ou les chatbots. Les plateformes en ligne devront également veiller à ce que les contacts soient rapides et directs et ne puissent pas s’appuyer uniquement sur des outils automatisés, ce qui permettra aux utilisateurs d’accéder plus facilement aux plateformes s’ils souhaitent déposer une plainte. Deuxièmement, les plateformes en ligne doivent veiller à ce que les plaintes soient traitées par du personnel qualifié et à ce que la question soit traitée en temps utile et de manière non discriminatoire. Les plateformes en ligne doivent également fournir des raisons claires et spécifiques pour leurs décisions de modération. Troisièmement, si un utilisateur choisit de faire examiner une décision, celle-ci doit être traitée gratuitement via le système de réclamation interne d’une plateforme.
À l'heure actuelle, la seule façon de régler un litige entre l'utilisateur et la plate-forme est par le biais du tribunal. À compter du 17 février 2024, après l’application intégrale du règlement sur les services numériques, les utilisateurs auront droit à un règlement extrajudiciaire des litiges. Le coût devrait être abordable et supporté par la plate-forme qu'ils utilisent.
Si les plateformes en ligne décident de supprimer un contenu, elles doivent désormais fournir à tout utilisateur concerné des informations appelées «exposé des motifs», détaillant les raisons pour lesquelles ce contenu a été supprimé ou limité.
Les TGPL doivent également envoyer ces exposés des motifs sans aucune donnée à caractère personnel à une base de données collective, appelée«base de données sur la transparence du règlement sur lesservices numériques». La base de données sur la transparence de la législation sur les services numériques permet aux chercheurs de consulter un nombre sans précédent de décisions de modération de contenu et d’étudier l’évolution des risques systémiques couverts par la législation sur les services numériques.
La législation sur les services numériques (DSA) rend la publicité plus transparente, en veillant à ce qu’elle soit clairement étiquetée et à ce que des informations soient disponibles sur qui place l’annonce et pourquoi vous la voyez.
Il introduit également une interdiction totale de la publicité ciblée utilisant des données protégées telles que l'orientation sexuelle, l'ethnicité ou la religion et de la publicité ciblée destinée aux mineurs.
Alors que l’UE dispose déjà de certaines règles visant à protéger les enfants en ligne, telles que celles figurant dans la directive «Servicesde médias audiovisuels», la législation sur les services numériques introduit des obligations spécifiques pour les plateformes.
Entre autres obligations, la législation sur les services numériques exige que les services intermédiaires qui sont principalement dirigés ou utilisés par des mineurs s’efforcent de faire en sorte que leurs conditions générales soient facilement compréhensibles par les mineurs.
En outre, les plateformes en ligne utilisées par les mineurs devraient:
- concevoir leur interface avec le plus haut niveau de confidentialité, de sécurité et de sûreté pour les mineurs ou participer à des codes de conduite pour la protection des mineurs;
- examiner les meilleures pratiques et les orientations disponibles, telles que la nouvelle stratégie européenne pour un internet mieux adapté aux enfants (BIK+);
- ne pas présenter de publicités aux mineurs sur la base du profilage.
Les très grandes plateformes en ligne et les très grands moteurs de recherche (VLOP et VLOSE) doivent consentir des efforts supplémentaires pour protéger les mineurs.
Il s’agit notamment de s’assurer que leur évaluation des risques couvre les droits fondamentaux, y compris les droits de l’enfant. Ils devraient évaluer à quel point il est facile pour les enfants et les adolescents de comprendre le fonctionnement de leur service et les expositions possibles à des contenus susceptibles de nuire à leur bien-être physique ou mental ou à leur développement moral.
Mise en œuvre
La surveillance des règles sera partagée entre la Commission, qui est principalement responsable des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne, et les États membres, qui sont responsables des autres plateformes et moteurs de recherche en fonction du lieu où ils sont établis.
La Commission disposera des mêmes pouvoirs de surveillance que ceux dont elle dispose en vertu des règles actuelles en matière d’ententes et d’abus de position dominante, y compris des pouvoirs d’enquête et la possibilité d’infliger des amendes pouvant aller jusqu’à 6 % des recettes mondiales.
Les décisions de non-conformité peuvent donner lieu à des amendes, qui sont déterminées par la nature, la gravité, la récurrence et la durée de l’infraction. Le montant de l’amende doit être proportionné et ne doit en aucun cas dépasser 6 % du chiffre d’affaires annuel global d’un fournisseur.
Les États membres seront tenus de désigner des autorités compétentes – désignées sous le nom de coordinateurs pour les services numériques – au plus tard le 17 février 2024 afin de contrôler la conformité des services établis sur leur territoire et de participer au mécanisme de coopération de l’UE.
Un coordinateur pour les services numériques est une autorité chargée de l’application et de l’exécution de la législation sur les services numériques dans chaque État membre. Les États membres ont été invités à désigner leur coordinateur pour les services numériques au plus tard le 17 février 2023.
Les DSC contribueront au suivi de l’application de la législation sur les services numériques en collaboration avec la Commission. Ils auront le pouvoir de demander l’accès aux données des TGPL/TGPL, d’ordonner des inspections et d’infliger des amendes en cas d’infraction. Ils seront également chargés de certifier les «signaleurs de confiance» et les organismes de règlement extrajudiciaire des litiges.
Trouvez le coordinateur des services numériques dans votre pays
Les signaleurs de confiance disposent d’uneexpertise et d’une compétence particulières aux fins de la détection, de l’identification et de la notification des contenus illicites et sont indépendants des plateformes en ligne. Les plateformes en ligne doivent veiller à ce que les notifications soumises par des signaleurs de confiance soient prioritaires et traitées en temps utile.
En vertu de la législation sur les services numériques, un signaleur de confiance est un statut accordé par le coordinateur pour les services numériques dans l’État membre dans lequel réside le demandeur de signaleur de confiance.
Pour être retenu, le demandeur doit:
- disposer d’une expertise et d’une compétence particulières aux fins de la détection, de l’identification et de la notification des contenus illicites;
- être indépendant de tout fournisseur de plateformes en ligne;
- Effectuer leurs activités dans le but de soumettre des avis de contenu illicite avec diligence, précision et objectivité.
Le statut de «signaleur de confiance» sera attribué par le coordinateur pour les services numériques de l’État membre dans lequel le demandeur est établi, pour autant que l’entité présentant la demande remplisse toutes les conditions énoncées dans le règlement.
Les coordinateurs pour les services numériques commenceront à fonctionner au plus tard le 17 février 2024. Nous vous conseillons de suivre l’évolution de la situation dans l’État membre de votre établissement avant cette date afin de trouver des informations sur la procédure détaillée, qui sera réglementée au niveau national.
Veuillez noter que seules les entités disposant d’un établissement dans l’UE peuvent demander le statut de «signaleur de confiance» au titre du règlement sur les services numériques.
La législation sur les services numériques fixe un niveau élevé d’indépendance des régulateurs nationaux. Elle comprend des exigences explicites en matière d’indépendance lors de la désignation des coordinateurs pour les services numériques dans les États membres. Les États membres devront veiller à ce que leur coordinateur pour les services numériques dispose de ressources financières, techniques et humaines suffisantes pour mener à bien leurs tâches.
Les coordinateurs pour les services numériques devraient rester totalement indépendants dans leur prise de décision et ne pas demander d’instructions à leurs gouvernements ou à d’autres organes, en particulier les plateformes en ligne.
En vertu du règlement sur les services numériques, les très grandes plateformes en ligne ou les très grands moteurs de recherche en ligne doivent procéder à une évaluation des risques découlant de leurs services. Il s’agit notamment de la désinformation ou de la manipulation des élections, de la cyberviolence à l’égard des femmes ou des préjudices causés aux mineurs en ligne. Ils doivent ensuite prendre les mesures d'atténuation des risques correspondantes.
Il peut y avoir des moments où il existe un doute sur la capacité d’une très grande plateforme en ligne ou d’un très grand moteur de recherche à faire face aux risques pour la société et au risque de non-respect du règlement sur les services numériques. Dans de tels cas, la Commission peut faire usage de ses pouvoirs d'enquête.
Les pouvoirs d’enquête de la Commission comprennent la possibilité d’envoyer des demandes d’informations, un pouvoir de mener des entretiens ou des inspections ainsi que des pouvoirs liés à l’exécution, tels que l’imposition de mesures supplémentaires, d’amendes ou d’astreintes.
Ces pouvoirs ne peuvent être utilisés que dans des cas justifiés pour garantir le respect du règlement sur les services numériques et uniquement dans la mesure où cela est nécessaire et proportionné. Toutes les décisions de la Commission font l’objet d’un recours juridictionnel devant la Cour de justice de l’Union européenne.
En cas de crise, le coordinateur national des services numériques, ou la Commission, peut adopter des mesures provisoires. Toutefois, de telles mesures devraient être envisagées en dernier recours. La Commission considère la liberté d’expression et d’information comme des piliers essentiels de nos démocraties. Par conséquent, toute mesure ne peut aller au-delà de ce qui est nécessaire pour prévenir les préjudices graves et devrait être limitée dans le temps, cessant de s’appliquer une fois que l’ensemble des éléments de preuve a été recueilli.
En outre, l’article 8 du règlement sur les services numériques précise explicitement qu’il est interdit d’imposer des obligations générales de surveillance aux fournisseurs de plateformes en ligne.
Related content
La législation sur les services numériques et la législation sur les marchés numériques visent à créer un espace numérique plus sûr où les droits fondamentaux des utilisateurs sont protégés et à établir des conditions de concurrence équitables pour les entreprises.