Si vous avez une question non couverte ici, vous pouvez nous contacter et nous essaierons de vous contacter le plus rapidement possible.
Loi sur les services numériques
La législation sur les services numériques (DSA) est un nouvel ensemble de règles à l’échelle de l’UE pour les services numériques agissant en tant qu’intermédiaires pour les consommateurs et les biens, services et contenus. Dans le contexte de la DSA, les services numériques désignent les services intermédiaires tels que les fournisseurs d’hébergement, les places de marché en ligne et les réseaux de médias sociaux.
La DSA vise à construire un monde en ligne plus sûr et plus juste. Elle introduira des règles qui protègent également tous les utilisateurs de l’UE, tant en ce qui concerne les biens, contenus ou services illicites, que leurs droits fondamentaux.
Par exemple, il garantit:
- un moyen facile de signaler des contenus, des biens ou des services illicites;
- des protections renforcées pour les personnes visées par le harcèlement et l’intimidation en ligne;
- transparence autour de la publicité;
- interdiction de certains types de publicité ciblée, tels que ceux utilisant des données sensibles ou les données de mineurs;
- des mécanismes de plainte faciles à utiliser et gratuits pour si une plate-forme en ligne supprime notre contenu;
- conditions simplifiées.
La législation sur les services numériques (DSA) est publiée sur le site web EUR-Lex. Vous pouvez le lire dans n’importe quelle langue officielle de l’UE.
La législation sur les services numériques ne remplace pas la directive sur le commerce électronique.
Toutefois, afin de parvenir à une plus grande harmonisation, l’ASA intègre les règles existantes d’exemption de responsabilité de la directive sur le commerce électronique, qui garantissent que les services intermédiaires puissent continuer à prospérer sur le marché unique.
La loi sur les services numériques (DSA) vise à compléter les règles du RGPD afin d’assurer le plus haut niveau de protection des données.
Par exemple, en ce qui concerne le traitement de données à caractère personnel à des fins publicitaires, les fournisseurs de services de plateforme entrent simultanément dans le champ d’application de la DSA et du RGPD.
Outre les conditions du RGPD pour tout traitement de données à caractère personnel, la DSA interdit aux fournisseurs de plateformes en ligne de cibler des publicités utilisant le profilage des utilisateurs qui s’appuie sur les catégories particulières de données spécifiées à l’article 9, paragraphe 1, du RGPD, telles que l’orientation sexuelle, l’origine ethnique ou les croyances religieuses.
En outre, toute utilisation du profilage pour présenter des publicités ciblées est interdite, lorsque les fournisseurs sont conscients avec une certitude raisonnable que l’utilisateur est mineur.
En raison d’efforts réglementaires non coordonnés au niveau national, les questions réglementaires couvertes par la législation sur les services numériques sont soumises à de multiples règles divergentes dans différents États membres, ce qui crée une confusion entre les entreprises et les citoyens. L’ASD vise à rationaliser la législation, en définissant un ensemble unique de règles à l’échelle de l’UE et en mettant en place des réseaux de coordination et d’application dans tous les États membres.
La législation sur les services numériques couvre les intermédiaires et plateformes en ligne (par exemple, les places de marché en ligne, les réseaux sociaux, les plateformes de partage de contenu, les magasins d’applications et les plateformes de voyage et d’hébergement en ligne) dans le but d’établir une nouvelle norme en matière de responsabilité des plateformes en ligne en ce qui concerne la désinformation, les contenus illicites et d’autres risques sociétaux. Il comprend des principes généraux et des garanties solides pour la liberté d’expression et d’autres droits fondamentaux.
La législation sur les marchés numériques (DMA) comprend des règles qui régissent les plateformes en ligne des contrôleurs d’accès. Il vise à garantir que ces plateformes se comportent de manière équitable en ligne. Ces règles contribueront à créer des conditions de concurrence équitables pour favoriser l’innovation, la croissance et la compétitivité, tant au sein du marché unique européen qu’à l’échelle mondiale.
La législation sur les services numériques s’applique à tous les intermédiaires et plateformes en ligne dans l’UE, par exemple les places de marché en ligne, les réseaux sociaux, les plateformes de partage de contenu, les magasins d’applications et les plateformes de voyage et d’hébergement en ligne.
Les petites et microentreprises sont exemptées de certaines règles qui pourraient être plus lourdes pour elles. La Commission surveillera attentivement les effets du nouveau règlement sur les PME.
Les très grandes plateformes en ligne et les moteurs de recherche (VLOP et VLOSE) ont des obligations supplémentaires.
Les très grandes plateformes en ligne et les moteurs de recherche sont ceux dont les utilisateurs moyens atteignent ou dépassent 10 % de la population de l’UE. Cela équivaut à avoir 45 millions d’utilisateurs ou plus.
Voir ci-dessous la liste des VLOP et des VLOSE désignés par la Commission jusqu’à présent.
VLOP:
- Alibaba AliExpress
- Amazon Store
- Apple AppStore
- Booking.com
- Google Maps
- Google Play
- Google Shopping
- Pornhub
- Snapchat
- Stripchat
- TikTok
- Wikipédia
- X (anciennement connu sous le nom de Twitter)
- XVideos
- YouTube
- Zalando
VLOSE:
- Bing
- Recherche Google
Les très grandes plateformes en ligne (VLOP) et les moteurs de recherche (VLOSE) doivent satisfaire à un certain nombre d’obligations telles que:
- la réalisation d’évaluations des risques;
- l’introduction de mesures d’atténuation des risques;
- fournir des versions faciles à lire et multilingues de leurs termes et conditions;
- la mise en place d’un mécanisme de réponse aux crises;
- création d’un dépôt public pour les publicités utilisées sur leurs services.
En outre, ils sont tenus de mettre en œuvre ces obligations quatre mois après leur désignation. Cela signifie que pour les VLOP et les VLOSE désignés en avril 2023, ces obligations s’appliquent déjà.
Lisez la loi sur les services numériques pour en savoir plus sur les obligations
La législation sur les services numériques a été proposée en décembre 2020. Un accord politique a été conclu en avril 2022 et est entré en vigueur en novembre 2022.
Au 17 février 2023, les plateformes et les moteurs de recherche étaient tenus de publier leurs numéros d’utilisateurs. La Commission a désigné les premières très grandes plateformes en ligne et moteurs de recherche (VLOP et VLOSE) le 25 avril 2023 et le deuxième lot le 20 décembre.
Les plateformes désignées comme VLOP ou VLOSE disposent de 4 mois à compter de la désignation pour se conformer aux règles DSA, ce qui inclut la publication d’une évaluation des risques.
Toutes les entités réglementées devront se conformer à la DSA au plus tard le 17 février 2024. Il s’agit également de la date limite pour la mise en place de coordinateurs pour les services numériques par les États membres.
Utilisateurs
La loi sur les services numériques (DSA) introduit un certain nombre de règles pour protéger nos droits fondamentaux en ligne. Ces droits comprennent la liberté de pensée, la liberté d’expression, la liberté d’information et la liberté d’opinion sans manipulation.
L’ASD garantit:
- transparence des décisions et des injonctions de suppression de contenu;
- des rapports accessibles au public sur la façon dont la modération automatisée du contenu est utilisée et son taux d’erreur;
- harmonisation des réponses aux contenus illicites en ligne.
- modèles moins sombres en ligne;
- une interdiction de publicité ciblée utilisant des données sensibles ou des données de mineurs;
- une plus grande transparence des utilisateurs sur leur flux d’informations, telles que les informations sur les paramètres des systèmes de recommandation et les termes et conditions accessibles.
En savoir plus sur ce que fait l’UE pour protéger nos droits en ligne
Les modèles sombres sont un moyen de concevoir des plateformes en ligne pour inciter les utilisateurs à faire des choses qu’ils n’auraient pas envisagées autrement, souvent mais pas toujours impliquant de l’argent.
Par exemple, les plateformes peuvent inciter les utilisateurs à partager plus d’informations qu’ils n’en accepteraient autrement. Ou, ils peuvent annoncer un produit moins cher mais indisponible, puis diriger l’utilisateur vers des produits similaires qui coûtent plus cher. D’autres exemples incluent le fait de tromper les utilisateurs pour qu’ils s’abonnent à des services, de cacher ou de créer des boutons trompeurs, ce qui rend difficile la désinscription aux newsletters et plus encore.
La législation sur les services numériques (DSA) contient une obligation qui équivaut à une interdiction d’utiliser des modèles dits sombres sur les plateformes en ligne. En vertu de cette obligation, les plateformes en ligne devront concevoir leurs services d’une manière qui ne trompe pas, ne manipule pas ou ne fausse pas de manière significative la capacité des utilisateurs à prendre des décisions libres et éclairées.
La législation sur les services numériques introduit un certain nombre d’obligations pour lutter contre la propagation de la désinformation.
Premièrement, elle exige des VLOP et des VLOSE qu’ils effectuent des évaluations des risques sur divers éléments de leurs services. Les évaluations des risques devraient inclure les risques découlant de leur conception, de leur fonctionnement ou de leur utilisation, tels que des campagnes coordonnées de désinformation. L’évaluation devrait examiner comment les services de la VLOP ou vlose sont utilisés pour diffuser ou amplifier le contenu trompeur. Sur la base des évaluations des risques, les plateformes en ligne sont tenues de mettre en œuvre des mesures d’atténuation des risques.
Deuxièmement, les VLOP et les VLOSE doivent disposer d’un mécanisme de réponse aux crises. Cela devrait inclure des mesures à prendre lorsque leur plateforme est utilisée pour la propagation rapide de la désinformation.
Troisièmement, la DSA encourage les plateformes à adhérer aucode de bonnes pratiques volontaireen matière de désinformation.
Enfin, la DSA reconnaît le rôle que la publicité ciblée peut jouer dans la diffusion de la désinformation. En plus des règles limitant la publicité ciblée, la DSA exige que les VLOP et les VLOSE maintiennent un référentiel public de publicité. Ces référentiels aideront les chercheurs à étudier les risques émergents, tels que les campagnes de désinformation qui affectent négativement la santé publique, la sécurité, le discours civil, la participation politique ou l’égalité.
En savoir plus sur ce que fait la Commission pour lutter contre la désinformation
La DSA exige que les plateformes disposent de mécanismes de signalement faciles à utiliser pour les contenus illicites. Les plateformes devraient traiter les signalements de contenus illicites en temps utile, en fournissant des informations à la fois à l’utilisateur qui signale le contenu illicite et à l’utilisateur qui a publié le contenu sur sa décision et toute autre mesure à prendre.
Non. Les nouvelles règles définissent un cadre à l’échelle de l’UE pour détecter, signaler et supprimer les contenus illicites, ainsi que de nouvelles obligations en matière d’évaluation des risques pour les très grandes plateformes en ligne et les moteurs de recherche afin de déterminer comment les contenus illicites se propagent sur leur service.
Ce qui constitue un contenu illicite est défini dans d’autres lois, que ce soit au niveau de l’UE ou au niveau national — par exemple, les contenus à caractère terroriste, les contenus pédopornographiques ou les discours haineux illégaux sont définis au niveau de l’UE. Lorsqu’un contenu n’est illégal que dans un État membre donné, il ne devrait, en règle générale, être supprimé que sur le territoire où il est illégal.
La DSA oblige les plateformes à avoir un point de contact pour les utilisateurs, tels que des adresses e-mail, des messages instantanés ou des chatbots. Les plateformes en ligne devront également s’assurer que le contact est rapide et direct et ne peut pas se fier uniquement à des outils automatisés, ce qui facilitera l’accès des utilisateurs aux plateformes s’ils souhaitent déposer une plainte. Deuxièmement, les plateformes en ligne doivent veiller à ce que les plaintes soient traitées par du personnel qualifié et à ce que l’affaire soit traitée en temps utile et de manière non discriminatoire. Les plateformes en ligne doivent également fournir des raisons claires et spécifiques pour justifier leurs décisions de modération. Troisièmement, si un utilisateur choisit de faire réviser une décision, celle-ci doit être traitée gratuitement via le système de plaintes interne d’une plate-forme.
À l’heure actuelle, la seule façon de régler un litige entre l’utilisateur et la plate-forme est par le biais du tribunal. À partir du 17 février 2024, après l’application complète de la DSA, les utilisateurs auront droit à un règlement extrajudiciaire des litiges. Le coût de cela devrait être abordable et supporté par la plate-forme qu’ils utilisent.
Si les plateformes en ligne décident de supprimer un contenu, elles doivent maintenant fournir à tout utilisateur concerné des informations appelées «motivation», en précisant pourquoi ce contenu a été supprimé ou limité.
Les VLOP doivent également envoyer ces exposés des motifs sans aucune donnée à caractère personnel à une base de données collective, appelée base de données de transparence DSA. La base de données sur la transparence de la DSA permet aux chercheurs de consulter une quantité sans précédent de décisions de modération de contenu et d’étudier l’évolution des risques systémiques couverts par la DSA.
La loi sur les services numériques rend la publicité plus transparente, en veillant à ce qu’elle soit clairement étiquetée et à ce que des informations soient disponibles sur les personnes qui publient l’annonce et sur les raisons pour lesquelles vous la voyez.
Il introduit également une interdiction complète de la publicité ciblée à l’aide de données protégées telles que l’orientation sexuelle, l’ethnicité ou la religion et la publicité ciblée destinée aux mineurs.
Alors que l’UE dispose déjà de règles pour protéger les enfants en ligne, telles que celles figurant dans la directive sur les services de médias audiovisuels,la législation sur les services numériques introduit des obligations spécifiques pour les plateformes.
Entre autres obligations, la DSA exige des services intermédiaires qui sont principalement dirigés ou utilisés par les mineurs pour faire en sorte que leurs termes et conditions soient facilement compréhensibles par les mineurs.
En outre, les plateformes en ligne utilisées par les mineurs devraient:
- concevoir leur interface avec le plus haut niveau de confidentialité, de sécurité et de sûreté pour les mineurs ou participer à des codes de conduite pour la protection des mineurs;
- examiner les meilleures pratiques et les orientations disponibles, telles que la nouvelle stratégie européenne pour un meilleur internet pour les enfants (BIK+);
- ne pas présenter d’annonces aux mineurs basées sur le profilage.
Les très grandes plateformes en ligne et les moteurs de recherche (VLOP et VLOSE) doivent faire des efforts supplémentaires pour protéger les mineurs.
Il s’agit notamment de veiller à ce que leur évaluation des risques couvre les droits fondamentaux, y compris les droits de l’enfant. Ils devraient évaluer à quel point il est facile pour les enfants et les adolescents de comprendre comment fonctionne leur service et d’éventuelles expositions à des contenus susceptibles de nuire à leur bien-être physique ou mental, ou à leur développement moral.
Exécution
La surveillance des règles sera partagée entre la Commission — principalement responsable des VLOP et des VLOSE — et les États membres, responsables d’autres plateformes et moteurs de recherche selon l’endroit où ils sont établis.
La Commission disposera des mêmes pouvoirs de surveillance que les règles actuelles en matière d’ententes et d’abus de position dominante, y compris des pouvoirs d’enquête et la possibilité d’infliger des amendes pouvant aller jusqu’à 6 % des recettes mondiales.
Les États membres seront tenus de désigner les autorités compétentes — appelées coordinateurs pour les services numériques — au plus tard le 17 février 2024 afin de surveiller la conformité des services établis dans leur juridiction et de participer au mécanisme de coopération de l’UE.
Un coordinateur pour les services numériques (DSC) est une autorité chargée de l’application et de l’application de la législation sur les services numériques dans chaque État membre. Ils doivent être désignés par les États membres au plus tard le 17 février 2023.
LesDSC contribueront au suivi de l’application de l’ASD en collaboration avec la Commission. Ils auront le pouvoir de demander l’accès aux données des VLOP/VLOSE, d’ordonner des inspections et d’infliger des amendes en cas d’infraction. Ils seront également chargés de certifier les «signaleurs de confiance» et les organismes de règlement extrajudiciaire des différends.
Les signaleursde confiance disposent d’une expertise et d’une compétence particulières aux fins de la détection, de l’identification et de la notification de contenus illicites et sont indépendants des plateformes en ligne. Les plateformes en ligne doivent veiller à ce que les avis soumis par les signaleurs de confiance reçoivent la priorité et soient traités en temps opportun.
En vertu de la législation sur les services numériques, un signaleur de confiance est un statut accordé par le coordinateur pour les services numériques dans l’État membre dans lequel réside le demandeur de signal de confiance.
Pour être retenu, le demandeur doit:
- Disposent d’une expertise et d’une compétence particulières aux fins de la détection, de l’identification et de la notification des contenus illicites;
- Être indépendant de tout fournisseur de plateformes en ligne;
- Mener leurs activités dans le but de soumettre des avis de contenu illicite avec diligence, précision et objectivité.
Le statut de «signaleur de confiance» sera attribué par le coordinateur pour les services numériques de l’État membre dans lequel le demandeur est établi, à condition que l’entité requérante satisfasse à toutes les conditions énoncées dans le règlement.
Les coordinateurs pour les services numériques commenceront à fonctionner au plus tard le 17 février 2024. Nous vous conseillons de suivre l’évolution de la situation dans l’État membre de votre établissement avant cette date afin de trouver des informations sur la procédure détaillée, qui sera réglementée au niveau national.
Veuillez noter que seules les entités ayant un établissement dans l’UE peuvent demander le statut de «signaleur de confiance» en vertu de la législation sur les services numériques.
La DSA établit un niveau élevé d’indépendance des régulateurs nationaux. Il comprend des exigences explicites en matière d’indépendance lors de la désignation des coordinateurs pour les services numériques dans les États membres. Les États membres devront veiller à ce que leur coordinateur pour les services numériques dispose de ressources financières, techniques et humaines suffisantes pour s’acquitter de leurs tâches.
Les coordinateurs pour les services numériques devraient rester pleinement indépendants dans leur prise de décision et ne pas solliciter d’instructions de leurs gouvernements ou d’autres organes, en particulier les plateformes en ligne.
Dans le cadre de la DSA, les très grandes plateformes en ligne ou les très grands moteurs de recherche en ligne doivent procéder à une évaluation des risques découlant de leurs services. Cela inclut la désinformation ou la manipulation électorale, la cyberviolence à l’égard des femmes ou les préjudices causés aux mineurs en ligne. Ils doivent ensuite prendre des mesures d’atténuation des risques correspondantes.
Il peut y avoir des moments où il y a des doutes sur la capacité d’une très grande plateforme en ligne ou d’un moteur de recherche à traiter les risques pour la société et à risquer le non-respect de la DSA. Dans de tels cas, la Commission peut faire usage de ses pouvoirs d’enquête.
Les pouvoirs d’enquête de la Commission comprennent la possibilité d’envoyer des demandes d’informations, le pouvoir d’effectuer des entretiens ou des inspections ainsi que des pouvoirs liés à l’exécution, tels que l’imposition de mesures supplémentaires, d’amendes ou d’astreintes.
Ces pouvoirs ne peuvent être utilisés que dans des cas justifiés visant à garantir le respect de l’ASD et uniquement dans la mesure où cela est nécessaire et proportionné. Toutes les décisions de la Commission font l’objet d’un recours juridictionnel devant la Cour de justice de l’UE.
En cas de crise, le coordinateur national des services numériques, ou la Commission, peut adopter des mesures provisoires. Toutefois, ces mesures devraient être considérées comme un dernier recours. La Commission considère la liberté d’expression et d’information comme des piliers essentiels de nos démocraties. Par conséquent, toute mesure ne peut aller au-delà de ce qui est nécessaire pour prévenir des préjudices graves et devrait être limitée dans le temps et cesser de s’appliquer une fois que l’ensemble des éléments de preuve ont été recueillis.
En outre, l’article 8 de la DSA précise explicitement qu’il est interdit d’imposer des obligations générales de surveillance aux fournisseurs de plateformes en ligne.
Related content
La législation sur les services numériques et la législation sur les marchés numériques visent à créer un espace numérique plus sûr dans lequel les droits fondamentaux des utilisateurs sont protégés et à établir des conditions de concurrence équitables pour les entreprises.