Seit August 2023 haben Plattformen bereits damit begonnen, ihre Systeme und Schnittstellen gemäß dem Gesetz über digitale Dienste zu ändern, um ein sichereres Online-Erlebnis für alle zu bieten.
Mit dem Gesetz über digitale Dienste werden die Mechanismen für die Entfernung illegaler Inhalte und für den wirksamen Schutz der Grundrechte der Nutzer im Internet, einschließlich der Meinungsfreiheit, erheblich verbessert. Außerdem wird ein stärkerer öffentlicher Aufsichtsmechanismus für Online-Plattformen geschaffen, insbesondere für die sehr großen Online-Plattformen (VLOPs), die mehr als 10 % der EU-Bevölkerung erreichen.
Einfachere Meldung illegaler Inhalte
Nach dem Gesetz über digitale Dienste müssen Plattformen Maßnahmen ergreifen, um der Verbreitung illegaler Waren, Dienstleistungen oder Online-Inhalte entgegenzuwirken, z. B. Mechanismen für Nutzer zur Kennzeichnung solcher Inhalte und für Plattformen zur Zusammenarbeit mit „vertrauenswürdigen Hinweisgebern“. Diejenigen mit den schärfsten Augen haben möglicherweise bereits einige Änderungen an der Online-Umgebung bemerkt, wie z. B. die Funktion von X, illegale Inhalte zu melden. Diese Funktion ist verfügbar, wenn Sie auf die drei kleinen Punkte in der oberen rechten Ecke jedes Beitrags klicken. X ist nicht die einzige Plattform, die benutzerfreundliche Optionen zur Kennzeichnung illegaler Inhalte implementiert hat. Apple, Pinterest, Facebook, Instagram und TikTok haben ebenfalls einfache Möglichkeiten geschaffen, illegale Inhalte auf ihren Plattformen zu melden.
Mehr Transparenz bei der Moderation von Inhalten und mehr Möglichkeiten zur Ansprache
Online-Plattformen sind ein digitaler Raum, in dem wir uns ausdrücken, unsere Arbeit präsentieren und mit Freunden oder Kunden in Kontakt stehen. Deshalb ist es besonders frustrierend, wenn unsere Inhalte entfernt werden oder die Reichweite unserer Beiträge unerklärlicherweise reduziert wird. Mit dem Gesetz über digitale Dienste müssen Anbieter von Vermittlungsdiensten, einschließlich Online-Plattformen, ihren Nutzern mitteilen, warum sie ihre Inhalte entfernt haben oder warum der Zugang zu einem Konto eingeschränkt wurde. Anbieter von Hostingdiensten, einschließlich Online-Plattformen, sind nun ausdrücklich gesetzlich verpflichtet, ihre Entscheidungen zur Moderation von Inhalten klar und konkret zu begründen. Das Gesetz über digitale Dienste ermächtigt die Nutzer auch, solche Entscheidungen über einen außergerichtlichen Streitbeilegungsmechanismus anzufechten.
Selbst Online-Plattformen, die bereits Informationen über ihre Entscheidungen zur Moderation von Inhalten angeboten haben, wie Facebook und Instagram, bieten nun eine größere Auswahl an Informationen zur Moderation von Inhalten an.
Um die Transparenz zu gewährleisten und die Kontrolle der Entscheidungen der Anbieter von Online-Plattformen über die Moderation von Inhalten gemäß dem Gesetz über digitale Dienste zu ermöglichen, hat die Kommission außerdem die Transparenzdatenbank für digitale Dienste ins Leben gerufen. Die Transparenzdatenbank des Gesetzes über digitale Dienste ist eine neuartige Datenbank, die alle von Anbietern von Online-Plattformen für ihre Entscheidung über die Moderation von Inhalten abgegebenen Begründungen der Öffentlichkeit zugänglich macht. VLOPs müssen ihre Begründungen ab Ende August veröffentlichen, während die Frist für die Veröffentlichung für alle anderen Anbieter von Online-Plattformen, die in den Anwendungsbereich des Gesetzes über digitale Dienste fallen, der 17. Februar 2024 ist.
Mehr Wissen und Auswahl über das, was wir sehen – und mehr Kontrolle über Personalisierungsmöglichkeiten
Das Gesetz über digitale Dienste verpflichtet Anbieter von Online-Plattformen, mehr Transparenz und Kontrolle darüber zu gewährleisten, was wir in unseren Feeds sehen. Auf diese Weise können wir herausfinden, auf welcher Grundlage Online-Plattformen Inhalte in unseren Feeds bewerten und entscheiden, ob wir personalisierte Empfehlungen ablehnen möchten, da VLOPs eine Option zum Deaktivieren personalisierter Inhalte anbieten müssen. Ähnliche Verpflichtungen gelten für Anzeigen: Zusätzlich zu mehr Transparenz und Kontrolle darüber, warum wir eine bestimmte Werbung in unserem Feed sehen, müssen Plattformen Anzeigen kennzeichnen und VLOPs müssen ein Repository mit Details zu bezahlten Werbekampagnen unterhalten, die auf ihren Online-Schnittstellen ausgeführt werden.
TikTok, Facebook und Instagram bieten derzeit die Möglichkeit, den personalisierten Feed auf ihren Plattformen zu deaktivieren.
Die Mitgliedstaaten und die Kommission werden die Bestimmungen über die Transparenz von Empfehlungssystemen und Werbung, einschließlich der Einführung von Ad-Repositories, in enger Zusammenarbeit überwachen und durchsetzen.
Null Toleranz bei der Ausrichtung von Anzeigen auf Kinder und Jugendliche und bei der Ausrichtung von Anzeigen auf der Grundlage sensibler Daten
Das Gesetz über digitale Dienste verbietet gezielte Werbung für Minderjährige auf Online-Plattformen. VLOPs haben Schritte unternommen, um diese Verbote einzuhalten. Beispielsweise erlauben Snapchat, Google und YouTube von Alphabetsowie Instagram und Facebook von Metaes Werbetreibenden nicht mehr, minderjährigen Nutzern gezielte Anzeigen zu schalten. TikTok und YouTube setzen jetzt auch die Konten von Nutzern unter 16 Jahren standardmäßig auf privat.
Gezielte Werbung auf Online-Plattformen ist auch verboten, wenn bei der Profilerstellung besondere Kategorien personenbezogener Daten wie ethnische Zugehörigkeit, politische Ansichten, sexuelle Orientierung verwendet werden.
Schutz für Minderjährige
Dem Gesetz über digitale Dienste zufolge sollten Online-Plattformen, die für Minderjährige zugänglich sind, die Privatsphäre und Sicherheit dieser Nutzer sowie ihr geistiges und körperliches Wohlbefinden schützen.
Einige Online-Plattformen haben diesbezüglich bereits Schritte unternommen. Beispielsweise haben TikTok und YouTube neben dem Verbot gezielter Werbung für Minderjährige die Profile von Minderjährigen automatisch auf privat gesetzt, was bedeutet, dass die von ihnen hochgeladenen Videos nur von den Personen angesehen werden können, die sie genehmigen.
Die Kommission hat Snapchat, YouTube, Google Play Store und Apple App Store um Informationen zu ihren Altersüberprüfungssystemen sowie darüber gebeten, wie sie Minderjährige daran hindern, auf illegale Produkte, einschließlich Drogen oder Vapes, oder schädliches Material wie Inhalte, die Essstörungen fördern, zuzugreifen.
Im Juli 2025 nahm die Kommission die Leitlinien für den Schutz von Kindern und ein Konzept für eine Altersüberprüfungslösung an.
In den Leitlinien werden Themen wie Suchtverhalten behandelt, indem Funktionen wie „Streifen“ und „Lesen von Quittungen“ deaktiviert werden, um eine übermäßige Nutzung einzudämmen, und Cybermobbing bekämpft wird, indem Minderjährige in die Lage versetzt werden, Nutzer zu blockieren und unerwünschte Downloads von Inhalten zu verhindern. Sie zielen auch darauf ab, die auswirkungen schädlicher inhalte zu mildern, indem sie minderjährigen mehr kontrolle über empfehlungen geben und standardmäßig private konten fördern, um unerwünschte kontakte von fremden zu verhindern.
Die Leitlinien empfehlen auch die Verwendung wirksamer Online-Alterssicherungsmethoden, sofern sie genau, zuverlässig, robust, nicht aufdringlich und nicht diskriminierend sind. Insbesondere empfehlen sie, Maßnahmen zur Altersüberprüfung für nicht jugendfreie Inhalte wie Pornografie oder Glücksspiele einzuführen oder wenn nationale Gesetze ein Mindestalter für soziale Medien festlegen.
Die Blaupause für eine Altersüberprüfungslösung bietet eine Methode zur Wahrung der Privatsphäre für Benutzer, um ihr Alter zu bestätigen, ohne zusätzliche persönliche Informationen preiszugeben. Dieser neue Standard für die Online-Alterssicherung befindet sich derzeit in einer Pilotphase. Die Software wird in Zusammenarbeit mit den Mitgliedstaaten, Online-Plattformen und Endnutzern getestet und verfeinert. Im Oktober wurde eine zweite Blaupause veröffentlicht, in der die Verwendung von Pässen und Personalausweisen für das Onboarding sowie die Unterstützung der API für digitale Anmeldeinformationen hinzugefügt wurden.
Integrität der Wahlen
Das Gesetz über digitale Dienste verpflichtet die VLOPs und VLOSEs, Risiken im Zusammenhang mit den Wahlprozessen und dem bürgerlichen Diskurs zu ermitteln, zu analysieren und mit wirksamen Maßnahmen zu mindern und gleichzeitig den Schutz der Meinungsfreiheit zu gewährleisten. Die slowakischen Parlamentswahlen vom 30. September 2023 bildeten den ersten Testfall für diese Anforderungen nach dem Inkrafttreten des Gesetzes über digitale Dienste für VLOPs und VLOSEs. Dank des Gesetzes über digitale Dienste hat sich der Ansatz der Anbieter von VLOPs und VLOSEs in Bezug auf die Integrität von Wahlen geändert. Fortschritte wurden in Bezug auf kürzere Reaktionszeiten bei der Meldung durch die lokalen Behörden und vertrauenswürdige Partner, klarere Eskalationsprozesse von Desinformation und Fehlinformationen, eine Erhöhung der Faktenprüfungskapazitäten und eine allgemeine Erhöhung der Ressourcen und Kapazitäten erzielt.
Verpflichtungen zur Rückverfolgbarkeit gewerblicher Nutzer auf Online-Marktplätzen
Mit dem Gesetz über digitale Dienste werden Anbieter von Online-Marktplätzen verpflichtet, der Verbreitung illegaler Waren entgegenzuwirken. Insbesondere müssen diese Anbieter nun sicherstellen, dass Verkäufer überprüfte Informationen über ihre Identität bereitstellen, bevor sie mit dem Verkauf ihrer Waren auf diesen Online-Marktplätzen beginnen können. Diese Anbieter müssen auch gewährleisten, dass die Nutzer die für den Verkauf verantwortliche Person leicht identifizieren können. Wenn ein Anbieter eines Online-Marktplatzes Kenntnis vom Verkauf eines illegalen Produkts oder einer illegalen Dienstleistung durch einen Verkäufer erlangt, muss er darüber hinaus die Nutzer, die die illegale Ware oder das illegale Produkt gekauft haben, sowie die Identität des Verkäufers und die Möglichkeiten des Rechtsschutzes informieren.
Die Kommission wird zusammen mit den Mitgliedstaaten die Einhaltung der Verpflichtungen gegen die Verbreitung illegaler Waren auf Online-Marktplätzen überwachen und durchsetzen.
Dies sind einige der Veränderungen, die wir als Nutzer sofort in unseren täglichen digitalen Interaktionen bemerken können.
Die Arbeit der Kommission als Vollstreckerin hat gerade erst begonnen. Wir werden prüfen, ob diese ersten Schritte echt sind und welche Auswirkungen sie auf die Sicherheit der Nutzer und der Gesellschaft insgesamt haben. Wir werden die Mittel nutzen, die wir haben, um eine bessere digitale Realität und Zukunft zu schaffen. So wie wir es in der Offline-Welt ablehnen würden, haben Belästigung, Mobbing und illegale Inhalte keinen Platz auf Online-Plattformen, die zu integralen Werkzeugen unseres täglichen Lebens und des unserer Kinder geworden sind. Weitere Änderungen kommen, und die Überwachung der Anwendung der durch das Gesetz über digitale Dienste eingeführten Maßnahmen hat gerade erst begonnen. Das Ziel hat sich jedoch nicht geändert: eine sicherere, inklusivere digitale Welt für alle.
Zugehöriger Inhalt
Gesamtbild