Icon für Compliance - weißes Paragrafenzeichen auf orangenen Grund –
Compliance

Der Digital Services Act – „Gatekeeper“ stärker reguliert

Arne Wolff
Verfasst von: Arne Wolff
Berater für Datenschutz und IT-Sicherheit

Seit dem 25.08.2023 gelten die neuen Regelungen des Digital Services Acts (DSA) für die größten Internet-Plattformen und Suchmaschinen und erlegt ihnen eine Vielzahl an Vorschriften auf. Die sogenannten „Gatekeeper“ – Plattformen mit mindestens 45 Millionen Nutzerinnen und Nutzer in der EU – werden im Bestreben, Desinformation und Intransparenz in Netz zurückzudrängen, stärker in die Pflicht genommen.

Wer ist betroffen?

Die Liste liest sich wie ein Who‘s Who des Internets: Alibaba AliExpress, Amazon Store, Apple AppStore, Bing, Booking.com, Facebook, Google Play, Google Maps, Google Search, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Wikipedia, X (the company formerly known as Twitter), YouTube und Zalando werden von der EU-Kommission genannt.1 Amazon und Zalando haben allerdings bereits gegen die Einstufung als Gatekeeper geklagt.

Die Bestimmungen des DSA werden für Gatekeeper direkt von der EU-Kommission durchgesetzt, die dazu fünf Referate eingerichtet hat, die verschiedene Rechtsgebiete abdecken sollen und verdrängen für diese Anbieter das Netzwerkdurchsetzungsgesetz (NetzDG).

Welche Regeln gelten jetzt?

Die Liste der Bestimmungen, die die sehr großen Online-Plattformen (Very Large Online Platforms, VLOPs) und sehr großen Online-Suchmaschinen (Very Large Online Search Engines, VLOSEs) nun erfüllen müssen, ist lang und zielt vor allem darauf ab, der Verbreitung rechtswidriger Inhalte entgegenzuwirken, nachteilige Auswirkungen auf öffentliche Sicherheit oder Wahlprozesse zu verhindern und allgemein die Menschenwürde zu schützen:

  • Die User müssen klar darüber informiert werden, nach welchen Kriterien ihnen bestimmte Inhalte empfohlen werden, und es muss eine neutrale, nicht auf Profiling beruhende Alternative angeboten werden.
  • Die Plattformen müssen jegliche Werbung kennzeichnen, die User darüber informieren, wer diese finanziert und Archive aller bei ihnen geschalteten Werbeanzeigen anlegen.
  • Außerdem darf Werbung künftig nicht mehr auf Basis sensibler personenbezogener Daten2 und nicht mehr speziell an Kinder ausgespielt werden.
  • Es müssen Meldeplattformen für illegale Inhalte eingerichtet werden.
  • Die Betreiber müssen verdächtige Inhalte an die Behörden melden und der Verbreitung illegaler Inhalte im Internet und negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenwirken.
  • Die Inhaltsmoderation der Betreiber muss transparent erfolgen: werden Inhalte gelöscht, müssen die Verfasser über die Gründe informiert werden und erhalten ein Widerspruchsrecht.
  • Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.
  • Die Betreiber müssen Risikobewertungen für ihre Plattformen erstellen und extern unabhängig prüfen lassen.
  • Verkaufsplattformen müssen Kontaktdaten, Einträge im Handelsregister sowie weitere relevante Informationen der Anbieter offenlegen.
  • Sogenannte „Dark Patterns“ – Gestaltungsmethoden, die Nutzer bewusst manipulieren sollen – sind künftig ausdrücklich untersagt.
  • Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten veröffentlichen.

Bei Nichteinhaltung drohen empfindliche Geldstrafen – bis zu sechs Prozent des globalen Umsatzes können es werden. Die Entscheidung darüber erfolgt im Einzelfall und im Zweifel vor Gericht.

Welche Probleme drohen?

Die VLOPs könnten jetzt versucht sein, nach dem Motto „lieber zu viel als zu wenig“ Inhalte zu löschen, bloß weil sie gegen die Richtlinien verstoßen könnten – das sogenannte „Overblocking“. Bekannt ist dies bisher vor allem von Löschungen wegen angeblichen Urheberrechtsverletzungen, die allzu oft einer Überprüfung nicht standhalten konnten. Solche überschießende Moderation von Inhalten erfolgt zunehmend automatisiert, obwohl noch keine Technologie die rechtlichen Grenzen zwischen gesetzwidrigen und zulässigen Äußerungen ausreichend sicher nachzeichnen kann. Im DSA ist deshalb ist ein Widerspruchsrecht vorgesehen; zudem sollen User, die übermäßig oft fälschlich Inhalte als illegal melden, abgemahnt und letztlich vorübergehend vom Meldesystem ausgeschlossen werden können. Es muss sich erst erweisen, ob diese Maßnahmen wirksam sind.

Zusätzlich droht auf politischer Ebene Konfliktpotential für die europäische Staatengemeinschaft, denn ein Land könnte versuchen, unliebsame Inhalte – die woanders aber völlig unproblematisch sind – europaweit löschen zu lassen.

Wie geht es weiter?

Ab 17. Februar 2024 gilt das „Grundgesetz für das Digitalzeitalter“ – als solches versteht die EU-Kommission den DSA – dann auch für die kleineren Dienste, und zwar auf nationaler Ebene. In Deutschland wird die Bundesnetzagentur die zuständige Aufsichtsbehörde sein; vor allem das Netzwerkdurchsetzungsgesetz (NetzDG), das Telemediengesetz (TMG) und voraussichtlich auch das Jugendschutzgesetz (JuSchG) werden noch angepasst werden müssen.

 


1ec.europa.eu/commission/presscorner/detail/de/ip_23_2413

2 (vgl. Art. 9 DSGVO)

Melden Sie sich für unseren Newsletter an.

Erhalten Sie immer die neuesten und wichtigsten Informationen zum Thema Datenschutz, Informationssicherheit und IT-Sicherheit und Compliance.