Digital Service Act: Das bringt das Gesetz über digitale Dienste

Der Digital Service Act will einen sicheren digitalen Raum schaffen. Ziel ist, die Rechte der Nutzerinnen und Nutzer zu schützen und rechtliche Sicherheit für Unternehmen zu gewährleisten. Wen das genau betrifft und welche Neuerungen das mit sich bringt, haben wir im Artikel zusammengefasst.

Welche Ziele hat der Digital Service Act?

Die Vorgaben des Digital Service Act gelten seit 17. Februar 2024 und sollen einen Spagat ermöglichen: Auf der einen Seite steht die rechtliche Sicherheit für Unternehmen – zum Beispiel soll das Entfernen illegaler Inhalte erleichtert werden. Gleichzeitig will das Gesetz wichtige Nutzerrechte wie die Redefreiheit besser schützen. Das soll gelingen durch:

Auch dark patterns will das Gesetz künftig unterbinden. Das sind Designelemente oder Prozesse, die Unternehmen nutzen, um Käuferinnen oder Käufer zu manipulieren – zum Beispiel indem Anbieterinnen oder Anbieter wiederholt und aggressiv zu einer bestimmten Handlung auffordern. So treffen sie Kaufentscheidungen, die sie aus freiem Willen nicht gefällt hätten.


 

Wen betrifft das Gesetz?

Vom Gesetz betroffen sind alle digitalen Dienste, die Waren, Dienstleistungen oder Inhalte an Endverbraucherinnen und Endverbraucher in der EU vermitteln. Der Geschäftssitz spielt dabei keine Rolle, es gilt das Marktortprinzip. Dazu gehören unter anderem:

Besonders streng sind die Vorgaben für Plattformen, die in der EU mindestens 45 Millionen Nutzende im Monat erreichen. Sie müssen unter anderem Pflichten im Bereich Risikoanalyse und -minimierung erfüllen – denn bei ihnen sind die Gefahren illegaler Inhalte und Schäden für Nutzende besonders hoch.

Welche Pflichten kommen auf Unternehmen zu?

Erhält ein Unternehmen Kenntnis über rechtswidrige Inhalte, muss es unverzüglich Maßnahmen ergreifen. Hier weitere Pflichten im Überblick:

Die Strenge der Regeln variiert abhängig vom Angebot und dessen Größe.

Pflichten für alle Unternehmen

Diese Vorgaben gelten für alle betroffenen Unternehmen unabhängig von Angebot und Größe.

Verantwortliche müssen ein Melde- und Abhilfeverfahren für illegale Inhalte einrichten.

Unternehmen sind verpflichtet, rechtswidrige Inhalte schnell und effizient zu entfernen. Weisen Gerichte und Behörden auf derartigen Content hin, müssen sie reagieren und Maßnahmen ergreifen. (Artikel 9 und 10). Hosting-Dienste müssen für die Meldung dieser Inhalte Melde- und Abhilfeverfahren etablieren. Erreicht sie eine Meldung, gehen sie ihr umgehend nach und ziehen falls erforderlich die notwendigen Konsequenzen (Artikel 16).

Die Frage, wann es sich um einen rechtswidrigen Inhalt handelt, müssen die Mitgliedsstaaten individuell beantworten.

Unternehmen sind nicht verpflichtet, Inhalte proaktiv auf ihre Rechtmäßigkeit zu prüfen. Diese Haftungsprivilegien bleiben auch erhalten, wenn sie aus eigenem Antrieb Untersuchungen durchführen, um die Einhaltung der rechtlichen Vorschriften zu gewährleisten. Ausnahmen gibt es für Host-Provider.

Manche Unternehmen richten ihr Angebot an Nutzende in der EU, haben aber selbst keine Niederlassung dort. Sie müssen im betreffenden Staat eine gesetzliche Vertretung benennen. Diese Vertretung ist Ansprechperson für User und Behörden. Zusätzlich ist sie haftbar, wenn die neuen rechtlichen Vorgaben nicht eingehalten werden.

Das Konzept der gesetzlichen Vertretung ist nicht neu – es kommt auch in der Datenschutzgrundverordnung zum Einsatz. Die wichtigsten Urteile und Risiken hierzu finden Sie in unserem DSGVO-Faktencheck.

Für Nutzerinnen, Nutzer, EU-Kommission und nationale Behörden ist eine Kontaktstelle zu benennen. Die Kontaktdaten müssen möglichst leicht zugänglich sein.

Es bestehen jährliche Berichtspflichten zu behördliche Anordnungen, Nutzerbeschwerden und der Moderation von Inhalten. Dazu gehören auch die hierfür eingesetzten Mittel samt Fehlerquoten und getroffenen Schutzvorkehrungen.

Wer Hosting-Dienste anbietet, muss außerdem dokumentieren, wie viele Meldungen von Usern im Rahmen der verfügbaren Meldemechanismen getätigt wurden. Auch über die ergriffenen Maßnahmen müssen die Unternehmen berichten.

Anbieterinnen und Anbieter von Online-Plattformen müssen bei folgenden Punkten Berichtspflichten erfüllen:

Nutzerinnen und Nutzer müssen über die Mechanismen zur Moderation von Inhalten und Algorithmen in den AGB informiert werden. Das umfasst sowohl Leitlinien und Verfahren als auch Regeln des Beschwerdemanagements. Bei der Nutzung und Durchsetzung müssen Unternehmen die europäischen Grundrechte beachten.

Zusätzliche Pflichten für Unternehmen mit mehr als 50 Mitarbeitenden und mindestens 10 Millionen Euro Umsatz pro Jahr

Wer kontrolliert die Einhaltung?

Laut Digital Service Act ist das Einhalten der Regelungen auf nationaler Ebene von den einzelnen Mitgliedsstaaten zu kontrollieren. In Deutschland übernimmt das die Bundesnetzagentur. Dort können Betroffene Beschwerde einreichen. Die besonders reglementierten, großen Unternehmen überwacht die EU-Kommission. Dafür fällt eine Aufsichtsgebühr von 0,05 Prozent des weltweiten Jahresumsatzes an.

Bei Verstößen wird ein Bußgeld fällig. Das richtet sich nach der Höhe des Jahresumsatzes und liegt zwischen 1 bis 6 Prozent.

Wie gelingt rechtliche Sicherheit im digitalen Raum?

Die nationale Rechtsprechung wird die neuen Vorgaben im Laufe der Zeit mit Praxis befüllen. Außerdem müssen Zuständigkeiten passend verteilt werden und Unternehmen werden gezwungen sein, sich technischen Herausforderungen stellen, um den neuen Regelungen gerecht zu werden.

Wichtig ist eine strukturierte Herangehensweise, damit die Änderungen langfristig gelingen. So tragen alle Beteiligten zu einer erfolgreichen Umsetzung des Digital Service Act bei und gewährleisten gleichermaßen Rechtssicherheit und Freiheit im digitalen Raum.