Netzwerk Kritische Richter und Staatsanwälte: Meinungsfreiheit – ein Auslaufmodell: Der Digital Services Act (DSA)
Archivmeldung vom 20.01.2024
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 20.01.2024 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Sanjo BabićAn dieser europäischen Verordnung wird beispielhaft gezeigt, wie nationale und EU-Institutionen Hand in Hand alternative Informationsflüsse verhindern. Sie höhlen damit die verfassungsrechtlich verankerte Meinungs- und Informationsfreiheit aus und befördern dieses Bestreben durch ein europaweit gespanntes Überwachungssystem. Dies berichtet Dr. Manfred Kölsch auf der Internetseite des Netzwerk Kritische Richter und Staatsanwälte n.e.V (KRiStA).
Weiter berichtet Dr. Kölsch: "Entwicklung und Stellungnahmen zum DSA
Am 16.11.2022 ist die Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19.10.2022 über den Binnenmarkt für digitale Dienste (Digital Services Act – im Folgenden DSA genannt) in Kraft getreten.
Sie gilt spätestens ab dem 17.02.2024 unmittelbar in jedem EU-Mitgliedstaat in erster Linie für „sehr große Online-Plattformen und sehr große Online-Suchmaschinen“ (Art. 33 Abs. 4, Art. 92, 93 Abs. 2 DSA).
Diese werden unter Androhung empfindlicher finanzieller Sanktionen verpflichtet, alle ihre Inhalte zu kontrollieren und gegebenenfalls zu löschen. Und sie werden dabei kontrolliert von der EU-Kommission, von staatlichen Koordinatoren und von zivilgesellschaftlichen Hinweisgebern.
Trotz seiner unmittelbaren Geltung im deutschen Recht bedarf der DSA eines konkretisierenden nationalen Ausführungsgesetzes. Ein Entwurf dieses Digitale-Dienste-Gesetzes (DDG-Entwurf) wurde von der Bundesregierung am 20.12.2023 verabschiedet.
Beraten und beschlossen werden soll er im Bundestag vor dem 17.02.2024. Der Bundesminister für Digitales Volker Wissing dazu: „Was offline verboten ist, muss es auch online sein. Wir schaffen eine starke Plattformaufsicht, damit jeder in Deutschland im Netz sicher und frei unterwegs sein kann.“
Der DSA, der das bis dahin in Deutschland geltende Netzwerkdurchsetzungsgesetz (NetzDG) und das Telemediengesetz (TMG) ablöst, ist mit mehr als 150 Erwägungsgründen und 93 verfügenden Artikeln ein legislatives Großvorhaben. Der dazugehörige Bericht des Europäischen Parlaments umfasst fast 1.000 Seiten.
Der DSA gibt die Richtung vor, in die die europäische Digitalpolitik mit deutscher Unterstützung voranschreitet.
Der Bundesrat (BR-Drucksache 96/21) und die Bundesregierung (BT-Drucksache 20/534, S. 21) betonen geschlossen die Notwendigkeit des DSA. Ein wichtiger und zutreffender Schritt, der alsbald in Kraft treten sollte, stimmt die Literatur ein (Rössel, AfP, 2021, 93 ff.; Spindler, GRUR 2021, 653 ff.; Beck, DVBl 2021, 1000 ff.; kritisch hingegen Peukert, KritV 03/2022).
Etwas zu euphorisch erscheint es, von einem „Grundgesetz für Online-Dienste“ (Schmid/Grewe, MMR 2021/279) oder von einem „Quantensprung in der Plattformregulierung“ (Denga, EuR 2021, 569, 594) zu sprechen. Euphorie ist ebenso nur bei oberflächlicher Betrachtung angebracht, wenn die EU-Kommission angibt, mit dem DSA „strenge Regeln zur Wahrung europäischer Werte“ festschreiben zu wollen (Europäische Kommission, Digitaler Kompass 2030: COM 2021 118, S. 1).
Aber wird nicht der Rechtsprechung des Bundesverfassungsgerichts (BVerfG) Genüge getan (BVerfG, ZUM 2018, 680, Rz. 79 f.), wonach Reichweite und Monopolisierungsbestrebungen der großen Plattformen (z. B. bei der Veröffentlichung kinderpornographischer Inhalte) begleitender gesetzlicher Einschränkungen bedürfen.
Löschungen auch nicht rechtswidriger Eintragungen werden möglich
Art. 1 DSA beschreibt Ziel und Zweck wie folgt:
„Ziel dieser Verordnung ist es, durch die Festlegung harmonisierter Vorschriften für ein sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld, in dem Innovationen gefördert und die in der Charta verankerten Grundrechte, darunter der Grundsatz des Verbraucherschutzes, wirksam geschützt werden, einen Beitrag zum reibungslosen Funktionieren des Binnenmarkts für Vermittlungsdienste zu leisten.“
Der ehemalige Verfassungsrichter Di Fabio ist der Ansicht (Frankfurter Allgemeine Zeitung – FAZ v. 29.09.2023), es bestehe immer das Risiko, dass deutsche Verfassungsnormen, mit Ausnahme der Identitätsvorbehalte, von europäischen supranationalen Entwicklungen „überformt“ werden.
Trotz der in Art. 1 DSA proklamierten Zielsetzung ist angesichts der praktischen Handhabung seines deutschen Vorgängers NetzDG, das als Allzweckwaffe gegen Antisemitismus, Volksverhetzung, Rassismus und Rechtsextremismus herhalten musste, eine kritische Betrachtung angezeigt. Eine vertiefte Überprüfung wird geradezu herausgefordert, wenn das Verhalten von EU-Binnenmarktkommissar Thierry Breton mit einbezogen wird. Er hat Beschwerdebriefe an die Betreiber der Plattformen X und Facebook geschrieben. Darin erhebt er den Vorwurf, entgegen den Pflichten aus dem DSA nicht in dem erforderlichen Umfang gegen Desinformationen betreffend die Terrorangriffe auf Israel vorzugehen (FAZ 21.12.2023, Nr. 297, S. 17). Was haben diese Vorwürfe mit dem „reibungslosen Funktionieren des Binnenmarktes“ oder „dem Grundsatz des Verbraucherschutzes“ nach Art. 1 DSA zu tun? Zu fragen ist, ob die auf den Plattformen gerügten Eintragungen nur gelöscht werden können, wenn sie rechtswidrige Inhalte enthalten oder ob bereits das Verlassen des herrschenden Meinungskorridors Maßnahmen nach dem DSA begründen kann.
In Art. 1 DSA wird ausdrücklich betont, die in der Charta der Grundrechte der Europäischen Union (EU-Grundrechtecharta) verankerten Grundrechte müssten wirksam geschützt werden. Wie Art. 5 des Grundgesetzes (GG) schützt die EU-Grundrechtecharta in Art. 11 die Meinungs- und Informationsfreiheit mit folgenden Worten:
Abs. 1: Jede Person hat das Recht auf freie Meinungsäußerung. Dieses Recht schließt die Meinungsfreiheit und die Freiheit ein, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben.
Abs. 2: Die Freiheit der Medien und ihre Pluralität werden geachtet.
Zu den „Medien“ zählen das Internet und damit auch die Online-Plattformen und Suchmaschinen, denn, wie der Generalanwalt beim Europäischen Gerichtshof (EuGH) feststellt „(…) diese Plattformen tragen so zu einer „Demokratisierung“ der Informationserzeugung bei und sind, obwohl sie von privaten Betreibern verwaltet werden, de facto zu wesentlichen Infrastrukturen für die Meinungsäußerung im Internet geworden.“ (Schlussanträge Generalanwalt Saugmandsgaard Oe, Rs. C-401/19, ECLI:C:2021;613 Rz. 103).
Die EU-Kommission war sich bei der Erarbeitung des DSA bewusst, dass ein Verlangen, auch nicht rechtswidrige Einträge zu löschen, den Vorgaben von Art. 11 der EU-Grundrechtecharta und Art. 10 der Europäischen Menschenrechtskonvention widerspricht. Denn sie schreibt, dass „schädliche (aber nicht oder zumindest nicht unbedingt illegale) Inhalte im Gesetz über digitale Dienste nicht definiert werden sollten und dass sie keiner Pflicht zur Entfernung unterliegen sollten, da es sich hierbei um einen heiklen Bereich handele, der schwerwiegende Auswirkungen auf den Schutz der Meinungsfreiheit habe.“ (Gesetzgebungsverfahren 2020/361 (COD); Europäische Kommission, Vorschlag für eine Verordnung über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG, 15.12.2020, COM (2020) 825, S. 10 ).
In dem bereits zitierten Art. 1 DSA wird eine formal gültige Kulisse von Verfassungsprinzipien aufrechterhalten, heißt es darin doch, durch den DSA müssten „die in der Charta verankerten Grundrechte (…) wirksam geschützt werden (…).“
Die betäubten Bürger, durch die Informationsflut zerstreut und von brennenden Problemen abgelenkt, merken nicht, dass genau das Gegenteil passiert. Schon in Goethes Faust I (Auerbachs Keller) heißt es dazu: „Den Teufel spürt das Völkchen nie, und wenn er sie beim Kragen hätte.“
Art. 34 Abs. 1 DSA gibt den adressierten Plattformen und Suchmaschinen auf, zu „ermitteln, analysieren und bewerten sorgfältig alle systemischen Risiken in der Union (…)“, und zwar „(…) unter Berücksichtigung ihrer Schwere und Wahrscheinlichkeit.“
Je nach dem Ergebnis ihrer Analyse haben die Plattformen nach Art. 35 Abs. 1 lit. c DSA die zu beanstandende Eintragung zu löschen oder erweiterte Sanktionen gegen den Nutzer auszusprechen. Nach Art. 34 Abs. 2 DSA haben die Plattformen ihre algorithmischen und ihre Moderationssysteme, ihre allgemeinen Geschäftsbedingungen sowie die Auswahl der Werbung (gegebenenfalls auch vorbeugend) anzupassen.
Die Erwägungsgründe sind zur Auslegung des DSA heranzuziehen. Schon der DSA-Erwägungsgrund Nr. 5 lässt erkennen, dass, um ein „sicheres, vorhersehbares und vertrauenswürdiges Online-Umfeld“ (Art. 1 DSA) zu erreichen, es nicht nur um die Ermittlung von systemischen Risiken geht, verursacht durch rechtswidrige Einträge. In Erwägungsgrund Nr. 5 wird schon zwischen der „Vermittlung und Verbreitung rechtswidriger oder anderweitig schädlicher Informationen und Tätigkeiten“ unterschieden (Hervorhebung d. Verf.). Auch Art. 34 Abs. 1 DSA spricht in Abs. 1 a von der „Verbreitung rechtswidriger Inhalte über ihre Dienste“, in Abs. 1 b-d allerdings nur noch von Informationen mit „nachteiligen Auswirkungen“, die nicht rechtswidrig sein müssen. Noch eventuell vorhandene Zweifel werden durch den Erwägungsgrund Nr. 84 beiseite geräumt. Zu den nach Art. 34 DSA den Plattformen auferlegten Bewertungen und Analysen heißt es dort: „Bei der Bewertung der in dieser Verordnung ermittelten systemischen Risiken sollten sich diese Anbieter auf die Informationen konzentrieren, die zwar nicht rechtswidrig sind, aber zu den in dieser Verordnung ermittelten systemischen Risiken beitragen. Solche Anbieter sollten daher besonders darauf achten, wie ihre Dienste zur Verbreitung oder Verstärkung irreführender oder täuschender Inhalte, einschließlich Desinformationen genutzt werden“ (Hervorhebung d. Verf.).
Der Begriff „Desinformation“ ist nirgends im DSA definiert. Es sind damit sicherlich die in Erwägungsgrund Nr. 5 genannten „anderweitig schädlichen Informationen“ gemeint. Desinformationen tragen zu den in Art. 34 Abs. 1 DSA genannten „nachteiligen Auswirkungen“ bei. Desinformationen können subjektiv in Täuschungsabsicht verbreitet werden oder nach objektiven Kriterien unwahr sein. Gegen Gesetzesvorschriften müssen sie dennoch nicht verstoßen.
Die EU-Kommission macht in ihrer Mitteilung zur Bekämpfung von
Desinformation im Internet klar, was sie unter Desinformation versteht: „nachweislich
falsche oder irreführende Informationen, die mit dem Ziel des
wirtschaftlichen Gewinns oder der vorsätzlichen Täuschung der
Öffentlichkeit konzipiert, vorgelegt und verbreitet werden und
öffentlichen Schaden anrichten können. Unter öffentlichem Schaden sind
Bedrohungen für die demokratischen politischen Prozesse und die
politische Entscheidungsfindung sowie für öffentliche Güter wie den
Schutz der Gesundheit der EU-Bürgerinnen und -Bürger, der Umwelt und der
Sicherheit zu verstehen.“
(EU-Kommission COM (2018) 236, S. 4)
Es besteht kein Zweifel, dass falsche und irreführende Informationen nicht einen Gesetzesverstoß beinhalten müssen. Weder ist eine Gewinnabsicht in unserem Wirtschaftssystem an sich strafbar noch fällt eine Täuschung, auch wenn sie vorsätzlich begangen wird, notwendigerweise darunter.
Die Löschung von nicht rechtswidrigen Informationen hat den Geruch von Zensur. Die Plattformen haben – unter Androhung von massivem wirtschaftlichem Druck (vgl. nachfolgend) – Nutzerinhalte nicht nur nach rechtswidrigen, sondern auch nach bloß unerwünschten Informationen zu durchforsten. Der Bürger bleibt orientierungslos zurück, wenn er seine Mitteilungen an die Plattformen an dem ausrichten soll, was in den aktuellen politischen Meinungskorridor passt. Er wird das Risiko immanenter sozialer Nachteile nicht eingehen. Das Lebenselement freiheitlicher Grundordnung – die ständige geistige und demokratische Auseinandersetzung auch mit gegenteiligen Meinungen (BVerfGE 7, 198) – wird verkümmern. Betreutes Denken wird eingepflanzt.
Nur unter der Bildung autonomer individueller und öffentlicher Meinungsbildungsprozesse kann eine umfassende Informationsgrundlage hergestellt werden, auf der staatliches Handeln kritisch reflektiert werden kann (BVerfGE 20, 162, Rz. 36; 86, 122, Rz. 19).
Die Kommission hat im DSA (z. B. in Art. 1) bewusst eine demokratische Fassade errichtet, hinter der sie die Axt an fundamentale Grundsätze der Demokratie legt. Entgegen allen verbalen Bekenntnissen verstößt sie gegen Art. 11 der EU-Grundrechtecharta, Art. 10 der Europäischen Menschenrechtskonvention und Art. 5 GG. Der DSA stellt selbst ein systemisches Risiko für die Meinungs- und Informationsfreiheit und die so oft beschworenen sog. europäischen Werte dar.
Missachtung des rechtsstaatlichen Bestimmtheitsgebots
Den sehr großen Online-Plattformen und Suchmaschinen ist im DSA in Art. 34 Abs. 1 aufgegeben, zu prüfen, ob bei der Nutzung ihrer Dienste Desinformationen verbreitet werden, die „voraussichtlich kritische“, „voraussehbar nachteilige“ oder „absehbar nachteilige Auswirkungen“ auf die „gesellschaftliche Debatte“, auf „Wahlprozesse“, „die öffentliche Sicherheit“ oder den „Schutz der öffentlichen Gesundheit“ haben können.
Diesen Begriffen wie etwa gesellschaftliche Debatte, öffentliche Sicherheit und Gesundheit oder nachteilige Auswirkungen fehlt weitgehend die inhaltliche Begrenzung. Es stellt sich deshalb die Frage, ob die Regelung mit dem rechtsstaatlichen Bestimmtheitsgebot vereinbar ist.
Der Bestimmtheitsgrundsatz verlangt, dass eine gesetzliche Ermächtigung an die Exekutive nach Inhalt, Zweck und Ausmaß hinreichend bestimmt und begrenzt ist. Nur dadurch wird das Handeln der Ermächtigten messbar und in erträglichem Ausmaß für den Bürger voraussehbar und berechenbar (BVerfGE 56, 1, Rz. 12). Gleichzeitig kann nicht unbedacht bleiben, dass dem Gesetzgeber ein Ermessen bei der Wahl der Weite der Begriffe zusteht, da der Ermächtigte bei seinen Entscheidungen schnell unterschiedlichen Situationen ausgesetzt ist und dem Einzelfall angemessen begegnen können muss.
Art. 34 DSA operiert jedoch mit derart vage formulierten Generalklauseln, dass den betroffenen Plattformen und Suchmaschinen jederzeit ein Grund zur Löschung zur Verfügung steht, vom entsprechenden Koordinator Sanktionen angeordnet werden können oder die Hinweisgeber Gründe für eine Anzeige zur Löschung finden werden. Eine mit der grundrechtlich geschützten Meinungs- und Informationsfreiheit und generell mit dem Rechtsstaatsprinzip unvereinbare „Herrschaft des Verdachts“ wird nach deren Einführung während der Coronazeit als eine Art Gewohnheitsrecht weitergeführt. Diese Generalklauseln stellen einen indirekten Eingriff in die Meinungs- und Informationsfreiheit dar, weil der Nutzer sich stets als möglicher Störer der öffentlichen Debatte und von Wahlprozessen, als Gefährder der öffentlichen Sicherheit sowie gegen den Schutz der öffentlichen Gesundheit handelnd begreifen wird. Diese Unschärfemethode wird bei ihm die Befürchtung aufleben lassen, ins Visier der Kontrolleure zu geraten. In der methodisch herbeigeführten Atmosphäre des gegenseitigen Misstrauens, der Furcht und Vergeblichkeit werden die die Demokratie tragenden öffentlichen Debatten zu Scheindebatten im vorgegebenen Meinungskanal degenerieren.
Vorbeugende Maßnahmen zur Informationskontrolle
Die Überwachungsverpflichtungen sind präventiv angelegt. Voraussichtliche, voraussehbare Auswirkungen sollen nach der Wahrscheinlichkeit ihrer Auswirkungen auf die öffentliche Sicherheit, auf die öffentliche Gesundheit und gesellschaftliche Debatte einer Risikobewertung nach dem DSA unterzogen werden.
Zu diesen vorbeugenden Maßnahmen zur Informationskontrolle hat der Generalanwalt beim EuGH ausgeführt:
„Vorbeugende Maßnahmen zur Informationskontrolle gelten im Allgemeinen zwar als besonders gravierende Eingriffe in das Recht auf freie Meinungsäußerung, da sie ausufern können. In einer demokratischen Gesellschaft werden solche vorbeugenden Maßnahmen grundsätzlich abgelehnt, weil sie durch die Einschränkung bestimmter Informationen schon vor deren Verbreitung jede öffentliche Debatte über den Inhalt verhindern und damit die Meinungsfreiheit ihrer eigentlichen Funktion als Motor des Pluralismus berauben.“ (…) „Diese Überlegungen treffen auf das Internet in vollem Umfang zu“, denn: „Diese Plattformen tragen so zu einer Art Demokratisierung der Informationserzeugung bei und sind, obwohl sie von privaten Betreibern verwaltet werden, de facto zu wesentlichen Infrastrukturen für die Meinungsäußerung im Internet geworden.“ (Schlussanträge GA Saugmandsgaard Oe. Rs. C-401/19, ECLI:EU:C:2021:613 Rz. 102 f.)
Der Generalanwalt weist zutreffend darauf hin, dass vorbeugende Informationskontrollen deshalb in demokratischen Gesellschaften abgelehnt werden, weil auf diesem Wege die Freiheit der Meinungsäußerung nicht mehr prinzipiell unbeschränkt ist, sondern obrigkeitlich zugemessen wird.
Die präventiv angelegte Kontrolle behindert indirekt jede öffentliche Debatte über den Inhalt von Informationen schon vor deren Verbreitung. Sie kann deshalb im Rahmen der Verhältnismäßigkeitsprüfung nur zugelassen werden, wenn eminente Verdachtsmomente vorliegen für die schwere Gefährdung eines hochrangigen Rechtsguts (Peukert, KritV 03/2022, Rz. 42 m. w. N., Volkmann JZ 2004, 696 ff.). Durch die in dem DSA äußerst vage formulierten zu schützenden Rechtsgüter kann der Herrschaft des Verdachts nicht in demokratisch ausreichendem Maße begegnet werden. Wie soll eine Verhältnismäßigkeitsprüfung stattfinden, wenn das zu schützende Rechtsgut nicht „greifbar“ formuliert ist? Die zu beurteilende Gefahr für das Rechtsgut, der Schadensumfang und die Eintrittswahrscheinlichkeit bei Untätigkeit laufen ins Leere.
Nur nebenbei sei bemerkt, dass der Verordnungsgeber die erforderliche Verhältnismäßigkeitsprüfung nicht selbst durchgeführt haben kann. Er hat diese in verfassungsrechtlich bedenklicher Weise faktisch „ausgelagert“ und den Plattformen, dem Koordinator oder gar den Hinweisgebern überlassen. Diese Externen werden, je nach der politischen Ausrichtung, immer einen Grund finden, eine Erfüllung der beliebig dehnbaren Kriterien zu bejahen. Was unterscheidet das von Zensur?
Das praktische Vorgehen der EU-Kommission gegen die Plattformen X und Facebook bestätigen die vorstehenden Ausführungen. Die Kommission hat gegen sie nach Art. 66 DSA ein Verfahren eingeleitet mit der Begründung, im Zusammenhang mit dem Nahostkonflikt zwischen Israel und der Hamas werde der Kampf gegen Gewaltverbreitung und Hass durch die Hamas nicht in angemessener Weise durch entsprechende Maßnahmen (Löschungen u. a.) unterstützt.
Wieso ist deren Vorgehen nicht „angemessen“? Hat deren Verhalten „nachteilige Auswirkungen“ auf „die gesellschaftliche Debatte“? Die EU-Kommission kann auch bei Vorliegen nur politisch inopportuner Eintragungen nach dem DSA unerhörten wirtschaftlichen Druck (vgl. nachfolgend) auf die Plattformen ausüben, sog. Risikominderungsmaßnahmen nach Art. 35 DSA zu ergreifen.
Jeder der „zertifizierten“ Hinweisgeber (vgl. nachfolgend) wird zu dem durch den DSA zum systemischen Risiko gemachten „Schutz der öffentlichen Gesundheit“ Beiträge leisten können. Klimaschützer könnten daran Anstoß nehmen, wenn Nutzer die Meinung verbreiten, ein Klimawandel sei nicht menschengemacht und (oder) dieser habe keinen Einfluss auf die „öffentliche Gesundheit“. Nahrungsmittellobbyisten könnten eine Löschung beantragen, wenn Nutzer auf die Idee kämen, Fertignahrungsmittel beeinträchtigten „die öffentliche Gesundheit“, weil diese zu viel Zucker oder Zusatzstoffe enthielten. Der DSA ebnet den Weg zur Denunziation als einer großen gesamtgesellschaftlichen Aufgabe, zu der jeder seinen Beitrag leisten darf.
Die Kommunikationsüberwachungsbürokratie
„Die Kommission errichtet und pflegt ein zuverlässiges und sicheres Informationsaustauschsystem für die Kommunikation zwischen den Koordinatoren für digitale Dienste, der Kommission und dem Gremium (Art. 85 DSA).“
Ergänzend heißt es im Erwägungsgrund Nr. 148:
„Die wirksame Durchsetzung und Überwachung dieser Verordnung erfordert einen nahtlosen Informationsaustausch in Echtzeit zwischen den Koordinatoren für digitale Dienste, dem Gremium und der Kommission auf der Grundlage der in dieser Verordnung festgelegten Informationsflüsse und Verfahren“ (Hervorhebung d. Verf.).
Um, wie es der DSA vorgibt, aus den milliardenfachen ununterbrochenen Kommunikationsvorgängen deren zukünftiges Risikopotential, z. B. für die „gesellschaftliche Debatte“, in den 27 EU-Staaten bewerten zu können, ist zumindest ein ungeheures Maß an Koordination erforderlich. Der DSA bereitet, in Verbindung mit den nationalstaatlichen Ausführungsgesetzen, die Grundlage für ein EU-weites Kontrollnetz, das mit Hilfe von hoheitlichen und gesellschaftlichen Helfern die unvorstellbaren Datenmengen erhebt. Die am Netz Beteiligten überprüfen die Daten auf ihre Desinformationsqualität und bewerten sie letztlich an dem Zweck des DSA orientiert. Eingebunden in den Informationsaustausch in Echtzeit sind die Informationsdienste mit den von ihnen zu errichtenden zentralen Kontaktstellen (Art. 11 DSA).
Im Zentrum, jedenfalls des nationalstaatlichen Geschehens, steht der von jedem Mitgliedstaat bis zum 17.02.2024 zu ernennende „Koordinator für digitale Dienste“ (KdD). Er ist für die Beaufsichtigung der Anbieter von Vermittlungsdiensten und die Durchsetzung des DSA im jeweiligen Nationalstaat zuständig (Art. 49 Abs. 1 DSA). Abs. 2 präzisiert, dass der KdD „für alle Fragen im Zusammenhang mit der Überwachung und Durchsetzung dieser Verordnung in diesem Mitgliedstaat zuständig“ ist. Zu diesem Zweck ist ihm „Zugang zu den Daten (zu gewähren), die für die Überwachung und Bewertung der Einhaltung dieser Verordnung erforderlich sind“ (Art. 40 Abs. 1 DSA). Der KdD kann Anordnungen gegen von ihm beanstandete Inhalte auf den Plattformen erlassen und Auskunft über deren Durchführung verlangen. Er hat das Recht, „in allen Räumlichkeiten (…) Nachprüfungen durchzuführen oder eine Justizbehörde in ihrem Mitgliedstaat zur Anordnung solcher Nachprüfungen aufzufordern, (…) um Informationen über eine mutmaßliche Zuwiderhandlung (…)“ untersuchen und sicherstellen zu können (Art. 51 Abs. 1 lit. b DSA) (Hervorhebung d. Verf.).
Es sei nebenbei bemerkt, dass der unmittelbar in Deutschland geltende DSA durch die Einrichtung eines KdD mit einem wesentlichen Aspekt des Föderalismus aufräumt. Die Medienaufsicht ist in Deutschland Ländersache (Art. 30 GG). Bisher hatte sich der Bund mit Eingriffen in die föderale Aufsichtsstruktur zurückgehalten. Nunmehr jedoch wird es radikal anders. Die Bundesnetzagentur wird nach § 12 DDG-Entwurf zuständige Behörde nach Art. 49 Abs. 1 DSA. Die Landesmedienanstalten sind als selbstverwaltete Gremien ihrer bisherigen Funktionen enthoben. Daran ändern auch § 12 Abs. 4 und 5 des DDG-Entwurfs nichts. Denn die Bestimmung: „Die medienrechtlichen Bestimmungen der Länder bleiben unberührt“ stellt eine inhaltsleere Fassade dar, da der KdD, das Gremium (vgl. nachfolgend) und die Kommission für „alle Fragen“ der „Überwachung und Durchsetzung“, die im DSA umfassend geregelt wurden, zuständig sind. § 15 DDG-Entwurf hebt die „Unabhängigkeit“ der Bundesnetzagentur und deren Präsident hervor. Sie handeln angeblich „völlig unabhängig. Sie unterliegen weder direkter noch indirekter Beeinflussung von außen und ersuchen weder um Weisungen noch nehmen sie Weisungen entgegen.“
Die Bundesnetzagentur ist eine Bundesbehörde und dem Bundesministerium für Digitales und Verkehr zugeordnet. Das Vertrauen darin, ob nicht trotz der Regelung in § 15 DDG-Entwurf der Präsident der Agentur Weisungen aus dem Ministerium „wohlwollend“ gegenübersteht, muss noch verdient werden. § 15 ist jedenfalls vor allem deshalb nur eine Fassade, weil der KdD Weisungen der Kommission auszuführen hat (vgl. Art. 66 Abs. 3, Art. 67 Abs. 5 und 6, Art. 82 Abs. 1 DSA).
Zurück zu dem europaweiten Überwachungssystem, das ergänzt wird durch die Einrichtung eines „Europäischen Gremiums für digitale Dienste“ (EGdD) (Art. 61 ff. DSA). Dieses EGdD setzt sich zusammen aus den von den einzelnen Mitgliedsländern ernannten Koordinatoren. Es ist das Gremium, das den nationalen Koordinatoren Unterstützung leistet bei der Beaufsichtigung sehr großer Plattformen. Es ist das Bindeglied zwischen den nationalen Koordinatoren und der Kommission, um die einheitliche Anwendung des DSA in der Union zu garantieren. Dort werden „neu aufkommende allgemeine Trends“ in Abhängigkeit von der EU-Kommission diskutiert, die letztendlich darüber entscheidet, ob der KdD oder das Gremium tätig werden dürfen.
Das Gremium und der KdD erbringen ihre Leistungen im Einvernehmen mit der EU-Kommission und auf deren Ersuchen. Wie eine Monstranz trägt die EU-Kommission als Fassade die EU-Grundrechtecharta vor sich her, in der es in Art. 11 Abs. 1 jedoch heißt, die Meinungsfreiheit und die Informationsfreiheit seien ohne behördliche Eingriffe zu gewährleisten. Das Gegenteil ist der Fall. Die Bundesregierung und alsbald wohl der Bundestag unterstützen den Webfehler des DSA, wonach der Staat die Freiheit nicht garantiert, sondern gewährt. Die durch Art. 5 GG „garantierte“ Staatsferne der Medien war gestern.
In dem Dreierverhältnis von KdD, EGdD und EU-Kommission hat letztere im Konfliktfall die alleinige Entscheidungsbefugnis. Sie führt den Vorsitz des EGdD (Art. 62 Abs. 2 DSA). Einer Geschäftsordnung des EGdD muss die Kommission zustimmen (Art. 62 Abs. 7 DSA).
Im Krisenfall hat die EU-Kommission weitgehende Eingriffsrechte, ohne dass die nationalen KdD dies verhindern könnten (Art. 36 DSA). Zur Ausrufung eines Krisenfalls ermächtigt sich die EU-Kommission selbst durch Beschluss. Die Hürden für die Ausrufung einer Krise sind niedrig, denn in Art. 36 Abs. 2 DSA heißt es: „Für die Zwecke dieses Artikels gilt eine Krise als eingetreten, wenn außergewöhnliche Umstände eintreten, die zu einer schwerwiegenden Bedrohung der öffentlichen Sicherheit oder der öffentlichen Gesundheit in der Union oder in wesentlichen Teilen der Union führen können.“ Auch hier wieder die systematisch genutzten vage formulierten maßgeblichen Kriterien, die der EU-Kommission einen weiten Handlungsspielraum für die Bejahung einer Krise eröffnen.
Auch ohne Ausrufung einer Krise kann die Kommission nach Art. 66 DSA (und Erwägungsgrund Nr. 138) „auf eigene Initiative“, ohne Einschaltung des Gremiums oder des nationalen KdD, jederzeit tätig werden, wenn der Anbieter sehr großer Online-Plattformen oder Suchmaschinen „in Verdacht steht, gegen Bestimmungen dieser Verordnung verstoßen zu haben“. Bei Weigerung des Plattformbetreibers sind die nationalstaatlichen Behörden zur Amtshilfe verpflichtet („gewährt der Mitgliedstaat die erforderliche Unterstützung“, Art. 69 Abs. 8 DSA). Die Befugnisse der nationalen Justizbehörden werden jedoch eingegrenzt. Bei der Überprüfung von Anordnungen der Kommission darf die nationale Justizbehörde „weder die Notwendigkeit der Nachprüfung infrage stellen noch Auskünfte aus der Verfahrensakte der Kommission verlangen. Die Rechtmäßigkeit des Beschlusses der Kommission unterliegt ausschließlich der Prüfung durch den Gerichtshof der Europäischen Union.“ (Art. 69 Abs. 10 DSA).
Die Durchsetzungsbefugnisse der Kommission (Art. 74 DSA) wie auch des KdD (Art. 51 Abs. 2 lit. a-d DSA) gipfeln in der Möglichkeit der Verhängung von Geldbußen und Zwangsgeld.
Art. 52 Abs. 2 DSA bestimmt: „Sanktionen müssen wirksam, verhältnismäßig und abschreckend sein.“ Art. 52 Abs. 1 DSA überlässt es nur formal den Mitgliedstaaten, Zwangsgeld und Geldbußen festzulegen. Deren Mindesthöhe darf nicht unterschritten werden (Art. 52 Abs. 3 DSA). Bei Nichteinhaltung einer im DSA festgelegten Verpflichtung beträgt die Geldbuße im Höchstbetrag „6 % des weltweiten Jahresumsatzes des betreffenden Anbieters … im vorangegangenen Geschäftsjahr“. Bei minderschweren Verstößen beträgt die Geldbuße im Höchstbetrag „1 % des weltweiten Jahresumsatzes“ des Anbieters oder der betroffenen Person. Die Mitgliedstaaten haben sicherzustellen, dass der Höchstbetrag eines Zwangsgeldes „5 % des durchschnittlichen weltweiten Tagesumsatzes oder der durchschnittlichen weltweiten Tageseinnahmen, berechnet ab dem in dem betreffenden Beschluss genannten Datum, beträgt“ (Art. 52 Abs. 4 DSA). Im DDG-Entwurf ist dem in § 25 Abs. 6 und § 26 Ziff. 1 entsprochen worden.
Bei dem, was hier wirtschaftlich für die Plattformen auf dem Spiel steht, ist nachvollziehbar, dass sie zum sog. Overblocking neigen. Dies ganz unabhängig davon, ob es sich um rechtswidrige oder nur dem verengten Meinungskorridor nicht angemessene (unbequeme) Einträge handelt. Nicht berechtigte, durch Overblocking verursachte Löschungen stellen erfahrungsgemäß kein theoretisches Problem dar. Das zeigt die große Anzahl von Meldungen der Plattformen über erfolgreiche Einwände gegen Löschungen bzw. die in Deutschland erfolgreich betriebenen Verfahren vor Zivilgerichten auf Rückgängigmachung einer Löschung im Zusammenhang mit dem NetzDG (Liesching, Das NetzDG in der praktischen Anwendung. Eine Teilevaluation des Netzwerkdurchsetzungsgesetzes, 2021, S. 89 ff., 363 ff.).
Eingriffe in die Meinungs- und Informationsfreiheit erfolgen nicht nur durch Overblocking. Wie schon dargestellt, stellen Löschungen von Einträgen, die z. B. nur „nachteilige“, jedoch nicht unbedingt rechtswidrige „Auswirkungen“ auf die „gesellschaftliche Debatte“ (Art. 34 Abs. 1 lit. c DSA) haben, einen Verstoß gegen Art. 11 der EU-Grundrechtecharta, Art. 10 der Menschenrechtskonvention und Art. 5 GG dar. Die Verstöße gegen die Meinungs- und Informationsfreiheit werden vervielfacht durch die automatischen Inhaltserkennungstechnologien (Saumandsgaard Oe, a. a. O. Rz. 57 f.). Die großen Plattformen wie X, Google, YouTube, TikTok und Facebook haben ihre Inhaltskontrollen zu mehr als 90 % automatisiert, was bei den täglich millionenfachen Meldungen unvermeidlich erscheint. Der Generalanwalt (Saugmandsgaard Oe, a. a. O. Rz. 148 ff.) hat dargelegt, weshalb die zur Verfügung stehenden Techniken nicht in der Lage sind, die nach Art. 34 von Plattformen verlangten wertenden Entscheidungen zu treffen, ob z. B. eine Eintragung absehbar nachteilige, eine Löschung rechtfertigende Auswirkung auf die „öffentliche Gesundheit“ oder „öffentliche Debatte“ haben könnte.
Der EuGH hat in der Rechtssache C-634/21/SCHUFA Holding entschieden, dass das „Scoring“ (ein mathematisch-statistisches Verfahren, das es ermöglicht, die Wahrscheinlichkeit eines künftigen Verhaltens, z. B. die Fähigkeit, einen Kredit zurückzahlen zu können, vorauszusagen) „eine grundsätzlich verbotene automatisierte Entscheidung im Einzelfall“ darstellt, sofern die Bank der SCHUFA-Auskunft für die Kreditgewährung „eine maßgebliche Rolle“ beimisst.
Das von umfassendem Misstrauen getragene Kontrollnetz von gegenseitiger Überwachung, Berichtspflichten, Auskunftspflichten und Sanktionen wird erst flächendeckend durch den Einsatz von zivilgesellschaftlichen Zuarbeitern, den „vertrauenswürdigen Hinweisgebern“.
Sie sollen vom KdD danach zertifiziert werden, ob sie sich bereits in der Vergangenheit (z. B. zur Zeit der Geltung des NetzDG) bei der Erkennung und Meldung rechtswidriger Inhalte bewährt haben (Art. 22 Abs. 2 lit. a DSA). Die bisher schon bekannten Denunzianten werden dankbar erkennen, dass ihre bisherige Stellung sich zur Monopolstellung verfestigt. Weil nicht mehr zwischen rechtswidrigen und nur politisch unerwünschten Einträgen unterschieden werden muss, wird deren Aufgabe vereinfacht. Das Denunziantentum, verstärkt durch Ausgrenzungsphantasien, erleichtert durch Mitläufereigenschaften und Autoritätsgläubigkeit, wird in trügerischem Bewusstsein, allgemeindienlich zu handeln, aufblühen. Zum Beispiel haben die Auswerter der sog. Twitter-Files anlässlich einer am 22.06.2023 abgehaltenen Konferenz weltweit 460 Organisationen benennen können, die großzügig finanziert, u. a. von bekannten Stiftungen wie „Open Society Foundation“ und „Bill and Melinda Gates Foundation“, „vertrauenswürdig“ als „Faktenchecker“, „Hasstracker“ und „Desinformations-NGO’s“ Hinweise gegeben haben.
Der gesamtgesellschaftliche Stellenwert der Hinweisgeber wird betont, weil die Plattformbetreiber dafür Sorge zu tragen haben, dass ihre Anzeigen „vorrangig behandelt und unverzüglich bearbeitet und einer Entscheidung zugeführt werden“ (Art. 22 Abs. 1 DSA). In jährlichen Berichten über die Art und die Anzahl der Meldungen sowie die Reaktion der Plattformbetreiber darauf können sie ihre Bedeutung für die „gesellschaftliche Debatte“, die „öffentliche Sicherheit“ und „öffentliche Gesundheit“ hervorheben. Der Kampf gegen rechtswidrige und nicht rechtswidrige, jedoch nicht in den verengten Meinungskorridor passenden Online-Inhalte wird durch die Einbeziehung der zertifizierten zivilgesellschaftlichen Hinweisgeber zur gesamtgesellschaftlichen Aufgabe hochstilisiert. Offensichtlich hat sich der „große Lümmel“ Volk in den 27 Mitgliedsstaaten immer noch nicht geschlossen genug hinter den EU-Zielen versammelt.
Abschließend lässt sich sagen:
Beim Heizungs- und Verbrennerverbot gab es die aufgeregte Debatte, weil diese Verbote unmittelbar den Geldbeutel der Bürger betrafen. Selbst das Zuckertütchen-Verbot nach der EU-Verpackungsverordnung bewegte manche Gemüter. Das Öko-Design-Gesetz veranlasst bisher nur wenige zu Protest, obwohl die Regulierungswut hier bisher nicht für möglich gehaltene Ausmaße erreicht. Mit diesem Gesetz kann unter Berufung auf die Nachhaltigkeit vorgegeben werden, wie haltbar, wiederverwertbar und reparierbar ein Produkt sein muss und wie hoch der Anteil wiederverwerteter Stoffe und der CO2‐ und Umwelt-Fußabdruck sein soll.
Der DSA eignet sich schon wegen seines Umfangs und seiner Komplexität nicht zur öffentlichen Debatte. Er betrifft die Bürger nicht direkt, sondern „schleichend“. Seine Brisanz ist nicht unmittelbar erkennbar, weil er sich präsentiert als eine rechtsstaatliche Grundsätze achtende Gesetzgebung, die die Monopolisierungsbestrebungen der großen Internetplattformen gesetzlich einschränken will. Hinter dieser Fassade der Rechtsstaatlichkeit wird jedoch wissentlich das von Art. 11 der EU-Grundrechtecharta, Art. 10 der Europäischen Menschenrechtskonvention und Art. 5 GG garantierte Recht auf Meinungs- und Informationsfreiheit ausgehöhlt.
Quelle: Netzwerk Kritische Richter und Staatsanwälte n.e.V (KRiStA)