Es gibt ein Dokument, das ihr lesen solltet. Es ist 160 Seiten lang, verfasst vom Stab des US-amerikanischen House Judiciary Committee und es enthält etwas Bemerkenswertes: Belege. Tausende und Abertausende Seiten interner Unternehmenskommunikation, produziert unter parlamentarischem Subpoena-Zwang von zehn der grössten Technologieunternehmen der Welt – Meta, Google, TikTok, X, Apple, Amazon, Microsoft und anderen – die in akribischer, vernichtender Detailliertheit dokumentieren, wie Beamte der Europäischen Kommission ein Jahrzehnt lang still und leise das Silicon Valley unter Druck gesetzt haben, Meinungen zu unterdrücken, die ihnen nicht gefielen. Nicht illegale Meinungen. Nicht gefährliche Meinungen. Politische Meinungen. Konservative Meinungen. Meinungen über Migration, COVID-19, Genderideologie und Wahlintegrität. Hier eine Bestandsaufnahme in neun Akten, für alle, die noch glauben, dass Demokratie und Meinungskontrolle kompatibel sind.

Brüssels langer Krieg gegen die Meinungsfreiheit

Das Komitee hat zwei Zwischenberichte veröffentlicht. Teil I erschien im Juli 2025, Teil II im Februar 2026. Zusammen bilden sie die umfassendste öffentliche Abrechnung mit dem, was Kritiker schon lange vermuteten und was Verteidiger der EU stets abstritten: Dass der Digital Services Act – das epochale Regulierungswerk der EU – kein Sicherheitsgesetz ist. Es ist ein Zensurregime. Mit globaler Reichweite. Konzipiert und eingesetzt mit parteilicher Absicht. Und eines, das bereits die Ergebnisse von Wahlen auf beiden Seiten des Atlantiks beeinflusst hat. Willkommen in der schönen neuen Welt der demokratischen Informationskontrolle. Man nennt sie jetzt «Risikoprävention». Früher nannte man sie anders.

Prolog: Der Philosoph-König der Zensur
Bevor wir nach Brüssel kommen, sollten wir kurz in Palo Alto verweilen. Denn das intellektuelle Gerüst für alles, was die Europäische Kommission gebaut hat – die Rechtfertigungen, die Rahmung, die moralische Selbstsicherheit – wurde mit ungewöhnlicher Klarheit von einem Amerikaner auf amerikanischem Boden artikuliert, vier Jahre bevor diese Kontroverse ihren aktuellen Siedepunkt erreichte.
Am 21. April 2022 hielt Barack Obama die Hauptrede auf einem Symposium über «Herausforderungen für die Demokratie im digitalen Informationszeitalter», ausgerichtet gemeinsam vom Stanford Cyber Policy Center und der Obama Foundation. Es war eine geschliffene, stündige Rede, vorgetragen mit der für den ehemaligen Präsidenten charakteristischen Eloquenz und aufrichtigen Selbstsicherheit. Es war auch, in seinem Kern, ein ausgearbeitetes Argument dafür, warum Regierungen die Rede kontrollieren müssen, um die Demokratie zu retten – und warum Menschen, die sich diesem Argument widersetzen, im besten Fall naiv und im schlimmsten Fall Komplizen des Autoritarismus sind.
Obamas zentrale These: Der freie Informationsfluss – genau das, was der Erste Verfassungszusatz zu schützen gedacht ist – sei zur grössten Schwachstelle der Demokratie geworden. Social-Media-Plattformen, so argumentierte er, «beschleunigten» die schlimmsten Impulse der Menschheit, verstärkten Desinformation, säten Misstrauen und schufen die Bedingungen, unter denen Autokraten gedeihen. Er nannte Putin und Steve Bannon im selben Atemzug. Er erklärte: «Menschen sterben wegen Fehlinformationen» und verwies auf COVID-19-Impfstoffskepsis als Hauptbeweisstück.
Die Lösung, so Obama: Technologieunternehmen müssen sich unter staatlicher Aufsicht «neu gestalten». Inhaltsmoderation gehe nicht weit genug. Plattformen hätten finanzielle Anreize, gefährliche Inhalte zirkulieren zu lassen und müssten durch Regulierung zu mehr gezwungen werden. Entscheidungen darüber, was wahr ist und was gefährlich ist, dürften nicht allein privaten Unternehmen überlassen werden. Sie müssten staatlicher Aufsicht unterliegen.
Was Obama nicht sagte – und was er als Rechtsanwalt und Politiker sorgfältig vermied: Er rief nicht offen dazu auf, dass Regierungsbeamte Listen verbotener Meinungen führen sollen. Er rahmte sein Argument vorsichtig, erkannte den Ersten Verfassungszusatz an und bestand darauf, lediglich über die Milderung der «schlimmsten Schäden» der Desinformation zu sprechen.
Aber die Logik seines Arguments, konsequent zu Ende gedacht, führt genau dorthin. Wenn Desinformation eine existenzielle Bedrohung für die Demokratie ist und wenn Plattformen nicht vertraut werden kann, sie freiwillig zu bekämpfen und wenn staatliche Regulierung erforderlich ist, um sie zu zwingen – dann muss jemand befugt sein, zu entscheiden, was Desinformation ist. In einer Demokratie ist dieser Jemand letztlich der Staat. Und der Staat, bestehend aus Menschen mit politischen Interessen und ideologischen Überzeugungen, wird diese Macht auf politisch interessierte und ideologisch engagierte Weise ausüben.
Wer entscheidet, was Desinformation ist? Wer auch immer den Regulierungsstift hält. Und der Stift wird nie von niemandem gehalten. Obama beantwortete diese Frage in seiner Stanford-Rede nicht. Er glitt mit charakteristischer Eleganz daran vorbei und bot Versicherungen über unabhängige Aufsicht, journalistische Standards und die eigene Verantwortung der Bürger für einen kritischen Medienkonsum an. Keine schlechten Ideen. Aber keine Antworten auf das strukturelle Problem, das sein eigenes Argument schafft. Die Europäische Kommission beantwortete die Frage für ihn. Sie entschied, wer den Stift hält. Die Kommission. Und die Kommission hat diesen Stift – wie wir gleich sehen werden – mit einer politischen Zielgenauigkeit eingesetzt, die jeden beunruhigen sollte, der Obamas vorgebliche Sorgen um die Demokratie ernst nahm.
Die Ironie ist exquisit und verdient, kurz gesessen zu werden. Obama hielt seine Stanford-Rede und warnte vor den Gefahren ausländischer autoritärer Einflussnahme auf demokratische Informationsökosysteme. Er nannte Russlands Manipulation von Social-Media-Plattformen ausdrücklich eine Bedrohung für die westliche Demokratie. Er forderte Regulierungsrahmen zum Schutz der Integrität des öffentlichen Diskurses. Und der europäische Regulierungsrahmen, der genau aus dieser ideologischen Tradition entstanden ist, von genau diesen Rechtfertigungen angetrieben, von Bürokraten gebaut, die genau diese Werte teilen – dieser Rahmen wurde, wie das House Judiciary Committee ausführlich dokumentiert hat, eingesetzt, um Wahlergebnisse zu annullieren, politische Gegner zu unterdrücken und das Informationsumfeld europäischer Wähler in einer Weise zu gestalten, die zufällig die etablierte politische Ordnung begünstigt. Obamas Stanford-Rede ist der Urtext der Ideologie «Zensur als Demokratieschutz». Sie ist durchdacht, aufrichtig und falsch auf eine Weise, die enorm wichtig ist.

I. Die Maschine wird im Dunkeln gebaut
Die Geschichte beginnt nicht mit dem DSA selbst, der 2022 verabschiedet wurde, sondern mit einem Jahrzehnt Vorarbeit. Beginnend ungefähr 2015 und 2016, laut der Untersuchung des House Judiciary Committee, begannen hochrangige Beamte der Europäischen Kommission eine Reihe von Treffen mit den grossen Social-Media-Plattformen abzuhalten. Der erklärte Zweck war harmlos: Bekämpfung von «Hassrede» und «Desinformation». Der tatsächliche Zweck, die Dokumente legen es nahe, war etwas weit Spezifischeres.
Europa erlebte denselben populistischen Aufstand, der überall in der westlichen Welt die Establishment-Politik erschütterte. Wähler, die wegen Masseneinwanderung, wirtschaftlicher Stagnation und elitärer Herablassung wütend waren, strömten zu Parteien, die die europäische Presse als «rechtsextrem» bezeichnete – Parteien, die in den meisten Fällen einfach Ansichten vertraten, die eine Generation früher Mainstream gewesen waren. Die Plattformen, mit ihrer algorithmischen Gleichgültigkeit gegenüber redaktionellen Gatekeepern, gaben diesen Bewegungen ein Megafon, das staatliche Rundfunkanstalten und Leitmedien umging.
Die Kommission arbeitete daran, wahre Informationen und politische Meinungen zu einigen der wichtigsten Politikdebatten der jüngeren Geschichte zu zensieren, einschliesslich der COVID-19-Pandemie, der Masseneinwanderung und der Transgender-Thematik. Die Lösung der Kommission: Die Plattformen zu Vollstreckern zu machen. Im Laufe von mehr als 100 geschlossenen Treffen, die in den beschlagnahmten Unterlagen dokumentiert sind, drängten Kommissionsbeamte Unternehmensvertreter dazu, ihre Inhaltsmoderationsregeln weltweit zu verschärfen – nicht nur innerhalb Europas. Der Trick, den die Dokumente enthüllen, bestand darin, dass sie eine fundamentale Realität der Funktionsweise von Plattformen verstanden hatten: Man kann nicht ohne Weiteres separate Inhaltsmoderationsregime für verschiedene Länder betreiben. Wenn Europa verlangt, dass eine bestimmte Art von Rede unterdrückt wird, ist die praktische Wirkung, dass sie überall unterdrückt wird.
Die COVID-19-Pandemie beschleunigte den Prozess dramatisch. Im November 2021 wandte sich die Kommission an TikTok und fragte, wie die Plattform «Desinformation» über COVID-Impfstoffe bekämpfen wolle – konkret in den Vereinigten Staaten, nicht in Europa. Die Kommission bat um Informationen über TikToks Pläne zur «Entfernung» bestimmter Behauptungen über die Impfstoffwirksamkeit, die sich an amerikanische Kinder richteten. Das war eine ausländische Regierungsbürokratie, die ein amerikanisches Unternehmen anwies, amerikanische Rede auf amerikanischem Boden zu zensieren. Es geschah per E-Mail.

II. Das Gesetz, das es dauerhaft macht
Die informelle Druckkampagne wurde kodifiziert und aufgeladen, als der Digital Services Act 2023 in Kraft trat. Der DSA ist auf den ersten Blick eine Plattformregulierung. Er verpflichtet grosse Plattformen, «systemische Risiken» für den zivilen Diskurs, Wahlprozesse und die öffentliche Gesundheit zu bewerten und zu mindern. Er ermächtigt Regulierungsbehörden, «vertrauenswürdige Hinweisgeber» zu ernennen – genehmigte Organisationen, deren Anfragen zur Entfernung von Inhalten von Plattformen vorrangig bearbeitet werden müssen. Er droht nicht konformen Unternehmen mit Bussgeldern von bis zu sechs Prozent ihres weltweiten Jahresumsatzes – für ein Unternehmen wie Meta könnten das Milliarden sein. Der DSA reguliert nicht nur Europa. Er exportiert europäische Redestandards in die gesamte Welt.
Der extraterritoriale Anspruch des Gesetzes ist der Schlüssel zum Verständnis, warum es für alle relevant ist. Plattformen wie Facebook, YouTube, X und TikTok unterhalten aus praktischen Gründen keine länderspezifischen Inhaltsmoderierungssysteme. Nutzer reisen. VPNs sind allgegenwärtig. Die Kosten und die Komplexität geografisch präziser Moderation sind unerschwinglich. Das bedeutet, dass Änderungen der globalen Community-Richtlinien, zu denen die Kommission Plattformen gedrängt hat – und zwar explizit, wie die beschlagnahmten Dokumente zeigen – für Nutzer in Zürich ebenso gelten wie für Nutzer in Zagreb.
Der Teil-I-Bericht enthält ein besonders auffallendes Beispiel aus einem Kommissions-Workshop. Regulatoren bezeichneten einen hypothetischen Social-Media-Beitrag mit dem Wortlaut «Wir müssen unser Land zurückholen» – eine Formulierung, die von Politikern des gesamten ideologischen Spektrums verwendet wird – als «illegale Hassrede», die Plattformen unter dem DSA zu zensieren verpflichtet sind. Das ist keine Randinterpretation. Das ist das, was Kommissionsbeamte den Compliance-Teams der Plattformen in einer Übung beibrachten, die in internen Unternehmensakten dokumentiert ist. Man reibt sich die Augen. «Wir müssen unser Land zurückholen» – illegal. Schuld eingestanden, Verfahren eingestellt. Aber «Wir bauen das grösste digitale Zensurnetzwerk der Geschichte» – das ist natürlich Demokratieschutz.

Brüssels langer Krieg gegen die Meinungsfreiheit

III. Wahlen: Der klarste Beweis
Wenn die breiten Behauptungen über die Inhaltsmoderierungspolitik abstrakt erscheinen, ist der wahlspezifische Beweis schwerer zu ignorieren. Der Teil-II-Bericht identifiziert mindestens acht europäische Nationalwahlen, bei denen die Kommission ein «schnelles Reaktionssystem» aktivierte – einen Mechanismus, durch den genehmigte Faktenchecker und staatlich benannte «vertrauenswürdige Hinweisgeber» in den Tagen vor und nach der Stimmabgabe prioritäre Anfragen zur Entfernung von Inhalten bei Plattformen einreichen können.
Die im Bericht genannten Wahlen erstrecken sich über den Kontinent:

  • Slowakei 2023: Plattformen zensierten unter Kommissionsdruck Aussagen, darunter «Es gibt nur zwei Geschlechter», als Hassrede – Inhalte, die nichts mit der Wahl selbst zu tun hatten.
  • Niederlande 2023 und 2025: Regierungsstellen erhielten den Status «vertrauenswürdiger Hinweisgeber», der eine schnellere Entfernung von Inhalten vor Wahlen ermöglichte, die der Populist Geert Wilders gewann.
  • Frankreich 2024: Koordinationstreffen vor der Wahl zwischen Kommissionsbeamten, nationalen Regulatoren und «linksgerichteten NGOs» diskutierten, welche politischen Inhalte moderiert werden sollten.
  • Irland 2024 und 2025: Die irische Medienaufsichtsbehörde veranstaltete «DSA Election Roundtables» mit der Kommission und Plattformen. Meta bestätigte, seine «Wahlrisikobewertung und -massnahmen» aktualisiert zu haben.
  • Rumänien 2024: Der dramatischste Fall – und der, der alles in einem anderen Licht erscheinen lässt.

Die Antwort der Kommission auf all das war, die Berichte als «puren Unsinn» und «völlig unbegründet» zu bezeichnen. Aber die Dokumente sind nicht die Erfindung des Komitees. Sie wurden unter rechtlichem Zwang von den Unternehmen selbst produziert. Die Frage ist nicht, ob diese Treffen stattgefunden haben. Die E-Mails beweisen, dass sie es taten. Die Frage ist, ob sie legitime Arbeit zur Wahlintegrität darstellen oder parteiische Einflussnahme im Gewand der Sicherheitssprache.

IV. Rumänien: Die Zensur, die eine Wahl annullierte
Im November 2024 gewann ein politischer Aussenseiter namens Călin Georgescu unerwartet die erste Runde der rumänischen Präsidentschaftswahl mit 23 Prozent der Stimmen, der innerhalb weniger Wochen aus einstelligen Umfragewerten aufgestiegen war. Rumäniens Geheimdienste, das Verfassungsgericht und die Europäische Kommission zeigten sofort auf TikTok: Russisch verknüpfte Bot-Netzwerke, so sagten sie, hätten Georgescus Inhalte künstlich verstärkt und den Algorithmus der Plattform manipuliert. Am 6. Dezember 2024 schrieb das Verfassungsgericht Geschichte. Es annullierte die Wahlergebnisse – das erste Mal, dass eine europäische Nation dies mit der Begründung einer Social-Media-Manipulation getan hatte.
Die Erzählung war sauber, überzeugend und politisch äusserst bequem. Georgescu wurde als pro-russisch und anti-NATO dargestellt. Sein Sieg wäre eine Verlegenheit für das EU-Establishment gewesen. Der Einmischungsvorwurf gab den Behörden die rechtliche Grundlage, das Ergebnis zu annullieren und ihn von der Wiederholungswahl im Mai 2025 auszuschliessen, die ein pro-EU-Kandidat gewann. Dann kamen die Belege. TikToks eigene Stellungnahme an die Europäische Kommission – Dokumente, die unter dem Subpoena des House Judiciary Committee produziert wurden – stellte fest, dass das Unternehmen «kein Beweismaterial für ein koordiniertes Netzwerk von 25’000 Accounts im Zusammenhang mit Georgescus Kampagne gefunden und auch keines präsentiert bekommen hatte». Das ist die Plattform, die als Vehikel der Einmischung angeklagt wurde. Sie fand keine Beweise für die Einmischung.
TikTok teilte der Europäischen Kommission mit, dass es keine Belege für das russische Bot-Netzwerk gefunden hatte, auf das sich das rumänische Verfassungsgericht berufen hatte, um die Annullierung der Wahl zu rechtfertigen. Darüber hinaus berichtete das rumänische Investigativjournalismus-Outlet snoop.ro unter Berufung auf vertrauliche Quellen aus Rumäniens eigenem Steueramt, dass mindestens eine der TikTok-Influencer-Kampagnen tatsächlich von Rumäniens Nationaler Liberaler Partei finanziert worden war – einem Mitglied der etablierten Mainstream-Koalition, nicht einer ausländischen Regierung.
Nichts davon führte zur Wiedereinsetzung der Wahlergebnisse. Die Wiederholung fand statt. Der pro-EU-Kandidat gewann. Und die Kommission, die den rumänischen Fall als Rechtfertigung für ihre TikTok-Untersuchung unter dem DSA verwendet hatte, hat sich öffentlich nie mit TikToks eigener Leugnung des zentralen Sachverhalts auseinandergesetzt. Das ist der ernsteste Vorwurf in der gesamten Debatte: Dass der unter dem DSA aufgebaute Zensurapparat nicht dazu eingesetzt wurde, eine Wahl zu schützen, sondern um sie zu verändern. Ob man Georgescu für eine echte Bedrohung oder für eine legitime demokratische Wahl hält – das Prinzip ist dasselbe. Regierungen sollten nicht die macht haben, zu entscheiden, welche Wahlergebnisse sie aufgrund nachträglicher Desinformationsfeststellungen anerkennen, die die betreffende Plattform bestreitet. Man kann das nicht oft genug wiederholen: Eine Wahl wurde annulliert. Auf Basis von Beweisen, die die Hauptplattform bestreitet. Von einem Verfassungsgericht, das auf Druck einer ausländischen Bürokratie handelte. Und der Gewinner der annullierten Wahl wurde von der Wiederholungswahl ausgeschlossen. In einem anderen geopolitischen Kontext würde man das einen Putsch nennen. In der EU nennt man es Desinformationsbekämpfung.

V. Das deutsche Paradox
Die deutsche Bundestagswahl vom Februar 2025 ist aufschlussreich, weil die Beweise die einfache Zensurerzählung durcheinanderbringen – wenn auch auf eine Weise, die ihre eigenen beunruhigenden Fragen aufwirft. Vor der Wahl führte die Kommission Stresstests mit grossen Plattformen durch und berief Roundtables mit dem deutschen Digitaldienstleisterkoordinator ein, um «Risiken» zu diskutieren. Deutschlands Inlandsgeheimdienst warnte vor russischen Desinformationskampagnen. In Hessen wurde eine Task Force eingerichtet, um «Meinungen auf Social-Media-Plattformen zu analysieren und Massnahmen zu koordinieren». Staatsbeamte warnten Polizisten vor der Mitgliedschaft in regionalen AfD‑Gliederungen – einer Partei, die über 20 Prozent in Umfragen lag.
Und dennoch: Unabhängige Forschung von Global Witness und dem Institute for Strategic Dialogue ergab, dass die Algorithmen von TikTok und X AfD-Inhalte im Vergleich zu anderen Parteien unverhältnismässig stark verstärkten. Elon Musk nutzte X, um die AfD offen zu unterstützen, ihre Führerin in einem Livestream zu empfangen und seinen 220 Millionen Followern zu sagen, sie sollten für sie stimmen. Die AfD landete mit 20,8 Prozent auf dem zweiten Platz. Dann, Monate nach der Wahl, bezeichnete Deutschlands Inlandsgeheimdienst die gesamte AfD – die wichtigste Oppositionspartei im Bundestag – als «extremistische Organisation», die einer verstärkten Überwachung unterliegt. Die Bezeichnung wurde rasch bis zur gerichtlichen Anfechtung ausgesetzt.
Was der deutsche Fall demonstriert: Das Wahlintegritätsrahmenwerk des DSA koexistiert mit anderen Formen staatlichen Drucks und verhindert nicht deren Anwendung gegen Oppositionsparteien. Die AfD wurde nicht auf TikTok unterdrückt. Sie wurde auf andere Weise unterdrückt: Durch Geheimdienstbezeichnungen, die Weigerung anderer Parteien zur legislativen Zusammenarbeit und ein überwältigend feindseliges Medienumfeld. Der DSA war lediglich ein Instrument in einem breiteren Werkzeugkasten.

VI. Was das für den Rest der Welt bedeutet
Die Trump-Administration hat auf diese Erkenntnisse mit ungewöhnlicher Entschlossenheit reagiert. Aussenminister Marco Rubio verhängte Visasperren gegen fünf europäische Beamte, darunter den ehemaligen DSA-Architekten Thierry Breton und bezeichnete sie als Anführer des «globalen Zensur-Industriekomplexes». Das Aussenministerium leitete Anfang 2025 eine interne Untersuchung zur DSA-Durchsetzung ein.
Die DSA-Forscherzugangsbestimmung – durchgesetzt in der Kommissionsgeldstrafe von Dezember 2025 gegen X – behauptet das Recht, von einem amerikanischen Unternehmen zu verlangen, Daten über amerikanische Nutzer an von europäischen Regulatoren genehmigte Forscher herauszugeben. Das ist ein ausserordentlicher extraterritorialer Anspruch auf die privaten Informationen amerikanischer Bürger, erhoben von einer nicht gewählten ausländischen Bürokratie.
Wenn ein europäischer Regulator einer Plattform sagt, ihre «globalen Community-Richtlinien» zu ändern, trifft er Inhaltsmoderierungsentscheidungen für Iowa genauso wie für Irland. Umfassender gesehen bedeutet die strukturelle Realität globaler Inhaltsmoderation, dass die Schutzwirkungen des Ersten Verfassungszusatzes durch ausländischen Regulierungsdruck still erodiert werden. Das ist keine hypothetische zukünftige Bedrohung. Die beschlagnahmten Dokumente zeigen, dass es bereits passiert ist: Plattformen änderten ihre globalen Moderationsregeln als Reaktion auf Kommissionsdruck und diese Regeländerungen galten auch für alle anderen. Die als Fehlinformation in Brüssel bezeichneten COVID-19-Inhalte wurden auch anderswo als Fehlinformation bezeichnet. Die Einwanderungsdiskussion, die nach EU-Standards die Grenze zur «Hassrede» überschritt, überschritt diese Grenze auch für andere Nutzer.
Die im Dezember 2025 verhängte Geldstrafe von 120 Millionen Dollar gegen X war offiziell wegen Transparenz bei blauen Häkchen und Werberepositories. Aber das Prinzip dahinter ist eindeutig: Amerikanische Unternehmen, die amerikanische Nutzer bedienen, sollten nicht von nicht rechenschaftspflichtigen ausländischen Bürokraten reguliert werden, deren Definition akzeptabler Rede grundlegend im Widerspruch zur Redefreiheit steht.

Brüssels langer Krieg gegen die Meinungsfreiheit

VII. Die Verteidigung der Zensoren
Fair ist fair: Die Verteidiger der Kommission machen mehrere Argumente, die Beachtung verdienen. Erstens stellen sie fest, dass der DSA keinen Hinweis auf eine Ausrichtung gegen konservative, populistische oder rechtsgerichtete Inhalte enthält. Seine Sprache ist neutral: Er befasst sich mit «illegalen Inhalten», «systemischen Risiken» für den zivilen Diskurs und algorithmischer Transparenz. Europäische Rechtswissenschaftler verweisen auf den ersten Artikel der Verordnung, der sich zur Aufrechterhaltung der Meinungsfreiheit verpflichtet.
Zweitens argumentieren sie, dass das deutsche Beispiel – wo algorithmische Analyse zeigte, dass die AfD verstärkt und nicht unterdrückt wurde – beweist, dass Bedenken hinsichtlich antikonservativer Voreingenommenheit in der DSA-Durchsetzung zumindest teilweise unbegründet sind.
Drittens behaupten sie, dass die House Judiciary Committee-Berichte selbst politische Dokumente sind, produziert von der republikanischen Mehrheit unter dem Trump-Verbündeten Jim Jordan, um EU-Regulierungen anzugreifen, die amerikanische Technologieunternehmen einschränken, deren Führungskräfte dem Trump-Orbit nahestehen.
Das sind keine frivolen Einwände. Aber hier ist, was nicht strittig ist: Die Treffen fanden statt. Der Druck wurde ausgeübt. Die Plattformen änderten ihre Regeln. Und in Rumänien wurde eine Nationalwahl auf Basis von Einmischungsbehauptungen annulliert, die die Plattform im Zentrum der Geschichte bestreitet.

VIII. Eine neue Art von Krieg
Es gibt einen Rahmen, der alles in diesem Essay Beschriebene verständlich macht. Es ist nicht der Rahmen, den die Verteidiger der Europäischen Kommission bevorzugen, die den DSA als unkomplizierte Verbraucherschutzregulierung darstellen. Es ist der Rahmen der Militärdoktrin: Fünfte-Generation-Kriegsführung.
In der Fünfte-Generation-Kriegsführung ist das primäre Schlachtfeld nicht Territorium. Es ist nicht Infrastruktur. Es ist der menschliche Geist. Das Ziel ist nicht eine feindliche Armee, sondern die Fähigkeit einer feindlichen Bevölkerung, die Realität klar wahrzunehmen, kohärente politische Urteile zu bilden und kollektiv in ihrem eigenen Interesse zu handeln. Die Waffe ist Information selbst – oder genauer gesagt das Management von Information. Der Sieg wird nicht errungen, wenn der Feind kapituliert, sondern wenn die feindliche Bevölkerung nicht mehr zwischen Wahrheit und Lüge, Freund und Feind oder ihren eigenen Interessen und denen ihrer Widersacher unterscheiden kann. In der Fünfte-Generation-Kriegsführung ist das Schlachtfeld der menschliche Geist. Der Sieg wird errungen, wenn eine Bevölkerung nicht mehr klar genug denken kann, um sich selbst zu verteidigen.
Das Konzept wurde primär im Kontext nicht-staatlicher Akteure und ausländischer Gegner entwickelt. Russische Theoretiker nennen ihre Version davon die Gerasimov-Doktrin, nach General Valery Gerasimovs Essay von 2013, der argumentiert, dass die Grenzen zwischen Krieg und Frieden unkenntlich verschwommen sind und dass informationelle, psychologische und politische Werkzeuge jetzt ebenso entscheidend sind wie Panzer und Raketen. Obama selbst spielte darauf in seiner Stanford-Rede an, als er Putins angebliche Einsicht zitierte, dass man die Menschen nicht dazu bringen muss, Desinformationen zu glauben. Man muss nur den öffentlichen Platz eines Landes mit genug Lärm fluten, sodass Bürger nicht mehr wissen, was sie glauben sollen.
Was weit weniger Aufmerksamkeit erhalten hat, ist die Frage, was passiert, wenn diese Techniken nicht von ausländischen Gegnern, sondern von Regierungen gegen ihre eigenen Bürger eingesetzt werden. Man nennt es manchmal «reflexive Kontrolle» – ein Begriff aus der sowjetischen und russischen Militärpsychologie, der die Manipulation des Entscheidungsprozesses eines Gegners durch die Bereitstellung eines sorgfältig kuratierten Bildes der Realität beschreibt. Der Gegner, der auf falschen oder unvollständigen Informationen operiert, trifft Entscheidungen, die den Interessen des Manipulators dienen, während er glaubt, frei zu handeln. Reflexive Kontrolle: Die Manipulation der Entscheidungen einer Bevölkerung durch die Kuratierung der Informationen, die sie erhält, sodass Menschen wählen, was der Kontrolleur will, während sie glauben, frei zu wählen.
Die Architektur des DSA passt mit unbehaglicher Präzision auf diesen Rahmen. Betrachten wir, was das Gesetz in der Praxis tatsächlich tut. Es ordnet zum grössten Teil nicht die Löschung spezifischer Inhalte durch staatliche Verfügung an. Das wäre zu offensichtlich, zu rechtlich angreifbar, zu sehr eine Erinnerung an die Zensurregime, die Europäer 1945 abgelehnt haben sollten. Stattdessen schafft es ein System von Anreizen und Druck, das Plattformen dazu veranlasst, ihre eigenen Informationsumgebungen in Richtungen zu kuratieren, die die Kommission bevorzugt. Die Drohung mit ruinösen Bussgeldern – bis zu sechs Prozent des weltweiten Umsatzes – schafft einen mächtigen Anreiz für Plattformen, bei Inhalten im Graubereich eher auf Überentfernung zu setzen. Das Trusted-Flagger-System verleiht genehmigten Organisationen – ausgewählt von Regierungsregulatoren – die Befugnis, Inhalte in den kritischen Tagen vor Wahlen vorrangig zur Überprüfung zu melden. Die Bestimmungen zum systemischen Risiko verlangen von Plattformen, breite Kategorien von Sprache zu bewerten und zu mindern – einschliesslich vollständig legaler Sprache – wenn Regulatoren bestimmen, dass eine solche Sprache Risiken für den zivilen Diskurs oder die Wahlintegrität darstellt.
Das Ergebnis ist eine Informationsumgebung, die am Rande in einer Weise geformt wurde, die etablierte politische Narrative gegenüber aufständischen begünstigt, institutionelle Autorität gegenüber populärer Skepsis, und genehmigte Experten gegenüber inoffiziellen Stimmen. Bürger, die sich in dieser Umgebung bewegen, glauben, einem natürlichen Meinungsmarktplatz zu begegnen. Sie wissen nicht, dass der Marktplatz durch regulatorischen Druck still reorganisiert wurde, der in geschlossenen Workshops zwischen Kommissionsbeamten und Plattform-Compliance-Teams angewendet wurde.
Die psychologische Kriegsführungsdimension ist für das Design des DSA nicht beiläufig. Sie ist strukturell. Wenn die Kommission den Satz «Wir müssen unser Land zurückholen» in einer Trainingsübung für Plattform-Compliance-Teams als illegale Hassrede bezeichnete, traf sie nicht nur eine rechtliche Entscheidung. Sie kodierte ein politisches Urteil in die informationelle Infrastruktur der europäischen Gesellschaft. Das Wort «Infrastruktur» ist hier wichtig. Infrastruktur ist das, was man nicht bemerkt, bis sie versagt. Für den grössten Teil der Geschichte mussten Regierungen, die Informationen kontrollieren wollten, dies sichtbar tun: Bücher verbrennen, Zeitungen schliessen, Redakteure verhaften. Diese Handlungen waren als Zensur erkennbar und erzeugten entsprechenden Widerstand. Das Genie des DSA-Modells – ob beabsichtigt oder nicht – besteht darin, dass es auf der Infrastrukturebene operiert. Es sagt Bürgern nicht, was sie denken sollen. Es formt die Informationsumgebung, durch die Bürger ihre eigenen Gedanken bilden, ohne ihr Wissen oder ihre Zustimmung.
Militärpsychologen unterscheiden zwischen Effekten erster und zweiter Ordnung bei Informationsoperationen. Effekte erster Ordnung sind direkt: Eine falsche Information wird geglaubt. Effekte zweiter Ordnung sind mächtiger und dauerhafter: Das epistemische Vertrauen der Zielbevölkerung wird degradiert. Sie wird weniger sicher darüber, was wahr ist, empfänglicher für offizielle Narrative und abhängiger von autoritativen Quellen, um die Realität für sie zu interpretieren.
Das ist nicht nur hypothetisch. Das ist eine präzise Beschreibung des kulturellen Moments, in dem wir uns befinden – in dem Fragen, die vor zehn Jahren noch öffentlich diskutierbar waren, heute als «gefährliche Desinformation» gelten, in dem bestimmte politische Positionen nicht widerlegt, sondern entplattformt werden und in dem immer mehr Menschen spüren, dass der Meinungsraum enger wird, ohne genau benennen zu können, wo die Grenze gezogen wurde und von wem.

IX. Das grössere Bild
Tritt zurück vom parteiischen Lärm und das Bild, das sich ergibt, ist unabhängig von politischen Sympathien beunruhigend. Demokratische Selbstregierung erfordert, dass Wähler Informationen frei empfangen und diskutieren können. Social-Media-Plattformen sind zum dominanten Ort für diese Diskussion geworden. Und diese Plattformen unterliegen jetzt einem Regulierungsrahmen – durchgesetzt von nicht gewählten Beamten in Brüssel – der staatlich genehmigten Stellen die Macht gibt, Anfragen zur Entfernung von Inhalten in den Wochen vor Wahlen vorzuranken, breite Kategorien politischer Rede als «systemische Risiken» definiert, die einer Minderung bedürfen und Unternehmen mit ruinösen Bussgeldern für Nicht-Konformität droht.
Ob dieser Rahmen mit parteiischer Absicht oder echter Neutralität eingesetzt wird, seine Struktur schafft eine ernste Anfälligkeit. Wer auch immer die Definition von «Desinformation» kontrolliert, kontrolliert, was Wähler online leicht finden und diskutieren können. Die Antwort der EU lautet, dass unabhängige Regulatoren und gerichtliche Überprüfung ausreichende Sicherheitsmassnahmen bieten. Die Antwort des House Judiciary Committee – und zunehmend auch vieler europäischer Stimmen – lautet, dass diese Sicherheitsmassnahmen unzureichend sind und der Rahmen selbst das Problem ist. Die richtige Antwort liegt wahrscheinlich irgendwo zwischen diesen Polen. Aber das Gespräch kann nicht ehrlich geführt werden, solange die Kommission darauf besteht, dass ihre Handlungen «puren Unsinn» darstellen, anstatt sich mit zehntausenden Seiten ihrer eigenen internen Kommunikation auseinanderzusetzen.
Was die rumänische Episode so bedeutsam macht, geht über ihre unmittelbaren Fakten hinaus. Sie hat eine Botschaft an jeden Wähler in Europa gesendet: Das Ergebnis einer Wahl kann von staatlichen Behörden mit der Begründung informationeller Bedrohungen rückgängig gemacht werden, die Bürger nicht unabhängig überprüfen können, unter Verwendung von Beweisen, die die betreffende Plattform bestreitet, in Verfahren, die keiner vollständigen öffentlichen Kontrolle unterliegen. Die Botschaft – ob bewusst oder unbewusst aufgenommen – ist, dass die Wahldemokratie innerhalb von Grenzen operiert, die vom staatlichen informationellen Beurteilungsvermögen gesetzt werden. Das ist keine Demokratie. Das ist verwaltete Demokratie – die Regierungsform, die Wladimir Putin, der Mann, den Obama als Meister der Informationskriegsführung identifizierte, in Russland zwanzig Jahre lang praktiziert hat.
Die Gründerväter der amerikanischen Verfassung gestalteten den Ersten Verfassungszusatz genau deshalb, weil sie verstanden, dass Regierungen immer versucht sein werden, die Informationsumgebung in einer Weise zu verwalten, die der herrschenden Klasse dient. Der DSA ist die sophistizierteste Version dieses Impulses, die je gebaut wurde. Er ist nicht das Werk offensichtlicher Tyrannen. Er ist das Werk aufrichtiger Bürokraten, die aufrichtig glauben, die Demokratie zu schützen, während sie die Bedingungen schaffen, unter denen Demokratie zu ihrer eigenen Karikatur verkommt. Das Paradox ist vollständig: Ein Regulierungsrahmen, der im Namen der Demokratie errichtet wurde, bedroht die wichtigste Voraussetzung der Demokratie – den freien Austausch von Ideen zwischen Bürgern, ohne staatliche Genehmigung, Kuratierung oder Nachbearbeitung.

Schluss: Lest die Dokumente
Die beiden House Judiciary Committee-Berichte sind vollständig öffentlich zugänglich. Sie sind unvollkommene Dokumente – anklägerisch im Ton, für politische Wirkung geschrieben, produziert von Menschen mit starken institutionellen Interessen an ihren Schlussfolgerungen. Lest sie mit angemessener Skepsis. Aber lest sie. Denn was auch immer ihr von der Trump-Administration denkt, was auch immer ihr von Jim Jordan denkt, was auch immer ihr von Elon Musk denkt – die Dokumente hinter diesen Berichten sind real. Die E-Mails zwischen Kommissionsbeamten und Plattform-Compliance-Teams sind real. TikToks Leugnung des rumänischen Bot-Netzwerks ist real. Die DSA-Wahlrundtische der irischen Regulierungsbehörde sind real. Die globalen Änderungen der Inhaltsmoderierungsregeln sind real.
Eine ausländische, nicht gewählte Bürokratie hat ein Jahrzehnt damit verbracht, zu versuchen zu gestalten, was man online sagen und lesen kann. Die Frage ist nicht, ob einem die Rede gefällt, die sie unterdrückt hat. Die Frage ist, ob man glaubt, dass nicht gewählte ausländische Beamte diese Macht überhaupt haben sollten.
Meinungsfreiheit ist die Grundlage aller anderen Freiheiten. Wenn Brüssel entscheidet, was Desinformation ist, entscheidet es, was wahr ist. Das ist eine Macht, die keine Regierung besitzen sollte.
Die Zensurmaschine läuft. Sie läuft leise. Und sie läuft mit eurer Zustimmung – einer Zustimmung, die ihr nie explizit gegeben habt, weil man euch nie explizit gefragt hat. Das nennt man verwaltete Demokratie. Früher nannte man es anders…

Quellen
Folgende offizielle Dokumente untermauern diese Analyse:
• House Judiciary Committee: Part I Report (July 25, 2025): https://judiciary.house.gov/sites/evo-subsites/republicans-judiciary.house.gov/files/2025-07/DSA_Report&Appendix(07.25.25).pdf
• House Judiciary Committee: Part II Report (February 3, 2026): https://judiciary.house.gov/sites/evo-subsites/republicans-judiciary.house.gov/files/2026-02/THE-FOREIGN-CENSORSHIP-THREAT-PART-II-2-3-26.pdf
• Part I Press Release: https://judiciary.house.gov/media/press-releases/foreign-censorship-threat-how-european-unions-digital-services-act-compels
• Part II Press Release: https://judiciary.house.gov/media/press-releases/new-report-exposes-european-commission-decade-long-campaign-censor-american

Brüssels langer Krieg gegen die Meinungsfreiheit


ANZEIGE: Du suchst nach dem einfachsten Weg, Bitcoin zu kaufen und selbst zu verwahren? Die Relai-App ist Europas erfolgreichste Bitcoin-App. Hier kaufst Du Bitcoin in wenigen Schritten und kannst auch Sparpläne einrichten. Niemand hat Zugriff auf Deine Bitcoin, ausser Du selbst. Relai senkt jetzt die Gebühr auf 1 %, mit dem Referral-Code REL105548 sparst Du weitere 10 %. (keine Finanzberatung). Disclaimer wg. EU-Mica-Regulierung: Die Dienste von Relai werden ausschliesslich für Einwohner der Schweiz und Italien empfohlen.

Psst, folge uns unauffällig!

Unterstütze uns!

 
«Dravens Tales from the Crypt» bezaubert seit über 15 Jahren mit einer geschmacklosen Mischung aus Humor, seriösem Journalismus – aus aktuellem Anlass und unausgewogener Berichterstattung der Presse Politik – und Zombies, garniert mit jeder Menge Kunst, Entertainment und Punkrock. Draven hat aus seinem Hobby eine beliebte Marke gemacht, welche sich nicht einordnen lässt.

Mein Blog war niemals darauf ausgelegt Nachrichten zu verbreiten, geschweige denn politisch zu werden, doch mit dem aktuellen Zeitgeschehen kann ich einfach nicht anders, als Informationen, welche sonst auf allen anderen Kanälen zensiert werden, hier festzuhalten. Mir ist dabei bewusst, dass die Seite mit dem Design auf viele diesbezüglich nicht «seriös» wirkt, ich werde dies aber nicht ändern, um den «Mainstream» zu gefallen. Wer offen ist, für nicht staatskonforme Informationen, sieht den Inhalt und nicht die Verpackung. Ich habe die letzten 2 Jahre genügend versucht, Menschen mit Informationen zu versorgen, dabei jedoch schnell bemerkt, dass es niemals darauf ankommt, wie diese «verpackt» sind, sondern was das Gegenüber für eine Einstellung dazu pflegt. Ich will niemandem Honig ums Maul schmieren, um auf irgendwelche Weise Erwartungen zu erfüllen, daher werde ich dieses Design beibehalten, denn irgendwann werde ich diese politischen Statements hoffentlich auch wieder sein lassen können, denn es ist nicht mein Ziel, ewig so weiterzumachen ;) Ich überlasse es jedem selbst, wie er damit umgeht. Gerne dürfen die Inhalte aber auch einfach kopiert und weiterverbreitet werden, mein Blog stand schon immer unter der WTFPL-Lizenz.

Es fällt mir schwer zu beschreiben, was ich hier eigentlich tue, DravensTales wurde im Laufe der Jahre Kulturblog, Musikblog, Schockblog, Techblog, Horrorblog, Funblog, ein Blog über Netzfundstücke, über Internet-Skurrilitäten, Trashblog, Kunstblog, Durchlauferhitzer, Zeitgeist-Blog, Schrottblog und Wundertütenblog genannt. Was alles etwas stimmt… – und doch nicht. Der Schwerpunkt des Blogs ist zeitgenössische Kunst, im weitesten Sinne des Wortes.

Um den Betrieb der Seite zu gewährleisten könnt ihr gerne eine Spende per Kreditkarte, Paypal, Google Pay, Apple Pay oder Lastschriftverfahren/Bankkonto zukommen lassen. Vielen Dank an alle Leser und Unterstützer dieses Blogs!
 


Wir werden zensiert!

Unsere Inhalte werden inzwischen vollumfänglich zensiert. Die grössten Suchmaschinen wurden aufgefordert, unsere Artikel aus den Ergebnissen zu löschen. Bleib mit uns über Telegram in Verbindung, spende, um unsere Unabhängigkeit zu unterstützen oder abonniere unseren Newsletter.

Newsletter

Nein danke!