Schlussfolgerung

Diese Schlußfolgerung begründet Änderungsvorschläge für das Strafgesetzbuch und das Ordungsidrigkeitsgesetz, um die massenhafter Verbreitung von Desinformation zu reduzieren, weil diese eine gemeinsmame Faktenbasis für einen demokratischen Dialog zersetzt.

Problem: Desinformation

Russland und China greifen die westlichen Demokratien mit hybriden Mitteln an. Dazu gehört als wirkmächtiges Mittel Desinformation. Desinformation ist eine gefährliche Waffe.

Komplizierung: Skalierung

Im Zeitalter der grauen Medien wie z.B. Nius und der sozialen Medien wird potentiell jedermann zum “Journalisten” und “Verleger” mit potentiell großer Reichweite. Manche Influencer haben mehr Reichweite als etablierte Medien. Die rechtliche Trennung von “Meinungsfreiheit” und “Pressefreiheit” wird dieser Situation nicht mehr gerecht. Fließende Übergänge zwischen privater und öffentlicher Kommunikation, Skalierung von wenigen hundert Medien auf Millionen von medienschaffenden Laien mit gelegentlich gigantischen Reichweiten. Die bisherigen Instrumente zur Wahrung journalistischer Minimalstandards skalieren nicht mit der großen Anzahl von Akteuren und Veröffentlichungen. Hunderttausende Beschwerden beim ohnehin nicht zuständigen Presserat? Hunderttausende juristische Verfahren nach § 84a StGB? - Undurchführbar. Es braucht neue Rechtsgrundlagen, Verfahren und Institutionen, welche mit der großen Zahl der Akteure und Veröffentlichungen skalieren.

Komplizierung: Macht

Die Sozialen Medien werden dominiert von Tech-Oligarchen, die politische Ziele verfolgen. Die Sozialen Medien sind psychologisch optimiert, Nutzer abhängig zu machen. Sie belohnen Hass, Hetze und Desinformation. Schlimmer: sie sind intransparent, fördern extremistische Inhalte, überfordern die Nutzer und verweigern sich Regulierung. Durch ihre Macht und Intransparenz sind die sozialen Netzwerke zum Schlachtfeld im Informationskrieg Russlands und Chinas gegen das freie Europa geworden. Russland hat jahrzehntelange Erfahrung mit hybrider Kriegsführung und investiert Milliardenbeträge in die nicht-militärische Kriegsführung (active measures, reflexive control, propaganda, firehouse-of-falsehoods). Autoritäre Akteure geben Milliarden für Desinformationskampagnen im industriellen Maßstab aus: Finanzierung extremistischer Parteien, Einflussagenten, Trollfarmen, automatisierte Bots, tausende gefälschte Webseiten (“Doppelgänger”), Wikipedia-Manipulation und jetzt AI, Deepfakes und AI Agenten.

Komplizierung: Passivität

Die Reaktion der EU und ihrer Mitgliedsstaaten ist weitgehend von Passivität geprägt. Es gibt keine Regulierung, welche die Plattformanbieter zu algorithmischer Neutralität und Transparenz (open-source) verpflichtet. Daraus ergeben sich Wettbewerbsnachteile der europäischen Anbieter, die gegen die Netzwerkeffekte der etablieren monopolähnlichen Anbieter keine Chance haben.

Während angesichts des völkerrechtswidrigen Angriffskrieg Russands gegen die Ukraine die Politik in einzelnen Mitgliedsländern nach und nach Budgets für militärische Verteidigung bereitstellt, und über “Total Defense” als “Gesamtgesellschaftliche Aufgaben” redet, gibt es keine nennenswerten Budgets für die Verteidigung gegen die feindliche Desinformation im industriellen Maßstab. - Dies stellt einen Erfolg feindlicher Desinformation dar, welche jede Bemühung über Gegenmaßnahmen sofort in den Kontext von „Einschränkungen der Meinungsfreiheit“ rückt.

Gegenmaßnahmen: gescheitert

Bisher delegieren die politischen Verantwortungsträger die Schutzaufgabe des Staates an die Bürger zurück, fordern und fördern mehr Medienkompetenz. Die Macht der Sozialen Medien und der üppig finanziell ausgestatteten feindlichen Kampagnen lässt sich aber nicht von wenigen ehrenamtlichen Vereinen und Aktivisten bewältigen, und auch nicht von medienkompetenten Bürgern in ihrem Alltag. Ein paar Beispiele:

  • Fit gegen Desinformation Workshops: das Bayerische Staatsministerium für Digitales fördert im Rahmen der Bayern-Allianz gegen Desinformation ca. 100 kostenfreie und praxisnahe Online- und Präsenzworkshops, die politisch und gesellschaftlich Aktive dabei unterstützen, Desinformation zu erkennen und souverän darauf zu reagieren. Das ist wertvoll, aber eben nur für einige wenige Multiplikatoren. Einer der Übungsinhalte: gefälschte Fotos und Videos erkennen. Schon jetzt scheitern selbst geübte Teilnehmer daran regelmäßig. In wenigen Jahren (eher Monaten) wird es vollkommen unmöglich sein, Deepfakes von echten Videos zu unterscheiden, ohne umfangreiches Kontextwissen heranzuziehen, ohne Zugriff auf aufwendige Analysetools und Referenzdaten zu haben. Medienkomptenz ist wichtig, aber medienkompetente Bürger als Waffe gegen Desinformation im industriellen Ausmaß: ist eine Fiktion.

  • Debunking: Faktenchecks kommen typischerweise zu spät und werden selten gelesen. Weil Faktenchecks aufwendig sind, bleiben sie wenigen besonders einflussreichen oder zufällig ausgewählten Veröffentlichungen vorbehalten. Die Debunking-Datenbank von EUvsDisinfo.eu hat in zehn Jahren großartiger Arbeit ca. 20.000 Veröffentlichungen widerlegt. Debunking alleine skaliert nicht, weder mit Millionen Veröffentlichungen noch mit Millionen Empfängern.

  • Prebunking: Nicht zu spät zu kommen, sondern bereits vorab vor einer kommenden Desinformation zu warnen ist eine schöne Idee, hat aber seine eigenen Schwierigkeiten. Wie erfährt oder errät man vorab, welche Kampagnen der Gegner plant? Wie vermeidet man, dass das Beschreiben der erwarteten Desinformation nicht zum Erinnerten Gegenstand wird, der Warner also die Arbeit des Desinformanten erledigt, Teil der Kampagne wird? Wie viele Warnungen kann ein Bürger pro Tag verdauen? Wie sehr untergräbt es das Vertrauen der Bürger, wenn die Warnung falsch geraten war oder der Gegner seine Kampagne absichtlich abgeblasen hat? Prebunking skaliert nicht, weder mit Millionen Veröffentlichungen noch mit Millionen Empfängern.

  • Disinfo-Trends: Die Universität der Bundeswehr München analysiert mit dem Projekt SPARTA vor wichtigen Wahlen aktuelle Trends in den sozialen Medien. Das ist eine wichtige Arbeit, aber die Budgets reichen nicht, um diesen Service täglich anzubieten. Trendanalysen sind aufwendig, kosten Geld, und auch sie wirken allenfalls an Tagen, an denen sie zur Verfügung stehen und der mündige Bürger die Zeit investiert, zu schauen, was an trendenden fragwürdigen Inhalten bereits identifiziert wurde.

Wenn wir den Kampf um den Erhalt der Demokratie und gegen Desinformation gewinnen wollen, brauchen wir mehr Maßnahmen die besser skalieren, Und die nötigen Budgets. Und den politischen Mut, diese durchzusetzen, wie in den Siebzigern bei der Einführung der Gurtpflicht.

Vision: Sichere Kommunikationswege

Das Ziel sollt sein: unsere Kommunikationswege sind in Zukunft so zivilisiert und so sicher, wie unser Straßenverkehr. Wir haben dann Regeln, die eine zivilisierte Kommunikation gewährleisten, und skalierbare Institutionen, welche Kommunikation bequem, sicher und vertrauenswürdig machen. Wenn es um Autos geht, leisten wir uns das, lassen uns die Sicherheit etwas kosten: Hersteller halten Sicherheitsstandards bei jedem Auto ein, in jeder Stadt gibt es den TÜV, jedes Auto wird regelmäßig auf seine Sicherheit geprüft, in jeder Stadt gibt es eine Fahrschule, jeder Autofahrer hat eine Führerschein, jede Straße erfüllt Qualitätskriterien und wird regelmäßig gewartet und repariert. Wo die Straße kaputt ist, gibt es Warnschilder. Es gibt Ampeln, die den Verkehr regeln, auf die man sich verlassen kann. Fast niemand fährt über rote Ampeln, fast niemand parkt in der Feuerwehreinfahrt. Warum? - Weil wir Fehlverhalten mit einem skalierbaren Instrument sanktionieren: dem Ordnungswidrigkeitsrecht. Und weil wir für völlig inakzeptables, wiederholtes Fehlverhalten das Strafrecht in Reserve haben.

Gegeben: Wissenschaftliche Grundlage

Neben den positiven Erfahrungen mit einem gut funktionierenden System zur Regulierung, Überwachung und Sanktionierung im Straßenverkehr gibt es auch wissenschaftliche Belege, dass Sanktionen dazu beitragen, Lügen in der Kommunikation zu reduzieren:

Eine hochwirksame Bestrafung wirkt sich nicht nur positiv auf die Ehrlichkeit der Sender aus, sondern führt auch zu einem deutlich höheren Vertrauensniveau bei den Empfängern1

Sanktionen sind demzufolge wirksam, wenn der Sender eine relevante Sanktion mit einem relevanten Risiko erwartet (Sanktionserwartungswert), was drei Bedingungen voraussetzt:

  1. eine relevante Wahrscheinlichkeit, dass die Lüge aufgedeckt wird, d. h. ein skalierbares Überwachungs- oder Meldesystem
  2. eine relevante Wahrscheinlichkeit, dass die aufgedeckte Lüge sanktioniert wird, d. h. ein skalierbarer Sanktionsprozess mit geringen Kosten für die Meldung und die Verhängung der Sanktion
  3. eine Sanktion in relevantem Ausmaß, die erwartungsgemäß durchgesetzt wird

Nötig: Rechtsgrundlagen

Zur Erinnerung (aus BVerfG, Urt. v. 22.06.1982, 1 BvR 1376/79, Rn. 24):

Was dagegen nicht zur verfassungsmäßig vorausgesetzten Meinungsbildung beitragen kann, ist nicht geschützt, insbesondere die erwiesen oder bewusst unwahre Tatsachenbehauptung

§ 268a StGB Fälschung von Aufnahmen (Entwurf)

Deepfakes untergraben das Fundament der Wahrheit, auf dem unterschiedliche Meinungen erst sinnvoll diskutiert werden können. Ohne eine gemeinsam akzeptierte Faktenbasis, kann eine friedliche demokratische Gesellschaft nicht existieren. Diese gemeinsame Faktenbasis wird von russischen Desinformationskampagnen spalterisch angegriffen. Das Strafgesetzbuch sanktioniert mit § 268 StGB “Fälschung technischer Aufzeichnungen”, aber nur “zur Täuschung im Rechtsverkehr”. Deshalb braucht es die Sanktionierung von Deepfakes. Und weil die Erkennung von Deepfakes aufwendig ist, also die Wahrscheinlichkeit der Erkennung niedrig ist, muss das Strafmaß hoch sein, um einen abschreckenden Straferwartungwert zu bewirken.

Entwurf:

§ 268a StGB Fälschung von Aufnahmen

  1. Mit Freiheitsstrafe nicht unter einem Jahr wird bestraft, wer

    1. eine Aufnahme (Foto, Audio, Video) in der Absicht fälscht, dass sie als echt in Verkehr gebracht oder dass ein solches Inverkehrbringen ermöglicht werde, (oder eine Aufnahme in dieser Absicht so verfälscht, dass der Anschein einer anderen Realität hervorgerufen wird),
    2. eine falsche Aufnahme in dieser Absicht sich verschafft oder feilhält oder
    3. eine falsche Aufnahme, die er unter den Voraussetzungen der Nummern 1 oder 2 nachgemacht, verfälscht oder sich verschafft hat, als echt in Verkehr bringt.
  2. Handelt der Täter gewerbsmäßig oder als Mitglied einer Bande, die sich zur fortgesetzten Verbreitung von Desinformation verbunden hat, so ist die Strafe Freiheitsstrafe nicht unter zwei Jahren.

  3. In minder schweren Fällen des Absatzes 1 ist auf Freiheitsstrafe von drei Monaten bis zu fünf Jahren, in minder schweren Fällen des Absatzes 2 auf Freiheitsstrafe von einem Jahr bis zu zehn Jahren zu erkennen.

  4. Wenn eine künstlich generierte Aufnahme zu jedem Zeitpunkt in der Aufnahme nach einem vereinbarten Standard eindeutig wahrnehmbar als künstlich generiert markiert ist, fällt sie nicht unter Absatz (1)

§ 118a OWiG Verbreiten falscher Fakten (Entwurf)

Wie bereits erläutert, sind Strafverfahren nach dem StGB für massenhafte Taten nicht skalierbar. Hier braucht es - wie im Straßenverkehr - einen vordefinierten Katalog häufig vorkommender Vergehen, die zu niedrigen Kosten in hoher Zahl durchgeführt werden können. Im Ordnungswidrigkeitsrecht gibt es bislang nur den sehr unspezifischen Paragraphen § 118 “Belästigung der Allgemeinheit”, deshalb schlagen wir eine Konkretisierung vor.

Entwurf:

  1. Ordnungswidrig handelt, wer nachgewiesen-falsche Fakten verbreitet, die geeignet sind, den öffentlichen Frieden zu stören, insbesondere wenn dadurch einer Person oder Gruppe von Personen Menschenrechte oder deren Verteidigung abgesprochen werden

  2. Die Ordnungswidrigkeit kann mit einer Geldbuße geahndet werden, wenn die Handlung nicht nach anderen Vorschriften geahndet werden kann.

  3. Die Höhe der Ordnungswidrigkeitsbuße richtet sich nach

    1. der Schwere des Absprechens der Menschenrechte
    2. das Ausmaß in dem besonders verletzliche Gruppen betroffen sind (Kinder, Wehrlose, Gefangene)
    3. einer ggf. erfolgten Bekräftigung des falschen Faktums nach einem Hinweis auf das Vergehen
    4. der zu erwartenden Reichweite der Verbreitung
    5. der tatsächlich realisierten Reichweite der Verbreitung
    6. der Häufigkeit und Schwere der in den letzten 365 Tagen begangenen Vergehen nach Absatz (1)
    7. der Inanspruchnahme eines menschlichen Entscheiders, siehe Absatz (6)
  4. In minder schweren Fällen, bei denen zusammen mit einer frühzeitigen Korrektur ein Versehen anzunehmen ist, soll auf ein Ordnungsgeld verzichtet werden.

  5. Die sanktionierende Behörde führt eine öffentliche Liste nachgewiesen-falscher Fakten

    1. die Liste wird in einer menschenlesbaren Form bereit gestellt (barrierefreie Webseite)
    2. die Liste wird in einem gängigen maschinenlesbaren Format zur Verfügung gestellt (z.B. csv-Datei)
    3. die Liste wird unter einer Creative Commons Lizenz veröffentlicht
    4. Änderungen der Liste werde 4 Wochen vor Wirksamwerden besonders gekennzeichnet veröffentlicht
  6. Wird das Vergehen durch einen automatisierten Prozess bestimmt, gilt folgendes:

    1. es gibt ein Recht auf Prüfung durch einen menschlichen Entscheider innerhalb einer angemessenen Frist
    2. bestätigt der menschliche Entscheider das Vergehen, soll ein angemessen höheres Ordnungsgeld verhängt werden
  7. Wird das Vergehen in einem Sozialen Medium begangen, gilt folgendes

    1. das Ordnungsgeld wird vom Plattformbetreiber vorgestreckt
    2. der Plattformbetreiber darf das Ordnungsgeld vom Nutzer zurückfordern
    3. der Plattformbetreiber muss für anonyme Konten eine anonyme Bezahlmöglichkeit anbieten
    4. erstattet der Nutzer das Ordnungsgeld nicht in einer angemessenen Frist, darf der Netzwerkbetreiber den Nutzer mahnen und das Konto bis zur Bezahlung sperren
    5. erstattet der Nutzer nach einer Mahnung das Ordnungsgeld nicht in einer angemessenen Frist, darf der Netzwerkbetreiber das Konto löschen
    6. ein Widerspruch nach (6) hat aufschiebende Wirkung für (7)

  1. Behnk S, Barreda-Tarrazona I, García-Gallego A. Punishing liars-How monitoring affects honesty and trust. PLoS One. 10. Oktober 2018;13(10):e0205420. doi: 10.1371/journal.pone.0205420. PMID: 30304019; PMCID: PMC6179269.↩︎