SBS Firmengruppe Logos

| KI-Recht

Deepfakes & Strafrecht: Deutschland in Zugzwang


Im Internet verbreiten sich zusehends immer mehr täuschend echte Videos, die vollständig mithilfe Künstlicher Intelligenz erzeugt oder manipuliert wurden. Besonders häufig handelt es sich dabei um pornografische Inhalte, in denen Personen ohne ihr Wissen und ohne ihre Zustimmung dargestellt werden. Die Entwicklung von sogenannten Deepfakes greift tief in die Privatsphäre der Menschen ein und kann für die Betroffenen schwerwiegende Folgen haben. Angefangen bei Rufschädigung bis hin zu psychischer Belastung. Zugleich zeigt sich, dass das Strafrecht in seiner jetzigen Form nicht hinreichend ist. Innerhalb der Politik wird daher von einer deutlichen Strafbarkeitslücke gesprochen, die zeitnah geschlossen werden muss, um den Schutz der Persönlichkeitsrechte an die digitale Realität anzupassen. Wie das aussehen kann, nehmen wir in diesem Beitrag unter die Lupe.


Strafbarkeit von Deepfakes: Italien geht voran – Deutschland will nachziehen

Als erstes europäisches Land hat Italien beschlossen, die Verbreitung gefälschter Aufnahmen, die mithilfe Künstlicher Intelligenz erstellt wurden, unter Strafe zu stellen. Wer sogenannte Deepfakes weitergibt, muss künftig mit Freiheitsstrafen von bis zu fünf Jahren rechnen. Nach Angaben von Rai-News wird dafür das italienische Strafgesetzbuch um den Tatbestand der „unrechtmäßigen Verbreitung von KI-generierten oder manipulierten Inhalten“ ergänzt. Besonders schwer wiegt der „hinterlistige Einsatz von KI“, der als strafverschärfender Umstand eingestuft wird. Brisanz erhielt das Thema zuletzt dadurch, dass auch Ministerpräsidentin Giorgia Meloni Opfer eines Deepfakes wurde: Auf einer Pornoplattform tauchten manipulierte Aufnahmen von ihr auf.

Auch in Deutschland wird nun über einen vergleichbaren Straftatbestand diskutiert. Politiker von Union und SPD drängen darauf, den strafrechtlichen Schutz von Persönlichkeitsrechten gegen Deepfakes zu stärken. Im Bundesministerium für Justiz und Verbraucherschutz zeigt man sich mittlerweile offen für einen solchen Schritt. Ein erster Anlauf war im vergangenen Jahr zwar gescheitert, da die vorgezogene Bundestagswahl das Verfahren zum Stillstand brachte. Doch mit der 1056. Sitzung am 11. Juli 2025 hat der Bundesrat einen neuen Vorstoß unternommen und beschlossen, den Entwurf eines Gesetzes zum strafrechtlichen Schutz vor Deepfakes in den Bundestag einzubringen.


Was sind Deepfakes?

Deepfakes sind künstlich erzeugte oder manipulierte Medieninhalte, die mithilfe von Künstlicher Intelligenz (KI) täuschend echt wirken. Dabei werden Bild-, Audio- oder Videodaten so verändert, dass Personen oder Handlungen dargestellt werden, die in Wirklichkeit nie stattgefunden haben.

Beispiele für Deepfakes:

  • gefälschte Videos von Politikern mit manipulierten Reden
  • künstlich erzeugte Stimmen, die reale Personen imitieren
  • täuschend echte Fake-Fotos von Prominenten
  • manipulierte Videokonferenzen im beruflichen Kontext
  • gefälschte Produktwerbung mit scheinbar echten Testimonials


Täuschend echt und brandgefährlich: Reale Deepfake-Fälle mit Folgen

In den vergangenen Jahren haben reale Deepfakes mehrfach für Schlagzeilen gesorgt. Besonders deutlich wird dies in Fällen, in denen täuschend echte Fälschungen gravierende Folgen hatten. So gelang es Betrügern, durch Deepfake-Imitationen von Führungskräften eines internationalen Unternehmens Überweisungen in Millionenhöhe auszulösen. Täuschend echt generierte Stimmen und Videos reichten aus, um Mitarbeiter zur Freigabe sensibler Transaktionen zu bewegen.

Auch im politischen Kontext kamen Deepfakes bereits zum Einsatz. Während des Ukraine-Krieges wurde ein manipuliertes Video verbreitet, in dem Präsident Wolodymyr Zelensky angeblich seine Truppen zur Kapitulation aufforderte. Das täuschend echte Material diente gezielt der Desinformation und sollte Vertrauen untergraben. In Deutschland wiederum sorgte ein Deepfake von Bundeskanzler Olaf Scholz für Aufsehen. Sein künstlich erzeugtes Abbild wurde in einer Protestaktion eingesetzt und löste eine Debatte über die Risiken manipulierter Inhalte im politischen Raum aus.

Besonders verheerend sind Deepfakes auch im Bereich der Persönlichkeitsrechte. Immer wieder werden prominente Frauen Opfer von Deepfake-Pornografie, die ohne ihr Wissen und ihre Zustimmung erstellt und verbreitet wird. Die Form der Manipulation greift tief in die Privatsphäre ein und kann die Reputation der Betroffenen nachhaltig schädigen.


Von Skepsis zu Zustimmung beim Umgang mit Deepfakes

Noch in der vergangenen Legislatur hatte das Bundesministerium der Justiz wenig Bedarf für eine neue Strafnorm gesehen. Unter FDP-Führung argumentierte das Ministerium, das geltende Recht halte bereits ausreichende Instrumente bereit. Straftatbestände wie die §§ 184b, 184c StGB zur Verbreitung kinder- und jugendpornografischer Inhalte, § 187 StGB zur Verleumdung, § 33 KunstUrhG für die unzulässige Verbreitung von Bildnissen oder auch §§ 106, 108 UrhG für urheberrechtlich geschützte Materialien deckten wesentliche Missbrauchsformen ab. Zudem könnte § 42 Abs. 2 BDSG einschlägig sein. Kritisch verwies das Ministerium zudem auf verfassungsrechtliche Bedenken: Der damalige Vorschlag des Bundesrats sei zu unbestimmt formuliert und genüge nicht den Anforderungen des Grundgesetzes.

Heute zeigt sich ein anderes Bild. Das von SPD-Politikerin Stefanie Hubig geführte Bundesministerium der Justiz und für Verbraucherschutz bewertet die Thematik mit deutlich mehr Ernst. In der offiziellen Stellungnahme zum aktuellen Gesetzentwurf heißt es, die Bundesregierung nehme die beschriebenen Phänomene sehr ernst und prüfe, wie die im Koalitionsvertrag zugesagte Schließung von Strafbarkeitslücken bei bildbasierter sexualisierter Gewalt bestmöglich umgesetzt werden könne. Ein Ministeriumssprecher ergänzte, man betrachte die Entwicklungen rund um Künstliche Intelligenz und Deepfakes „mit Sorge“. Insbesondere digitaler Voyeurismus und Gewaltpornografie stünden dabei im Fokus.

Gut zu wissen: Italien hat auf die Entwicklung von Deepfakes bereits reagiert und den Straftatbestand für die Verbreitung eingeführt. Das Land gilt damit als europäischer Vorreiter. Deutschland steht damit vor der Aufgabe, das Beispiel Italiens aufzugreifen und eine passgenaue Lösung zu entwickeln, die den Schutz vor Deepfakes wirksam in das Strafrecht integriert.


Brauchen wir ein eigenes Strafgesetz für Deepfakes – oder schafft der Gesetzgeber nur neue Rechtsunsicherheit?

Der Bundesrat treibt nun das Vorhaben voran, Deepfakes strafrechtlich zu erfassen. Geplant ist die Einführung eines neuen § 201b StGB, der die Zugänglichmachung von Bild- oder Tonaufnahmen unter Strafe stellt, wenn diese mit computertechnischen Mitteln erzeugt oder manipuliert wurden und den Anschein einer echten Aufnahme erwecken. Wer damit Persönlichkeitsrechte verletzt, soll mit Freiheitsstrafen bis zu fünf Jahren rechnen müssen.

Nicht erfasst werden sollen Fälle, in denen Deepfakes einem anerkannten öffentlichen Interesse dienen, etwa im Bereich von Kunst, Wissenschaft, Forschung, Lehre oder Berichterstattung über Ereignisse des Zeitgeschehens. Die vorgeschlagene Ausnahme stößt jedoch auf erhebliche Kritik, da gerade hier ein besonderes Gefährdungspotenzial für die öffentliche Meinungsbildung liegt.

Zusätzlich führt der Entwurf mit dem Begriff des „Medieninhalts“ einen neuen Rechtsbegriff ein. Darunter sollen nur digital erzeugte oder veränderte Bild- und Tondateien fallen. Manuelle Manipulationen, wie klassische Fotocollagen oder Stimmenimitationen, bleiben außen vor. Damit grenzt der Gesetzgeber die Strafbarkeit bewusst ein, ohne überzeugend zu erklären, warum diese Abgrenzung erforderlich ist. Experten sehen darin ein Einfallstor für neue Rechtsunsicherheiten.

Auch die Abgrenzung von „Zugänglichmachen“ und „Verbreiten“ ist unklar. Während der Wortlaut auf Zugänglichmachen abstellt, bezieht sich die Begründung mehrfach auf Verbreitung. Für die Praxis ist dieser Unterschied wesentlich, da die Reichweite des Tatbestandes hiervon abhängt.

Schließlich sieht § 201b Abs. 4 StGB-E die Einziehung von technischen Mitteln vor, die für die Zugänglichmachung von Deepfakes genutzt wurden. Dies könnte theoretisch auch Computer von Dritten betreffen, deren Geräte ohne ihr Wissen verwendet wurden. In der Praxis dürfte dieser Teil der Norm jedoch kaum Anwendung finden.

Kernprobleme des Gesetzesentwurfs:

  • Unklarer und neuer Rechtsbegriff „Medieninhalt“ statt bewährtem Inhaltsbegriff (§ 11 Abs. 3 StGB)
  • Widersprüchliche Abgrenzung zwischen „Zugänglichmachen“ und „Verbreiten“
  • Fragwürdige Ausnahmen für Kunst, Wissenschaft und Berichterstattung, obwohl gerade hier Missbrauchsrisiken bestehen
  • Herstellung von Deepfakes bleibt straffrei – erfasst wird nur die Zugänglichmachung
  • Unklare Regelungen zur Einziehung von Geräten, die rechtlich kaum durchsetzbar erscheinen

Der Entwurf zeigt, dass der Wille, Deepfakes strafrechtlich zu fassen, da ist. Doch die konkrete Ausgestaltung droht, mehr Fragen aufzuwerfen, als sie beantwortet.


BRAK fordert Anpassung statt neuer Strafnorm bei Deepfakes

Die Einführung eines eigenen Straftatbestands für Deepfakes stößt ebenso bei vielen Fachleuten auf Skepsis. Neben dem Justizministerium hatte auch die Bundesrechtsanwaltskammer (BRAK) erhebliche Bedenken geäußert. Kritisiert wurde vor allem, dass der Entwurf der Länderkammer das zu schützende Rechtsgut zu vage beschreibt und damit eine übermäßige Ausweitung der Strafbarkeit riskiert.

Die BRAK plädierte daher nicht für eine neue Vorschrift, sondern für eine gezielte Ergänzung des bestehenden § 201a StGB. Die Hürden für eine Strafbarkeit sollten angehoben werden. Nach diesem Ansatz wäre die Verbreitung von KI-generierten Aufnahmen nur dann strafbar, wenn sie geeignet ist, dem Ruf oder Ansehen der betroffenen Person erheblich zu schaden. Damit würde das Strafrecht präziser greifen, ohne unverhältnismäßig in alltägliches Online-Verhalten einzugreifen.


Strafbarkeitslücke oder Aktionismus?

Während Union und SPD klare gesetzliche Verschärfungen fordern, äußern Grüne und Linke deutliche Zweifel am Entwurf des Bundesrats. Beide Fraktionen erkennen zwar eine Schutzlücke, warnen jedoch davor, sie mit einem überhasteten und unsauber formulierten Gesetz zu schließen. Kritisiert wird vor allem die Unschärfe der vorgeschlagenen Norm, die Grundrechte beschneiden und gleichzeitig nicht effektiv zum Schutz der demokratischen Meinungsbildung beitragen könnte.

Noch grundsätzlicher fällt die Kritik des Deutschen Anwaltvereins (DAV) aus. Aus seiner Sicht braucht es keine neuen Paragrafen, sondern eine konsequente Anwendung des bestehenden Rechts. Persönlichkeitsverletzungen lassen sich schon heute über Beleidigungs- und Betrugstatbestände sanktionieren. Das eigentliche Problem sei nicht die Technologie, sondern ihr Missbrauch. Wer Deepfakes zu ehrverletzenden Zwecken einsetzt, könne bereits jetzt bestraft werden. Neue Gesetze, so die Position, seien nichts anderes als politischer Symbolismus. Mehr Aktionismus als Rechtsfortschritt.


Fazit

Deepfakes bedrohen Persönlichkeitsrechte, können demokratische Prozesse manipulieren und dienen nicht selten als Mittel digitaler Gewalt. Dass der Gesetzgeber hier reagieren muss, steht außer Frage. Doch wie so oft entscheidet nicht der gute Wille, sondern die handwerkliche Qualität des Gesetzes über seine Wirksamkeit.

Für uns ist klar: Ein bloßes Kopieren ausländischer Modelle oder ein hastig eingeführter Sonderparagraf werden das Problem nicht lösen. Notwendig ist eine präzise, grundrechtskonforme Regelung, die tatsächlich die Betroffenen schützt und gleichzeitig Rechtssicherheit gewährleistet. Strafnormen dürfen nicht vage formuliert sein und auch nicht in Bereiche eingreifen, die von Meinungsfreiheit, Kunst oder Pressefreiheit gedeckt sind.

Die Politik steht daher vor einer doppelten Herausforderung. Sie muss Lücken schließen, ohne neue Unsicherheiten zu schaffen. Entscheidend wird sein, Persönlichkeitsrechte wirksam zu stärken, ohne den Rechtsstaat durch überhastete Symbolgesetze auszuhöhlen. Nur eine sorgfältig austarierte Regelung kann Deepfakes wirksam begegnen und zugleich sicherstellen, dass der digitale Raum nicht zum rechtsfreien Raum wird.


SBS LEGAL – Kanzlei für KI-Recht

Möchten Sie wissen, welche rechtlichen Risiken Deepfakes für Ihr Unternehmen oder Ihre Branche bergen? Fragen Sie sich, ob Sie gegen die unberechtigte Verwendung Ihres Bildes oder Ihrer Stimme vorgehen können oder ob Sie selbst Inhalte rechtssicher einsetzen dürfen?

Dann sind Sie bei SBS LEGAL genau richtig! 

Ob im Dienstleistungsbereich, im Finanzsektor oder im Gesundheitswesen, unser erfahrenes Team im KI-Recht steht Ihnen in allen rechtlichen Fragen rund um den Einsatz Künstlicher Intelligenz zur Seite. Seit den ersten Entwicklungen des jungen Rechtsgebiets verfolgen wir die Fortschritte aufmerksam, kennen die Potenziale ebenso wie die Risiken und wissen, worauf es in der Praxis ankommt. Wir unterstützen Sie dabei, Prozesse im Hinblick auf die KI-Verordnung rechtssicher zu gestalten, entwickeln individuelle Schutzkonzepte und stellen sicher, dass Ihre Nutzung von KI jederzeit den rechtlichen Anforderungen entspricht.

Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie die Rechtsberatung von dem erfahrenen Team aus Fachanwälten und Spezialisten von SBS LEGAL?

Der Erstkontakt zu SBS LEGAL ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutzhinweise gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht