Recht & Verwaltung13 August, 2025

Deepfakes bedrohen uns alle – aber schutzlos sind wir nicht

Das Thema Deepfakes sowie weitere urheber- und medienrechtliche Fragestellungen stehen im Fokus des 2. Kölner Symposiums zum Urheber- und Medienrecht, das am 25. und 26. September 2025 stattfindet. Ausgewiesene Expert:innen beleuchten aktuelle Entwicklungen und rechtliche Herausforderungen. Klicken Sie hier, um sich anzumelden: Kölner Symposium | Wolters Kluwer

Dr. Jörg Frederik Ferreau, Rechtsanwalt und Lehrbeauftragter für Medienrecht

Dank Künstlicher Intelligenz lassen sich Deepfakes leicht und massenhaft herstellen – eine Bedrohung für jeden Einzelnen und den demokratischen Diskurs. Doch das Recht stellt bereits heute wirksame Instrumente gegen Deepfakes parat. Sie gilt es konsequent anzuwenden und weiterzuentwickeln.

Der Begriff Deepfake ist in aller Munde. Das Kofferwort aus „Deep Learning“ und „Fake“ bezeichnet bildliche oder akustische Darstellungen von real existierenden Personen oder Ereignissen. Die KI-Verordnung (Verordnung 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz) liefert in Art. 3 Nr. 60 nun eine erste gesetzliche Definition: Danach ist ein Deepfake ein durch KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.

Bei Deepfakes von real existierenden Personen werden die Betroffenen in einem falschen Kontext gezeigt. Oftmals werden ihnen dazu buchstäblich Worte in den Mund gelegt, die sie nie gesagt haben. Solche Manipulationen sind zwar kein neues Phänomen. Neu sind aber die Möglichkeiten zur Herstellung von Deepfakes durch KI: Dadurch erreichen sie eine so hervorragende Qualität, dass sie nur ein geschultes Auge als Fälschung enttarnen kann. Und dank der massenhaften Verbreitung von KI-Tools ist die Anfertigung nicht mehr wenigen Spezialisten vorbehalten, sondern nahezu jedermann möglich.

Unerschöpfliches Gefahrenpotenzial

Dem Einsatz von Deepfakes sind kaum Grenzen gesetzt: Als harmlose Variante können sie der Kunst oder Unterhaltung dienen und sich dort leicht als „Fake“ zu erkennen geben. Sie werden aber auch eingesetzt, um den Ruf von Personen zu schädigen. Besonders perfide geschieht dies in Form von Fake Porns, in denen das Gesicht des Opfers in Darstellungen pornographischer Szenen eingefügt wird. Auch lässt sich der gute Ruf eines Opfers zu geschäftlichen Zwecken missbrauchen. So erging es beispielsweise dem bekannten Arzt und Moderator Eckart von Hirschhausen, der in Fake-Werbespots auftauchte und dort vermeintlich Abnehmprodukte anpries.

Nicht nur Privatpersonen, sondern auch Politiker und staatliche Institutionen können Opfer von Deepfakes werden: Im November 2023 tauchte im Netz ein Video von Bundeskanzler Olaf Scholz auf, der die Einleitung eines Parteiverbotsverfahrens gegen die Alternative für Deutschland (AfD) ankündigte. Im Vorspann wurden das Logo des Bundeskanzlers und der Bundesadler eingeblendet. Der Optik nach handelte es sich um ein offizielles Statement des Bundeskanzlers. Allerdings war das Video ein Deepfake des „Zentrums für politische Schönheit“, welches damit die Debatte um ein AfD-Verbot befeuern wollte.

Schutzschild „Allgemeines Persönlichkeitsrecht“

Wer Deepfakes gegen oder ohne den Willen der dargestellten Person verbreitet, verletzt ihr Allgemeines Persönlichkeitsrecht aus Art. 2 Abs. 1 i.V.m. Art. 1 GG. Es schützt das Recht des Einzelnen, selbst zu bestimmen, wie er sich in der Öffentlichkeit darstellen will (BVerfG NJW 2005, 3271, 3272). Als besondere Ausprägung des Allgemeinen Persönlichkeitsrechts schützt § 22 KUG das Recht am eigenen Bild, welches auch synthetisch hergestellte Bilder umfasst. Allerdings ist im Einzelfall das Vorliegen eines Ausnahmegrundes gemäß § 23 KUG zu prüfen; diese Vorschrift ist aufgrund der Öffnungsklausel in Art. 85 Abs. 2 DSGVO wohl nach wie vor anwendbar (vgl. Lennartz, NJW 2023, 2543, 3544). Ebenfalls vom Allgemeinen Persönlichkeitsrecht umfasst ist das bislang stiefmütterlich behandelte Recht an der eigenen Stimme (ausführlich dazu jüngst Engel-Bunsas, RDi 2025, 292).

Betroffenen von Deepfakes stehen Unterlassungs- und Beseitigungsansprüche aus § 1004 Abs. 1 BGB analog zu. Besonders schwerewiegende Verletzungen rechtfertigen sogar Schadensersatz gemäß § 823 BGB. Da Deepfakes in der Regel durch die Verarbeitung personenbezogener Daten erzeugt werden, kommt auch ein Schadensersatzanspruch nach Art. 82 DSGVO in Betracht.

Auch der Staat ist schutzwürdig

Neben Privatpersonen können sich auch staatliche Institutionen gegen Deepfakes zur Wehr setzen: Behördenbezeichnungen und Hoheitszeichen sind durch das Namensrecht in § 12 BGB geschützt. Daher war auch der Unterlassungsanspruch der Bundesregierung im Fall des Fake-Videos mit Olaf Scholz erfolgreich. Das Landgericht Berlin erblickte in dem Video die Gefahr einer „Zuordnungsverwirrung“: Da das Video auf YouTube eingestellt wurde, sei die Gefahr nicht am Maßstab eines informierten Fachpublikums, sondern der breiten Masse zu messen. Aus dieser Perspektive entstehe eine Zuordnungsverwirrung, weil das ganze Video darauf ausgerichtet sei, wie eine offizielle Regierungserklärung zu wirken. Aus Sicht des Durchschnittszuschauers sei nicht ohne weiteres zu erkennen gewesen, dass das Video nicht von der Bundesregierung stamme (LG Berlin v. 13.02.2024, Az. 15 O 579/23).

Deepfakes können gezielt eingesetzt werden, um das Vertrauen in staatliche Stellen zu untergraben. Daher besteht nicht nur die Möglichkeit, sondern auch die Pflicht des Staates, gegen solche Deepfakes gerichtlich vorzugehen. Behördennamen, Hoheitszeichen, ja sogar Gesicht und Stimme des Bundeskanzlers sind Insignien demokratisch legitimierter Macht. Sie gehören nicht in die Hände politischer Aktivisten oder Agitatoren.

Löschansprüche gegen Online-Plattformen

Im Fall von Olaf Scholz war der Hersteller des Fake-Videos bekannt. Meistens, vor allem bei einer Verbreitung über Online-Plattformen, weiß der Betroffene aber nicht, wer hinter dem Deepfake steht.

In diesem Fall kann der Betroffene den Plattformbetreiber zur Löschung auffordern. Zwar müssen die Plattformbetreiber aufgrund des Haftungsprivilegs aus Art. 6 Abs. 1 Digital Services Act (DSA) nicht von sich aus ihre Plattform nach rechtswidrigen Deepfakes durchsuchen. Der Betroffene kann aber den Plattformbetreiber abmahnen und den Betreiber so in von dem rechtswidrigen Deepfake in Kenntnis setzten. Das löst eine Prüfpflicht des Betreibers aus: Er muss nun nicht nur sicherstellen, dass der ursprüngliche Fake-Inhalt von seiner Plattform verschwindet. Auch sinngleiche, sprich nur leicht abgewandelte Deepfakes müssen gelöscht werden.

Aus diesem Grund sprach auch das Oberlandesgericht (OLG) Frankfurt am Main Eckart von Hirschhausen einen Anspruch gegen Facebook auf Unterlassung der Verbreitung sinngleicher Fake-Werbespots zu: Die Abmahnung von Hirschhausens habe eine Prüfpflicht von Facebook ausgelöst. Diese habe Facebook durch die Verbreitung sinngleicher Wiedergaben des ursprünglichen Deepfakes verletzt (OLG Frankfurt v. 04.03.2025, Az. Az. 16 W 10/25).

Kennzeichnungspflicht im AI Act

Ein weiteres Instrument gegen Deepfakes steht ab dem 02. Februar 2026 zur Verfügung: Dann gelten die Transparenzpflichten des Art. 50 KI-Verordnung. Nach dessen Absatz 4 müssen die Betreiber eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Betreiber ist jeder, der ein KI-System in eigener Verantwortung bei beruflicher oder nichtpersönlicher Tätigkeit verwendet (Art. 3 Nr. 4 KI-Verordnung).

Die Offenlegung, dass es sich um ein Deepfake handelt, muss spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden (Art. 50 Abs. 5 KI-Verordnung). Für Kunst, Kultur und Medien erleichtert Art. 50 Abs. 4 Satz 3 KI-Verordnung die Kennzeichnungspflicht: Ist der Deepfake offensichtlich Teil eines künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so darf die Offenlegung so erfolgen, dass sie die Darstellung oder den Genuss des Werks nicht beeinträchtigt.

In der Praxis müssen die vielen unbestimmten Rechtsbegriffe der Kennzeichnungspflicht noch präzisiert werden. Noch ist allerdings unklar, welche Behörden in Deutschland die Regelung überwachen werden. Die Länder wollen jedenfalls die Landesmedienanstalten für zuständig erklären, „soweit Rundfunkveranstalter und Anbieter von Telemedien betroffen sind, und die Aufsichtsmaßnahmen dem Schutz der Meinungsfreiheit oder Meinungsvielfalt dienen“ (§ 111 Abs. 5 Diskussionsentwurf Medienänderungsstaatsvertrag).

Was noch zu tun bleibt

Die leichte Herstellbarkeit und die massenhafte, meist anonyme Verbreitung von Deepfakes lassen den Kampf der Betroffenen auf den ersten Blick aussichtslos erscheinen. Doch das Recht hält bereits heute zahlreiche Instrumente gegen Deepfakes parat. Selbst ihre anonyme Verbreitung über Online-Plattformen muss nicht hingenommen werden: Die Plattformbetreiber sind nach Meldung rechtswidriger Inhalte zu ihrer Löschung verpflichtet – auch wenn sie durch Gerichtsverfahren regelmäßig an diese Pflicht erinnert werden müssen.

Gleichwohl darf das Recht nicht stehenbleiben. Regulierung, Rechtsprechung und Gesetzgebung müssen die Instrumente gegen Deepfakes, wenn nötig, weiter nachschärfen. Die Kennzeichnungspflicht in der KI-Verordnung ist bereits ein wichtiger Schritt, der – bei konsequenter Durchsetzung – das Gefahrenpotenzial von Deepfakes bändigen wird. Zusätzlich wird über die Notwendigkeit, die Verbreitung von Deepfakes im Strafgesetzbuch gesondert zu regeln, intensiv diskutiert. Und der europäische Gesetzgeber sollte darüber nachdenken, Online-Plattform im Kampf gegen die Verbreitung von Deepfakes noch stärker in die Pflicht zu nehmen.

Dr. Jörg Frederik Ferreau

Rechtsanwalt und Lehrbeauftragter für Medienrecht

Back To Top