Deep-Fake-Werbevideo mit Prominenten

Einleitung: Wenn die Realität gefälscht wird
Was wäre, wenn ein bekannter Arzt und Fernsehmoderator plötzlich öffentlich für dubiose Diätprodukte wirbt – obwohl er davon nie gehört hat? Genau das ist passiert – zumindest virtuell. In einem Deep-Fake-Werbevideo wurde Dr. Eckart von Hirschhausen mit täuschend echtem Gesicht und Ton als Unterstützer eines zweifelhaften Diätprodukts dargestellt. Das Video verbreitete sich viral über Facebook. Dabei handelte es sich um eine glatte Fälschung, die nicht nur seine Persönlichkeitsrechte, sondern auch das Vertrauen der Öffentlichkeit verletzte.
Der Fall ging vor Gericht – und das Oberlandesgericht Frankfurt am Main setzte in seinem Beschluss vom 04.03.2025 (Az. 16 W 10/25) ein wichtiges Zeichen: Social-Media-Plattformen wie Facebook (Meta) müssen nach einem Hinweis auf ein rechtswidriges Deep-Fake-Video nicht nur diesen konkreten Post löschen, sondern auch sinngleiche Inhalte proaktiv entfernen.
Warum dieses Urteil so bedeutsam ist, was genau entschieden wurde und was es für Betroffene wie Plattformbetreiber bedeutet, erklärt dieser Beitrag.
Der Sachverhalt: Deep-Fake, Diät, Desinformation
Dr. Eckart von Hirschhausen, Mediziner und bekannter Fernsehmoderator, entdeckte auf Facebook ein Deep-Fake-Werbevideo, das ihn in manipulierter Form als Unterstützer eines Abnehmprodukts darstellte. Dabei handelte es sich um ein synthetisches Video, das auf tatsächlichem Material aus TV-Auftritten basierte, aber durch KI-basierte Technologien (Deep-Learning-Verfahren) verändert wurde. Es entstand der falsche Eindruck, Dr. von Hirschhausen würde das Produkt ernsthaft empfehlen.
Worum es ging:
- Das Video bestand aus echten Sequenzen aus einer ARD-Talkshow, wurde aber technisch verändert (Mundbewegungen, Ton, Bildausschnitt), sodass sich ein völlig neuer Kontext ergab.
- Inhaltlich wurde behauptet, Dr. von Hirschhausen habe das Produkt mitentwickelt und getestet.
- Das Video verbreitete sich auf Facebook innerhalb kurzer Zeit stark.
- Nach einem Hinweis wurde es gelöscht.
- Kurz darauf tauchte ein inhaltlich identisches Video wieder auf, allerdings mit leicht veränderter Auflösung, leichtem Filter und minimal verändertem Schnitt.
Der betroffene Arzt forderte Meta auf, auch diese Variante zu löschen – doch das Unternehmen reagierte erst nach erneuter Aufforderung.
Die rechtliche Frage: Wann haftet eine Plattform?
Im Zentrum der Auseinandersetzung stand die Frage, welche Prüfpflichten eine Social-Media-Plattform nach einem Hinweis auf eine klare Persönlichkeitsrechtsverletzung hat.
- Muss die Plattform nur das konkrete, gemeldete Video löschen?
- Oder auch sinngleiche Inhalte, die technisch leicht verändert, aber inhaltlich identisch sind?
- Ab welchem Zeitpunkt besteht eine proaktive Pflicht zur Kontrolle?
Die Entscheidung des OLG Frankfurt am Main (Beschluss v. 04.03.2025 – 16 W 10/25)
Das OLG Frankfurt am Main entschied eindeutig zugunsten von Dr. von Hirschhausen und stellte die erweiterte Prüfpflicht von Plattformen klar heraus:
Ein Plattformbetreiber ist verpflichtet, nicht nur den konkret beanstandeten Inhalt zu entfernen, sondern auch gleichartige, sinngleiche Inhalte, sofern sie nach dem ersten Hinweis erneut veröffentlicht werden.
1. Prüfpflicht nach Kenntnis – nicht vorher
Zunächst bestätigte das Gericht die bestehende BGH-Rechtsprechung (z. B. „Blog-Eintrag“-Entscheidung, VI ZR 93/17): Plattformen trifft grundsätzlich keine generelle Vorabprüfungspflicht. Erst nach einem konkreten Hinweis auf eine rechtsverletzende Veröffentlichung entsteht eine sogenannte „Störerhaftung“.
2. Ausweitung auf sinngleiche Inhalte
Nach dem ersten Hinweis besteht eine erweiterte Prüfpflicht: Die Plattform muss dann auch vergleichbare Inhalte selbstständig identifizieren und entfernen – selbst wenn diese optisch leicht modifiziert sind.
Das OLG formuliert das folgendermaßen:
„In einem Fall, in dem die beanstandeten Inhalte durch bloße technische Variationen (z. B. Zuschnitt, Auflösung, Farbton) vom Original abweichen, aber inhaltlich identisch sind, ist von einer sinngleichen Verletzung auszugehen.“
3. Kein erneuter Hinweis erforderlich
Meta argumentierte, dass für jedes einzelne Video ein separater Hinweis notwendig sei. Das OLG widersprach dem ausdrücklich:
„Die erneute Inkenntnissetzung war nicht erforderlich. Die Plattform musste nach dem ersten Hinweis auch selbstständig nach sinngleichen Inhalten suchen und handeln.“
4. Technische Zumutbarkeit
Spannend ist auch die Frage, ob eine solche Prüfung technisch zumutbar ist. Das OLG bejahte dies ausdrücklich – gerade bei einem wirtschaftlich starken Unternehmen wie Meta:
„Von einem weltweit agierenden Konzern mit eigener KI-Infrastruktur kann erwartet werden, dass er technisch in der Lage ist, sinngleiche Inhalte aufzufinden und zu unterbinden.“
Bewertung: Was bedeutet das für Plattformbetreiber?
Diese Entscheidung ist ein Paradigmenwechsel im Umgang mit Deep-Fake-Inhalten auf Plattformen.
Für Plattformen wie Facebook, YouTube & Co. bedeutet das:
- Die reine Reaktion auf gemeldete Inhalte reicht nicht mehr aus.
- Nach einem ersten Hinweis besteht eine Pflicht zur systematischen Erkennung gleichartiger Verstöße.
- Auch leicht veränderte Versionen (z. B. andere Auflösung, neue Hintergrundmusik, Filter) müssen gelöscht werden, wenn sie inhaltlich gleich sind.
- Unternehmen müssen technische Tools einsetzen, um solche Inhalte automatisiert zu finden.
Bedeutung für Betroffene
Für Personen, deren Bild oder Stimme in Deep-Fakes verwendet wird (insbesondere Prominente), bedeutet das Urteil einen großen Gewinn:
- Der Schutz des Allgemeinen Persönlichkeitsrechts wird gestärkt.
- Es entsteht kein „Whack-a-Mole“-Effekt mehr, bei dem Betroffene immer wieder neue Varianten desselben Deep-Fakes melden müssen.
- Ein Hinweis genügt, um die Plattform zu proaktivem Handeln zu verpflichten.
Fazit: Ein Meilenstein gegen Deep-Fake-Missbrauch
Der Beschluss des OLG Frankfurt a.M. vom 04.03.2025 (Az. 16 W 10/25) markiert einen Wendepunkt im Umgang mit digitalem Persönlichkeitsrecht und der Verantwortlichkeit von Social-Media-Plattformen. In einer zunehmend durch Algorithmen gesteuerten Medienwelt, in der visuelle Inhalte blitzschnell erzeugt, bearbeitet und geteilt werden können, setzt das Gericht einen wichtigen Kontrapunkt: Plattformen dürfen sich nach einem konkreten Hinweis auf einen Rechtsverstoß nicht länger mit passivem Verhalten zufriedengeben.
Stattdessen verlangt das Gericht ein proaktives Handeln – und zwar in einem Bereich, der bislang juristisch eher diffus war: der Bereich der sinngleichen Inhalte, also solcher Inhalte, die sich von einem bereits gemeldeten Beitrag nur in ihrer äußeren Form geringfügig unterscheiden, in ihrer Wirkung und Aussage jedoch gleich sind.
Für Betroffene bedeutet das:
- Stärkerer Schutz der Persönlichkeit im digitalen Raum – ohne ständig „hinterherräumen“ zu müssen.
- Effizientere Rechtsdurchsetzung gegenüber Konzernen mit riesiger Reichweite und technischer Infrastruktur.
- Weniger Frust durch Copycats: Wer einmal eine Falschbehauptung oder einen manipulierten Inhalt entfernen lässt, soll nicht wieder bei null anfangen müssen.
Für Plattformbetreiber wie Meta (Facebook, Instagram) bedeutet das:
- Ein klarer Prüfmaßstab, der die bloße Reaktion auf Meldungen nicht mehr ausreichen lässt.
- Die Pflicht zur systematischen Erkennung und Entfernung gleichartiger Inhalte nach einem Ersthinweis – gerade bei wirtschaftlicher und technischer Überlegenheit.
- Ein deutlich gestiegenes Haftungsrisiko bei Untätigkeit, das zu spürbarem Reputations- und Kostenrisiko werden kann.
- Ein Weckruf, effektive Filtersysteme einzusetzen – sei es durch KI, Hashing-Verfahren oder visuelle Suchalgorithmen.
Für die Rechtslandschaft bedeutet das:
- Eine Fortentwicklung der Störerhaftung: Das OLG Frankfurt betont, dass eine Plattform, die einmal Kenntnis erlangt hat, aktiv werden muss – nicht nur beim gemeldeten Inhalt, sondern auch bei sinngleichen Varianten.
- Eine Konkretisierung des Umgangs mit Deep-Fake-Technologien im Kontext des allgemeinen Persönlichkeitsrechts.
- Eine Annäherung an den Digital Services Act (DSA), der europaweit strengere Vorgaben an Plattformen formuliert und auf mehr Transparenz sowie schnellere Reaktionszeiten bei Rechtsverstößen setzt.
- Eine wichtige Klarstellung für die gerichtliche Praxis: Der Betroffene muss nicht jede einzelne Variante selbst entdecken und melden, wenn bereits ein offensichtlich identischer Fall gerichtlich aufgezeigt wurde.
Ein starkes Signal gegen digitale Manipulation
Insgesamt ist der Beschluss des OLG Frankfurt mehr als nur eine Einzelfallentscheidung: Er ist ein starkes Signal an die Adresse internationaler Tech-Konzerne, die über Jahre hinweg ihre Verantwortung gegenüber Nutzern und Betroffenen oft nur auf expliziten Druck hin wahrgenommen haben.
Er zeigt, dass deutsches und europäisches Recht zunehmend dazu bereit ist, die digitale Öffentlichkeit nicht rechtsfrei agieren zu lassen – insbesondere dann nicht, wenn moderne Technologien wie Deep-Fakes Persönlichkeitsrechte in gravierender Weise verletzen.
Gleichzeitig wirkt die Entscheidung als präventives Schutzinstrument gegen Wiederholungstaten, indem sie dem „Copy-Paste-Prinzip“ von Desinformationskampagnen den rechtlichen Riegel vorschiebt. Wer eine rechtswidrige Fälschung nur leicht verändert erneut hochlädt, kann sich künftig nicht mehr auf ein Schlupfloch verlassen.
Ansprechpartner
Frank Weiß
Frank Weiß
Andere über uns
WEB CHECK SCHUTZ
Gestalten Sie Ihre Internetseite / Ihren Onlineshop rechts- und abmahnsicher.
Erfahren Sie mehr über die Schutzpakete der Anwaltskanzlei Weiß & Partner für die rechtssichere Gestaltung Ihrer Internetpräsenzen.