ITMR Schutz der Stimme vor KI Klon

Der Schutz der eigenen Stimme und der Missbrauch durch KI

Einordnung
11. Dezember 2023 KI-Stimme Persönlichkeitsrecht DSGVO Deepfake

Wer Stimmen per KI nachbildet, berührt regelmäßig nicht nur technische, sondern auch persönlichkeits- und datenschutzrechtliche Fragen. Der Beitrag ordnet einen frühen Problemaufriss ein und zeigt, warum das Thema heute noch in den Kernbereich von KI-Recht für Unternehmen fällt.

Schneller Einstieg

Worum es hier geht

Es geht um die rechtliche Einordnung von KI-generierten Stimmen, täuschend echten Imitationen und dem Missbrauch erkennbarer Personenstimmen.

Für wen das relevant ist

Relevant ist das Thema vor allem für Unternehmen, Agenturen, Creator, Plattformbetreiber, Kommunikationsverantwortliche und Personen mit erkennbarer öffentlicher Stimme.

Rechtlicher Kern

Im Mittelpunkt stehen das allgemeine Persönlichkeitsrecht, die DSGVO und bei synthetischen Audioinhalten zusätzlich Transparenzpflichten aus dem europäischen KI-Recht.

Was Sie mitnehmen

Kennzeichnung hilft gegen Täuschung, ersetzt aber keine tragfähige Einwilligung, Lizenz oder sonstige Rechtfertigung für die Nutzung einer erkennbaren Stimme.

Das Wichtigste in Kürze

  • Eine erkennbar nachgebildete Stimme kann auch dann rechtlich geschützt sein, wenn nicht die Originalaufnahme verwendet wird.
  • Bei KI-Stimmenklonen kommen Persönlichkeitsrecht und Datenschutzrecht nebeneinander in Betracht.
  • Seit dem Ausgangsbeitrag ist die praktische Relevanz gestiegen, weil synthetische Audioinhalte in Werbung, Plattformkommunikation und Content-Produktion deutlich näher an den Alltag herangerückt sind.
  • Die Transparenzpflichten des AI Act für Deepfakes und andere generative Inhalte ergänzen den Schutz vor Täuschung, lösen aber das Grundproblem einer unzulässigen Stimmennutzung nicht.
Stand April 2026

Die Ausgangsfrage ist heute noch schärfer konturiert. ITMR hat im September 2025 eine Entscheidung des LG Berlin II vom 20.08.2025 eingeordnet, in der die unerlaubte KI-Nachbildung einer markanten Sprecherstimme als rechtswidriger Eingriff behandelt wurde. Für die Praxis wichtig ist zudem, dass die Transparenzpflichten des AI Act für bestimmte generative Audio-, Bild- und Videoinhalte nach Angaben der Europäischen Kommission ab dem 2. August 2026 anwendbar werden.

Vertiefend: Recht an der eigenen Stimme: Unerlaubter KI-Stimmenklon führt zur ersten Verurteilung, IT-Recht.

Durch KI-Tools ist es möglich, jeder Person die gewünschten Worte in den Mund zu legen.

Dies birgt eine große Gefahr von Missbrauch. In jüngster Zeit kursierten immer wieder Fake-Videos im Internet. Mittels KI-Anwendungen können Stimmen täuschend echt imitiert werden. Die originale Stimme wird dabei meist aus Videosequenzen aus sozialen Netzwerken entnommen und kann dann geklont werden.

Zuletzt geschah dies bei dem ZDF-Nachrichtensprecher Christian Sievers. Das Video zeigte den Nachrichtensprecher, wie dieser im üblichen Format über ein vermeintlich lukratives Investment spricht. Zu Beginn des Jahres wurde ein Song von zwei Künstlern ohne deren Mitwirkung erschaffen. KI ahmte die Stimmen von Drake und The Weekend dabei täuschend echt nach. Auch im letzten Wahlkampf in den USA tauchten gefälschte Videos und Fotos auf. Diese Ereignisse zeigen, dass Fake-Videos dazu in der Lage sind, in fast allen Lebensbereichen Unwahrheiten zu verbreiten.

Das allgemeine Persönlichkeitsrecht aus Artikel 2 Absatz 1 in Verbindung mit Artikel 1 Absatz 1 Grundgesetz (GG) schützt etwa den Name und das Bild der in den Videos gezeigten Personen. Aber auch das einfachgesetzliche Datenschutzrecht kann Abhilfe leisten.

Als biometrische Daten sind Stimmen von Artikel 9 Absatz 1 Datenschutz-Grundverordnung (DSGVO) geschützt. Dort heißt es: Die Verarbeitung von genetischen Daten, biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person oder Gesundheitsdaten ist untersagt. Die Stimme stellt ein solches biometrisches Merkmal zur Identifizierung einer natürlichen Person dar. Soweit kein Erlaubnistatbestand aus Absatz 2 des Artikels 9 DSGVO vorliegt, ist die Verarbeitung dieser Daten untersagt. Eine Einwilligung nach Absatz 2 Buchstabe a DSGVO liegt in Fällen einer missbräuchlichen Verwendung der eigenen Stimme gerade nicht vor. Insbesondere bei Personen des öffentlichen Lebens kommt ein weiterer Erlaubnistatbestand in Betracht, nämlich Artikel 9 Absatz 2 Buchstabe e DSVGVO. Danach ist eine Verarbeitung erlaubt, wenn sie sich auf personenbezogene Daten bezieht, die die betroffene Person offensichtlich öffentlich gemacht hat. Dies erscheint aber fraglich. Solch eine Betrachtungsweise würde voraussetzen, dass beispielsweise Politiker gerade auf den Schutz ihrer personenbezogenen Daten verzichten, nur weil sie öffentlich auftreten. Dies liegt daher wohl fern. Wenn die eigene Stimme durch KI nachgebildet wird und missbräuchlich eingesetzt wird, ist dies nach alledem grundsätzlich von dem Schutz der DSGVO umfasst.

Sollte die Stimme einmal nicht unter den Schutz der DSGVO fallen, so kann sie dennoch durch das allgemeine Persönlichkeitsrecht geschützt sein. Bereits 1999 entschied der Bundesgerichtshof (Az. I ZR 49/97) in dem sog. Marlene Dietrich Urteil, dass nicht nur Bildnis und Name, sondern auch die Stimme als ein Wiedererkennungsmerkmal einer Person geschützt ist. Daneben sind aber auch vermögenswerte Interessen durch das allgemeine Persönlichkeitsrecht geschützt. Dies erkannte auch das Oberlandesgericht Hamburg bereits in einem Beschluss vom 08.05.1989 (Az. 3 W 45/89) an. In einem Werbespot wurde die Stimme des bereits verstorbenen Komikers Heinz Erhardt nachgeahmt. Dieser zeichnete sich seinerzeit durch seine Wortwahl und einen besonderen Stimmklang aus. Sein Sohn ging gegen diesen Werbespot vor. Das Oberlandesgericht untersagte in seinem Beschluss die weitere Ausstrahlung des Werbespots mit der Stimme und dem Sprachgebrauch von Heinz Erhardt.

Trotz aller neuen Entwicklungen kann der Schutz der Stimme durchgesetzt werden und der Missbrauch durch den Einsatz etwa von KI entgegengewirkt werden.

Was davon heute fortgilt

Der Beitrag bleibt in seinem Kern tragfähig. Wer eine Stimme technisch reproduziert oder täuschend echt imitiert, muss die rechtliche Prüfung nicht auf das Urheberrecht verengen. Im Vordergrund stehen häufig Persönlichkeitsrecht, Datenschutzrecht und bei öffentlicher Verbreitung zusätzlich Transparenz- und Täuschungsfragen.

  • Erkennbarkeit bleibt der zentrale Prüfpunkt. Maßgeblich ist nicht nur die Originalaufnahme, sondern auch die Wiedererkennbarkeit der betroffenen Person.
  • Kennzeichnung kann erforderlich sein, beseitigt aber eine fehlende Einwilligung oder fehlende Lizenz nicht.
  • Für Unternehmen gehört die Einordnung von Voice-Cloning-Konstellationen in den Zusammenhang von KI-Projekten und AI-Act-Fragen sowie von Vertrags-, Plattform- und Content-Prozessen.

Zuständiger Rechtsanwalt bei ITMR

Wenn es um KI-Stimmen, synthetische Inhalte, Plattformveröffentlichungen und die Verbindung von KI-Recht, IT-Recht und Persönlichkeitsrecht geht, liegt die Einordnung nahe an der Schnittstelle digitaler Produkte, öffentlicher Kommunikation und Compliance.

Jean Paul Bohne ist Fachanwalt für IT-Recht sowie Fachanwalt für Urheber- und Medienrecht und bei ITMR unter anderem im KI-Recht ausgewiesen.


„Der Schutz der eigenen Stimme und der Missbrauch durch KI“

von Laura Bindrich, wissenschaftliche Mitarbeiterin

Artikel teilen

Teilen Sie diesen Artikel mit Ihrem Netzwerk