Durch KI-Tools ist es möglich, jeder Person die gewünschten Worte in den Mund zu legen. Dies birgt eine große Gefahr von Missbrauch. In jüngster Zeit kursierten immer wieder Fake-Videos im Internet. Mittels KI-Anwendungen können Stimmen täuschend echt imitiert werden. Die originale Stimme wird dabei meist aus Videosequenzen aus sozialen Netzwerken entnommen und kann dann geklont werden.
Zuletzt geschah dies bei dem ZDF-Nachrichtensprecher Christian Sievers. Das Video zeigte den Nachrichtensprecher, wie dieser im üblichen Format über ein vermeintlich lukratives Investment spricht. Zu Beginn des Jahres wurde ein Song von zwei Künstlern ohne deren Mitwirkung erschaffen. KI ahmte die Stimmen von Drake und The Weekend dabei täuschend echt nach. Auch im letzten Wahlkampf in den USA tauchten gefälschte Videos und Fotos auf. Diese Ereignisse zeigen, dass Fake-Videos dazu in der Lage sind, in fast allen Lebensbereichen Unwahrheiten zu verbreiten.
Das allgemeine Persönlichkeitsrecht aus Artikel 2 Absatz 1 in Verbindung mit Artikel 1 Absatz 1 Grundgesetz (GG) schützt etwa den Name und das Bild der in den Videos gezeigten Personen. Aber auch das einfachgesetzliche Datenschutzrecht kann Abhilfe leisten.
Als biometrische Daten sind Stimmen von Artikel 9 Absatz 1 Datenschutz-Grundverordnung (DSGVO) geschützt. Dort heißt es: Die Verarbeitung von genetischen Daten, biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person oder Gesundheitsdaten ist untersagt. Die Stimme stellt ein solches biometrisches Merkmal zur Identifizierung einer natürlichen Person dar. Soweit kein Erlaubnistatbestand aus Absatz 2 des Artikels 9 DSGVO vorliegt, ist die Verarbeitung dieser Daten untersagt. Eine Einwilligung nach Absatz 2 Buchstabe a DSGVO liegt in Fällen einer missbräuchlichen Verwendung der eigenen Stimme gerade nicht vor. Insbesondere bei Personen des öffentlichen Lebens kommt ein weiterer Erlaubnistatbestand in Betracht, nämlich Artikel 9 Absatz 2 Buchstabe e DSVGVO. Danach ist eine Verarbeitung erlaubt, wenn sie sich auf personenbezogene Daten bezieht, die die betroffene Person offensichtlich öffentlich gemacht hat. Dies erscheint aber fraglich. Solch eine Betrachtungsweise würde voraussetzen, dass beispielsweise Politiker gerade auf den Schutz ihrer personenbezogenen Daten verzichten, nur weil sie öffentlich auftreten. Dies liegt daher wohl fern. Wenn die eigene Stimme durch KI nachgebildet wird und missbräuchlich eingesetzt wird, ist dies nach alledem grundsätzlich von dem Schutz der DSGVO umfasst.
Sollte die Stimme einmal nicht unter den Schutz der DSGVO fallen, so kann sie dennoch durch das allgemeine Persönlichkeitsrecht geschützt sein. Bereits 1999 entschied der Bundesgerichtshof (Az. I ZR 49/97) in dem sog. Marlene Dietrich Urteil, dass nicht nur Bildnis und Name, sondern auch die Stimme als ein Wiedererkennungsmerkmal einer Person geschützt ist. Daneben sind aber auch vermögenswerte Interessen durch das allgemeine Persönlichkeitsrecht geschützt. Dies erkannte auch das Oberlandesgericht Hamburg bereits in einem Beschluss vom 08.05.1989 (Az. 3 W 45/89) an. In einem Werbespot wurde die Stimme des bereits verstorbenen Komikers Heinz Erhardt nachgeahmt. Dieser zeichnete sich seinerzeit durch seine Wortwahl und einen besonderen Stimmklang aus. Sein Sohn ging gegen diesen Werbespot vor. Das Oberlandesgericht untersagte in seinem Beschluss die weitere Ausstrahlung des Werbespots mit der Stimme und dem Sprachgebrauch von Heinz Erhardt.
Trotz aller neuen Entwicklungen kann der Schutz der Stimme durchgesetzt werden und der Missbrauch durch den Einsatz etwa von KI entgegengewirkt werden.
„Der Schutz der eigenen Stimme und der Missbrauch durch KI“
von Laura Bindrich, wissenschaftliche Mitarbeiterin