ITMR KI Rechtsprechungsuebersicht

KI-Rechtsprechung: Leitentscheidungen, Linien und offene Fragen

Fachanwalt Medienrecht Urheberrecht IT-Recht Bohne

Jean Paul P. Bohne, LL.M., MM

Author
ITMR · Ratgeber · KI-Rechtsprechung

KI-Rechtsprechung: Leitentscheidungen, Linien und offene Fragen

Die deutsche und europäisch geprägte Rechtsprechung zu Künstlicher Intelligenz ist noch kein geschlossenes System. Sie ist aber weit genug entwickelt, um erste belastbare Linien zu erkennen: bei Trainingsdaten, reproduktionsnahen Outputs, Prüfungsleistungen, Deepfakes, Scoring, automatisierter Datenanalyse und der Frage, wann menschliche Verantwortung rechtlich greift.

Dieser Beitrag ordnet die wichtigsten Entscheidungen nicht nur chronologisch, sondern nach Konfliktachsen: Was lässt sich bereits verlässlich ableiten? Wo bleiben die Gerichte vorsichtig? Und welche Punkte sollten Unternehmen, Plattformen, Hochschulen, Kreative und Legal-Teams jetzt praktisch dokumentieren?

Stand: 26.04.2026 Primärseite: Künstliche Intelligenz Spezialseite: AI Act umsetzen Rechtsgebiete: Urheberrecht, Datenschutzrecht, Medienrecht
Kurzfazit

Die KI-Rechtsprechung verdichtet sich derzeit entlang von vier Konfliktachsen: Datennutzung, Outputnähe, Identitätsschutz und Verantwortungszuordnung. Am weitesten fortgeschritten ist die Entwicklung im Urheberrecht, im Prüfungsrecht sowie in daten- und persönlichkeitsrechtlichen KI-Konstellationen. Besonders wichtig sind Entscheidungen zu Text und Data Mining, LLM-Memorisierung, KI-generierten Bildern, unerlaubter ChatGPT-Nutzung in Prüfungen, Deepfakes, Voice Cloning, Scoring, automatisierter Datenanalyse und dem patentrechtlichen Erfinderbegriff. Zu letzterem gibt es eine höchstrichterliche Entscheidung; im Übrigen stehen Klärungen durch EuGH und BGH überwiegend aus.

Stand April 2026

Neu aufgenommen ist die Entscheidung des Oberlandesgerichts (OLG) Düsseldorf vom 2. April 2026 zur KI-Bildgenerierung auf Grundlage eines vorhandenen Fotos.

Relevanz: Das Gericht trennt besonders klar zwischen der Werkqualität des KI-Ergebnisses, dem menschlichen Gestaltungsbeitrag und der Frage, ob schutzbegründende Merkmale des Ausgangsbildes übernommen wurden.

Kernsatz 1

Aus der bisherigen Rechtsprechung folgt kein allgemeiner Freibrief für KI-Training. Entscheidend bleiben Nutzungshandlung, Schranke, Vorbehalt, Datenkontext und Outputnähe.

Kernsatz 2

Bei LLMs verlagert sich der Blick zunehmend auf reproduktionsnahe Ausgaben. Einfache Prompts können rechtlich erheblich werden, wenn sie geschützte Inhalte deutlich wiedererkennbar hervorrufen.

Kernsatz 3

Die bloße Auswahl eines KI-Ergebnisses reicht für urheberrechtliche Werkqualität nicht aus. Schutzfähig wird ein Ergebnis erst, wenn ein greifbarer menschlicher Gestaltungsbeitrag sichtbar wird.

Kernsatz 4

Im Prüfungsrecht ersetzt KI-Erkennungssoftware keine tragfähige Beweiswürdigung. Entscheidend ist eine Gesamtbetrachtung aus Regeln, Arbeitsprodukt, Indizien und Einzelfallumständen.

1. Einordnung

Die aktuelle Rechtsprechung sollte nach unserer Auffassung weder als bloße Folge medienwirksamer Entscheidungen noch als bereits abgeschlossenes System gelesen werden. In einzelnen Feldern zeichnet sich inzwischen eine vergleichsweise klare Richtung ab. Daneben stehen Bereiche, in denen die Gerichte die dogmatischen Grundlagen erst allmählich schärfen. Wer beides nicht sauber trennt, wird dem gegenwärtigen Stand kaum gerecht.

Ausgangspunkt

Für die rechtliche Bewertung kommt es regelmäßig weniger auf den Oberbegriff „KI“ an als auf die konkrete Nutzung: Woher stammen die Daten? Welche technische Funktion erfüllt der Einsatz? Wie nah kommt der Output an ein geschütztes Werk oder an eine identifizierbare Person heran? Und wer steuert, kontrolliert und verantwortet den Prozess?

2. Leitentscheidungen, Signalentscheidungen und offene Felder

Der derzeit aussagekräftigste Bestand ergibt sich nicht aus lückenloser Breite, sondern aus einigen klar konturierten Blöcken. Offene Volltexte oder gut zugängliche gerichtliche Veröffentlichungen liegen insbesondere für die Entscheidung des Bundesverfassungsgerichts (BVerfG) zu Palantir, die Münchner Prüfungsfälle, die DABUS-Entscheidung des Bundesgerichtshofs (BGH), die Entscheidungen des Landgerichts (LG) und des Hanseatischen Oberlandesgerichts (OLG) Hamburg zu LAION, die Entscheidung des Oberlandesgerichts (OLG) Köln zu Meta AI, den Beschluss des Oberverwaltungsgerichts (OVG) Nordrhein-Westfalen, die Entscheidung des Verwaltungsgerichts (VG) Hamburg, die Entscheidung des Verwaltungsgerichts (VG) Wiesbaden sowie die Entscheidung des Oberlandesgerichts (OLG) Düsseldorf vor.

Andere Entscheidungen sind fachlich relevant, müssen wegen der offeneren Quellenlage aber behutsamer eingeordnet werden. Das gilt vor allem dort, wo nur Presseberichte, knappe Metadaten oder stark verkürzte Wiedergaben zugänglich sind.

Leitentscheidungen

LAION, GEMA gegen OpenAI, OLG Düsseldorf, OVG Nordrhein-Westfalen, OLG Köln, Palantir und DABUS bilden derzeit den belastbarsten Kern dieser Übersicht.

Signalentscheidungen

Weitere Fälle vertiefen einzelne Probleme, etwa zu Persönlichkeitsrecht, Halluzinationen oder Voice Cloning, ohne bereits dieselbe dogmatische Dichte zu erreichen.

Offene Felder

Besonders offen bleiben bisher allgemeine Haftungsmodelle für fehlerhafte KI-Outputs, viele wettbewerbsrechtliche KI-Claims und ein großer Teil des HR- und Produkthaftungsumfelds.

2. Die derzeit wichtigsten Leitentscheidungen

Für die Praxis sind nicht alle Entscheidungen gleich wichtig. Besonders aussagekräftig sind die Fälle, die über den Einzelfall hinaus eine wiederkehrende rechtliche Prüfungslogik sichtbar machen.

Urheberrecht · Training

LAION

Text und Data Mining, Nutzungsvorbehalt, § 44b UrhG und die Frage, wie Datensatzbildung, Analyse und Training rechtlich auseinanderzuhalten sind.

Urheberrecht · Output

GEMA gegen OpenAI

Der derzeit schärfste Referenzfall für LLM-Memorisierung, einfache Prompts, outputnahe Reproduktion und Zurechnung.

Bildgenerierung

OLG Düsseldorf

Werkqualität des KI-Ergebnisses, menschlicher Gestaltungsbeitrag und Abstand zum Ausgangsbild bei Bild-zu-Bild-Konstellationen.

Prüfungsrecht

OVG Nordrhein-Westfalen

Eigenständigkeit der Prüfungsleistung, Beweiswürdigung und Täuschung im schulischen Kontext.

Datenschutz

OLG Köln

Training mit Nutzerdaten im konkreten Eilverfahren, berechtigtes Interesse und begrenzte Reichweite.

Grundrechte · Patente

Palantir / DABUS

Automatisierte Analyse als Grundrechtsthema und der Erfinderbegriff im Patentrecht als weiterhin menschlich verstandene Kategorie.

Leitentscheidungs-Matrix: Welche Entscheidung wofür steht

Die folgende Matrix ist der schnelle juristische Kompass. Sie zeigt, welche Entscheidung für welches Rechtsproblem besonders relevant ist und was daraus gerade nicht vorschnell abgeleitet werden sollte.

Rechtsproblem
Referenzentscheidung
Kernaussage
Nicht vorschnell ableiten
KI-Training und Datensatzbildung
LAION / OLG Hamburg
Datensatzbildung, Analyse, Training und Output müssen getrennt geprüft werden; Nutzungsvorbehalte können entscheidend sein.
Keine pauschale Freigabe jedes KI-Trainings.
LLM-Memorisierung
LG München I / GEMA gegen OpenAI
Einfache Prompts können relevant sein, wenn geschützte Inhalte deutlich wiedererkennbar ausgegeben werden.
Keine starre Schwelle für jede fragmentarische Ausgabe.
KI-Bildgenerierung
OLG Düsseldorf
Werkqualität verlangt menschlich-schöpferische Einflussnahme; zugleich muss die Übernahme schutzbegründender Merkmale gesondert geprüft werden.
Kein Automatismus: weder Schutz noch Verletzung allein wegen KI-Einsatzes.
ChatGPT in Prüfungen
OVG NRW, VG München, VG Hamburg, VG Kassel
Unerlaubte KI-Nutzung kann Täuschung sein; Detektoren ersetzen aber keine Gesamtwürdigung.
Keine Sanktion ohne tragfähige Regeln, Indizien und Verfahrensgrundlage.
Training mit Nutzerdaten
OLG Köln / Meta AI
Art. 6 Abs. 1 lit. f DSGVO kann im konkreten Eilverfahren tragen, wenn Interessenabwägung und Schutzmaßnahmen überzeugen.
Keine allgemeine DSGVO-Freigabe für jedes Modelltraining.
Automatisierte Datenanalyse
BVerfG / Palantir
Je tiefer Analyse in sensible Freiheitsbereiche eingreift, desto präziser muss die gesetzliche Grundlage sein.
Kein bloß technisches Beschaffungsthema.

Vertiefende ITMR-Fallbesprechungen zu einzelnen Entscheidungen

Diese Übersicht ordnet die Rechtsprechungslinien zusammenhängend ein. Einzelne Entscheidungen und Teilfragen hat ITMR bereits gesondert vertieft. Die folgenden Beiträge sind daher als Fallbesprechungen und Ergänzungen zu lesen, nicht als Ersatz für die übergreifende Einordnung.

KI-Training und LAION

LAION-Entscheidung zu KI-Trainingsdaten: Vertiefung zu § 44b UrhG, Trainingsdatensätzen, Nutzungsvorbehalten und urheberrechtlichen Schranken.

GEMA, Musik-KI und OpenAI-Kontext

GEMA-Verfahren zu Musik-KI und OpenAI-Kontext: Einordnung zu Musikrepertoire, Training, Outputnähe, Lizenzierung und GPAI-Pflichten.

KI-Bilder und Logos

Urheberrecht an KI-Bildern und KI-Logos: Vertiefung zu Schutzfähigkeit, menschlichem Gestaltungsbeitrag und KI-generierten visuellen Ergebnissen.

KI-Song und menschlicher Werkanteil

Urheberrecht für Teil-KI-Texte im KI-Song: Fallbesprechung zur Frage, ob menschliche Textbestandteile durch KI-Einsatz ihren Schutz verlieren.

Meta AI und Nutzerdaten

OLG Köln zu Meta AI und KI-Training mit Nutzerdaten: Vertiefung zur datenschutzrechtlichen Interessenabwägung bei KI-Training mit Plattformdaten.

DABUS und Patentrecht

BGH zu DABUS: KI ist kein Erfinder: Einordnung zur Erfinderbenennung, menschlichen Zuschreibung und KI-gestützten Entwicklungsprozessen.

KI-Stimmenklon

Recht an der eigenen Stimme bei KI-Stimmenklonen: Vertiefung zu Wiedererkennbarkeit, Einwilligung, kommerzieller Nutzung und Persönlichkeitsrecht.

KI in Unternehmen

ChatGPT und KI in Unternehmen: Ergänzung zu beruflicher KI-Nutzung, Output-Prüfung, Haftungsrisiken, DSGVO und Compliance.

Linklogik

Die Blogbeiträge vertiefen einzelne Fälle und Spezialfragen. Der vorliegende Beitrag bleibt der übergreifende Rechtsprechungsüberblick; die Primärseite für KI-Recht bleibt Künstliche Intelligenz, die operative Umsetzung führt zu AI Act umsetzen.

Breite Einordnung

Für die übergreifende rechtliche Einordnung von KI-Systemen ist in erster Linie die Seite Künstliche Intelligenz einschlägig.

Operative Umsetzung

Wo aus Rechtsprechung konkrete Pflichtenprogramme, Governance oder Audit-Fragen folgen, führt der nächste sinnvolle Schritt häufig zu AI Act umsetzen.

Clusterkontext

Der Beitrag gehört in den größeren Zusammenhang von IT-Recht und Digitalisierung und bleibt dort bewusst Supporting Content.

Begriffe, die sauber getrennt werden müssen

Generative KI

Systeme, die neue Texte, Bilder, Audio, Video oder Code erzeugen.

Text und Data Mining

Analyse großer Datenbestände zur Erkennung von Mustern und Strukturen; im Urheberrecht regelmäßig mit Schrankenfragen verknüpft.

LLM-Memorisierung

Konstellation, in der ein Modell Inhalte nicht nur statistisch verarbeitet, sondern reproduktionsnah wieder ausgeben kann.

Halluzination

Sachlich unzutreffender Output mit dem Anschein autoritativer Richtigkeit.

Voice Cloning

Synthetische Nachbildung einer konkret wiedererkennbaren Stimme.

Scoring

Datengetriebene Bewertung, die für Betroffene wirtschaftliche oder rechtliche Folgen haben kann.

3. Urheberrecht: Text und Data Mining, Training, LLM-Memorisierung und KI-Outputs

Das Urheberrecht ist derzeit der sichtbarste Schauplatz der KI-Rechtsprechung. Die Entscheidungen zeigen aber gerade nicht, dass alle KI-Fragen urheberrechtlich gleich zu behandeln wären. Vielmehr muss getrennt werden zwischen Datenbeschaffung, temporären Kopien, Datensatzbildung, Training, Modellverhalten, konkretem Output und einer möglichen eigenen Schutzfähigkeit des KI-Ergebnisses.

LAION: KI-Training, Text und Data Mining und der Nutzungsvorbehalt

Die Hamburger LAION-Entscheidungen ordnen die urheberrechtliche Diskussion in einer Weise, die für die Praxis erhebliches Gewicht hat. Es geht gerade nicht um die schlichte Aussage, KI-Training sei generell erlaubt oder generell unzulässig. Im Mittelpunkt steht die konkrete Nutzungshandlung: Welche Kopie entsteht, welche Funktion hat der Datensatz, welche Schranke kommt in Betracht und welche Bedeutung haben erklärte Vorbehalte gegen bestimmte Nutzungen?

Für die anwaltliche Einordnung ist wesentlich, Datensatzbildung, Analyse, Training und späteren Modelloutput nicht vorschnell in einen Topf zu werfen. Wer Inhalte sammelt, aufbereitet, indexiert oder in Trainingsumgebungen einbindet, sollte diese Schritte getrennt prüfen und dokumentieren. Gerade darin liegt die praktische Aussagekraft der Hamburger Verfahren.

Das Hanseatische Oberlandesgericht (OLG) Hamburg stellt ausdrücklich auf § 44b UrhG ab. Ein Nutzungsvorbehalt muss in der gesetzlich vorgesehenen Form, also „maschinenlesbar“, erklärt werden.

GEMA gegen OpenAI: LLM-Memorisierung, Output und urheberrechtliche Zurechnung

Die Münchner Entscheidung verdient mehr Gewicht, als sie in vielen Übersichten bislang erhält. Sie ist nicht nur ein weiterer urheberrechtlicher Einzelstreit, sondern ein präziser Hinweis darauf, wo sich die juristische Diskussion verlagert: weg von der bloßen Frage, ob Trainingsdaten genutzt wurden, hin zu der Frage, ob sich geschützte Inhalte aus dem System mit einfachen Eingaben wieder abrufen lassen.

Das Landgericht (LG) München I formuliert in seinem redaktionellen Leitsatz ausdrücklich, dass ein „einfach gehaltene[r] Prompt“ für die richterliche Überzeugungsbildung ausreichen kann, um eine Memorisierung festzustellen. Im Urteil selbst heißt es, die Liedtexte seien durch „sehr einfach gehaltene[] Prompts“ deutlich wiedererkennbar ausgegeben worden. Gerade diese Schlichtheit der Abfragen macht die Entscheidung so bedeutsam. Es geht nicht um provozierte Grenztests, sondern um die Frage, ob das Modell bei naheliegenden Nutzeranfragen in einen urheberrechtlich heiklen Bereich kippt.

Hinzu kommt ein zweiter Punkt, der für die Praxis kaum weniger bedeutsam ist. Das Gericht ordnet die Verantwortung nicht reflexhaft dem Nutzer zu. Vielmehr hebt es hervor, dass die Beklagten die Modelle bereitstellen, die Trainingsdaten verarbeitet haben und dass bei „derart offener Prompts“ die Verletzung nicht dem Nutzer zugeschrieben werden könne. An anderer Stelle spricht das Urteil davon, dass die Ausgabe „deutlich wiedererkennbar“ gewesen sei. Wer Systeme anbietet, sollte diese Passagen ernst nehmen. Sie betreffen nicht nur die Modellarchitektur, sondern ebenso Produktgestaltung, Output-Kontrolle und Risikosteuerung.

Warum das Gewicht hat

Die Entscheidung schärft den Blick für outputnahe Urheberrechtsverletzungen. Für generative Systeme ist das praktisch oft näher am Alltag als die abstrakte Debatte über den Trainingsvorgang.

Was weiter offen bleibt

Weiter offen bleiben insbesondere Grenzfälle fragmentierter Ausgaben, teilweise rekonstruierter Inhalte und die genaue Schwelle, ab der Werknähe rechtlich ausschlaggebend wird.

Oberlandesgericht Düsseldorf: KI-Bildgenerierung, Werkqualität und Abstand zum Ausgangsbild

Neu hinzugekommen ist die Entscheidung des Oberlandesgerichts (OLG) Düsseldorf vom 2. April 2026. Ausgangspunkt war eine Fotografie, die in eine KI-Software hochgeladen wurde, um daraus eine neue Abbildung zu erzeugen. Der Senat verneint zunächst eine freie Bearbeitung im Sinne des § 23 Abs. 1 Satz 2 Urheberrechtsgesetzes (UrhG), weil es dafür nach dem Wortlaut der Norm eines neuen „Werkes“ bedarf und ein KI-generiertes Ergebnis diese Werkqualität nur erreicht, wenn sich darin trotz des softwaregesteuerten Prozesses freie kreative Entscheidungen eines Menschen widerspiegeln.

Damit macht das Gericht zweierlei deutlich. Erstens genügt es nicht, auf das Schlagwort „freie Bearbeitung“ zu verweisen, wenn unklar bleibt, ob der KI-Output selbst überhaupt Werkqualität besitzt. Zweitens verlangt das Gericht für die Annahme eines geschützten KI-Ergebnisses eine menschlich-schöpferische Einflussnahme auf die konkrete Gestaltung, etwa durch individuelle Voreinstellungen oder einen prägenden Selektionsprozess. Besonders deutlich wird das in der Formulierung, die „bloße Auswahl eines KI-Erzeugnisses“ sei „nicht ausreichend“.

Gleichzeitig verneint das Oberlandesgericht (OLG) Düsseldorf eine Verletzung des ursprünglichen Lichtbildwerkes. Maßgeblich sei, dass die eigenpersönlichen Merkmale des Ausgangsbildes nicht übernommen würden und das Motiv als solches nicht am urheberrechtlichen Schutz teilhabe. Auch das Leistungsschutzrecht aus § 72 UrhG sei aus demselben Grund nicht berührt.

Bedeutung der Düsseldorfer Entscheidung

Die Entscheidung ist für die Praxis vor allem deshalb interessant, weil sie zwei Fragen sauber trennt: die Werkqualität des KI-Ergebnisses einerseits und die Übernahme schutzbegründender Merkmale des Ausgangswerks andererseits. Wer mit Bild-zu-Bild-KI arbeitet, sollte genau an dieser Trennlinie ansetzen.

SunoAI und KI-Logos: Der menschliche Anteil bleibt entscheidend

Die Entscheidungen aus Frankfurt am Main und München führen einen weiteren Strang zusammen. Im Frankfurter KI-Song-Kontext bleibt der Schutz menschlicher Werkbestandteile erhalten, obwohl KI-Systeme im weiteren Produktionsprozess eingesetzt werden. Umgekehrt zeigt die Münchner Logo-Entscheidung, dass rein KI-generierte Ergebnisse urheberrechtlich rasch an Grenzen stoßen, wenn der menschliche Beitrag sich in allgemeiner Steuerung erschöpft.

Für die Praxis

Wer KI-erzeugte Inhalte exklusiv verwerten, lizenzieren oder gegen Dritte verteidigen möchte, sollte den menschlichen Gestaltungsbeitrag möglichst konkret dokumentieren. Je undeutlicher dieser Beitrag bleibt, desto angreifbarer wird die eigene Rechtsposition.

Was Unternehmen dokumentieren sollten
  • Herkunft, Rechtekette und Nutzungsbedingungen relevanter Trainings-, Referenz- oder Eingabedaten.
  • Unterscheidung zwischen Datensatzbildung, Analyse, Training, Prompting, Auswahl und Nachbearbeitung.
  • Menschliche Gestaltungsschritte bei KI-gestützten Texten, Bildern, Musikstücken, Logos oder sonstigen Assets.
Was riskant bleibt
  • Werknaher Output ohne Filter-, Prüf- oder Eskalationsprozess.
  • Exklusivverwertung rein KI-generierter Assets ohne dokumentierten menschlichen Gestaltungsanteil.
  • Unklare Produktkommunikation zu Schutzfähigkeit, Rechteinhaberschaft und Trainingsdaten.

4. Prüfungsrecht: KI-Täuschung, Indizienbeweis und Sanktionen

Kaum ein Bereich hat sich so schnell verdichtet wie das Prüfungsrecht. Die Beschlüsse des Verwaltungsgerichts (VG) München, die Entscheidung des Oberverwaltungsgerichts (OVG) Nordrhein-Westfalen, der Hamburger Schulfall und die Kasseler Urteile zeigen gemeinsam, dass Gerichte die unerlaubte Nutzung generativer KI nicht als bloßes Ordnungsthema behandeln, sondern als Frage der Eigenständigkeit der Prüfungsleistung.

Verwaltungsgericht München: ChatGPT, KI-Täuschung und Indizienbeweis

Die Münchner Entscheidungen sind besonders aufschlussreich, weil sie die Diskussion vom reinen Techniknachweis lösen. Ein Detektor für KI-Texte genügt nicht. Maßgeblich ist vielmehr eine Gesamtwürdigung: Sprachbild, Brüche im Arbeitsprodukt, Vergleich mit sonstigen Leistungen, Widersprüche in Darstellung und Bearbeitungssituation. Die Täuschungsfrage wird damit in eine klassische prüfungsrechtliche Beweisstruktur eingebettet.

Oberverwaltungsgericht Nordrhein-Westfalen und Verwaltungsgericht Hamburg: Eigenständigkeit und Schulprüfung

Der Beschluss des Oberverwaltungsgerichts (OVG) Nordrhein-Westfalen bringt den Kern klar auf den Punkt: Täuschung liegt vor, wenn eine eigenständige und reguläre Prüfungsleistung vorgespiegelt wird, obwohl tatsächlich unzulässige Hilfe eingesetzt wurde. Für die Überzeugungsbildung des Senats war dabei unter anderem wichtig, dass „belastbare Tatsachen“ für die behauptete Vorbereitung fehlten und dass die mit ChatGPT erzeugte Lösung der abgegebenen Lösung „in auffallendem Maße“ ähnelte. Der Hamburger Schulfall fügt sich in dieses Bild ein.

Verwaltungsgericht Kassel: Sanktionen können deutlich ausfallen

Die Kasseler Entscheidungen verschärfen den praktischen Blick noch einmal. Unerlaubte generative KI-Nutzung muss nicht bei einer bloßen Abwertung stehen bleiben. Je nach Prüfungsordnung und Einzelfall können schwerere Folgen in Betracht kommen. Gerade deshalb sollten Hochschulen und Bildungsträger ihre Regelwerke, Offenlegungsanforderungen und Verfahrensdokumentation besonders sorgfältig überprüfen.

Nicht verkürzen

Prüfungsrechtliche KI-Fälle sollten nicht allein über Detektionssoftware entschieden werden. Benötigt wird eine nachvollziehbare Würdigung aus Regelverstoß, Indizien, Vergleichsmaterial, Anhörung und Verfahrensdokumentation.

Praktischer Schluss

Schulen, Hochschulen und Arbeitgeber sollten erlaubte KI-Assistenz, Offenlegungspflichten und unzulässige Fremdleistung klar trennen. Unklare Regeln erzeugen vermeidbare Angriffsflächen.

5. Persönlichkeitsrecht und Medienrecht: Deepfakes, Voice Cloning und Fake-Werbung

Der Deepfake-Beschluss des Oberlandesgerichts (OLG) Frankfurt am Main und der Berliner Voice-Cloning-Fall gehören in denselben Problemkreis: KI simuliert nicht nur Inhalte, sondern Identität. Es geht deshalb nicht allein um technische Manipulation, sondern um Wiedererkennbarkeit, Zuordnung, wirtschaftliche Nutzung und den Schutz der persönlichen Sphäre insgesamt.

Für die Praxis liegt die Nähe zu Medienrecht, Persönlichkeitsrecht und Reputationsschutz auf der Hand. Wer KI-generierte Stimmen, Bilder, Testimonials oder werbliche Zuordnungen nutzt, sollte vor Veröffentlichung klären, ob eine reale Person erkennbar betroffen ist, ob eine Einwilligung erforderlich ist und ob Plattform- oder Takedown-Prozesse greifen müssen.

Deepfakes

Nach einem Hinweis auf einen rechtsverletzenden Deepfake darf die Prüfung nicht formal auf einen einzelnen Fundort verengt werden. Wer Kenntnis hat, muss sich mit gleichartigen Verletzungsformen ernsthaft auseinandersetzen.

Voice Cloning

Die Stimme ist in kommerziellen oder reputationsrelevanten Zusammenhängen kein rechtsfreier Rohstoff. Wiedererkennbarkeit, Zuweisung und wirtschaftlicher Wert stehen hier schnell im Mittelpunkt.

6. Haftung für KI-Outputs und Plattformverantwortung

Die Rechtsprechung ist in diesem Bereich noch nicht so weit ausgeformt wie im Urheber- oder Prüfungsrecht. Die offen diskutierten Fälle aus Kiel und Hamburg lassen aber erkennen, worum es künftig gehen wird: Wer KI-Systeme nach außen als Kommunikations-, Assistenz- oder Auskunftsinstrument einsetzt, kann sich nicht schlicht auf deren technische Eigenlogik zurückziehen.

Entscheidend werden insbesondere Rolle, Kontrollmöglichkeit, Einsatzkontext, Kenntnis, Reaktion und organisatorische Absicherung. Für Unternehmen, Plattformen und Agenturen überschneidet sich diese Frage häufig mit IT-Recht, Vertragsgestaltung, Produktkommunikation, Support-Prozessen und Compliance. Gerade deshalb lohnt es sich, diese Entscheidungen bereits jetzt mitzudenken, auch wenn sie noch keine umfassende Grundsatzrechtsprechung bilden.

7. Datenschutz, Meta AI, Palantir und SCHUFA-Scoring

Bundesverfassungsgericht zu Palantir: automatisierte Datenanalyse und Grundrechtsschutz

Die Entscheidung des Bundesverfassungsgerichts (BVerfG) ist für KI-Recht im weiteren Sinne zentral, weil sie zeigt, wie automatisierte Datenanalyse verfassungsrechtlich einzuordnen ist. Beanstandet wird nicht schlicht der Einsatz von Software, sondern die Unklarheit und Weite der normativen Grundlage. Je tiefer automatisierte Analyse in sensible Lebens- und Freiheitsbereiche eingreift, desto präziser muss die gesetzliche Struktur ausfallen.

Oberlandesgericht Köln zu Meta AI: Training mit Nutzerdaten und begrenzte Reichweite

Die Kölner Entscheidung ist in der öffentlichen Wahrnehmung schnell als Freigabe für KI-Training gelesen worden. So würden wir sie nicht verstehen. Es handelt sich um ein Eilverfahren zur angekündigten Nutzung öffentlich gestellter Daten erwachsener Nutzerinnen und Nutzer auf Facebook und Instagram. Im Mittelpunkt steht eine konkrete Prüfung von berechtigtem Interesse, Erforderlichkeit, Eingriffsabschwächung, Umgang mit sensiblen Daten und Gesamtgewichtung. Schon deshalb verbietet sich eine pauschale Übertragung auf jede Form des Modelltrainings.

Die Reichweite der Entscheidung bleibt begrenzt. Weder beantwortet sie die datenschutzrechtliche Zulässigkeit sämtlicher Trainingskonstellationen noch ersetzt sie die Prüfung der konkreten Datenarchitektur. Wo aus solchen Konstellationen konkrete Umsetzungsfragen folgen, liegt die operative Vertiefung regelmäßig näher bei /ai-act-umsetzen als bei einer bloßen Fallbesprechung.

Verwaltungsgericht Wiesbaden zur SCHUFA: Scoring, Transparenz und Auskunft

Das Wiesbadener Urteil betrifft nicht generative KI im engeren Sinne, gehört aber in jede ernsthafte KI-Rechtsprechungsübersicht. Wo Daten verarbeitet, bewertet und zu wirksamen Scores verdichtet werden, reichen abstrakte Hinweise nicht. Transparenz und aussagekräftige Informationen über die Funktionsweise des Systems bleiben zentral.

Unser Eindruck aus der Praxis

Im Datenkontext entscheidet sich die rechtliche Stabilität eines KI-Projekts häufig lange vor dem Go-live. Rechtsgrundlage, Erforderlichkeit, Begrenzung, Dokumentation und Betroffeneninformation müssen von Anfang an zusammenpassen. Werden diese Punkte erst nachträglich ergänzt, entstehen die späteren Angriffsflächen oft schon im Konzept.

8. Patentrecht: DABUS und der Erfinderbegriff

Mit DABUS hat der Bundesgerichtshof (BGH) klargestellt, dass eine KI nicht Erfinder im Sinne des deutschen Patentrechts sein kann. Das ist weniger eine technologische Wertung als eine begriffliche Präzisierung. Der Erfinderbegriff knüpft weiterhin an die natürliche Person an. Für KI-gestützte Entwicklungsprozesse bedeutet das allerdings nicht, dass Patente ausgeschlossen wären. Die rechtliche Zuschreibung muss nur weiterhin menschlich erfolgen.

Für technologieorientierte Unternehmen ist die Entscheidung deshalb praktisch: KI kann Werkzeug, Impulsgeber oder Bestandteil eines Entwicklungsprozesses sein. Die Erfinderbenennung, Dokumentation menschlicher Beiträge und interne IP-Governance bleiben aber menschlich zu organisieren. Berührungspunkte bestehen hier häufig auch zum gewerblichen Rechtsschutz.

Zeitliche Entwicklung in vier Linien

2023: Automatisierte Datenanalyse und ChatGPT in Prüfungen

Palantir und frühe Münchner Prüfungsfälle zeigen, dass KI nicht nur Technik-, sondern Grundrechts-, Verfahrens- und Eigenständigkeitsthema ist.

2024: DABUS, LAION und erste operative Streitfragen

Patentrecht, Text und Data Mining sowie ChatGPT am Arbeitsplatz machen sichtbar, dass KI-rechtliche Fragen in klassische Rechtsgebiete hineinwirken.

2025: Meta AI, GEMA/OpenAI, Deepfakes und Schulprüfung

Die Rechtsprechung schärft Datenschutz, Outputnähe, Identitätsschutz und Täuschungsfragen.

2026: KI-Bilder, Sanktionen und Schutzfähigkeit

Gerichte befassen sich stärker mit konkreten KI-Ergebnissen, menschlichem Gestaltungsbeitrag und Folgen unerlaubter Nutzung.

9. Linien und Spannungen

Wo sich eine Richtung erkennen lässt

  • Im Urheberrecht verschiebt sich der Blick von der abstrakten Trainingsfrage zunehmend auf outputnahe Reproduktion und auf die Anforderungen an menschliche Schöpfung bei KI-Ergebnissen.
  • Im Prüfungsrecht rückt an die Stelle bloßer KI-Erkennung die Gesamtwürdigung des Einzelfalls.
  • Im Persönlichkeitsrecht wird KI immer deutlicher als Identitäts- und Zuordnungsproblem behandelt.

Wo Zurückhaltung geboten bleibt

  • Bei der genauen Grenze zwischen zulässiger KI-Assistenz und Täuschung.
  • Bei der dogmatischen Ausgestaltung von Betreiber- und Plattformhaftung für Halluzinationen.
  • Bei der Reichweite von Trainings- und Datenverarbeitungsmodellen in komplexen Konstellationen.
Was sich bereits sagen lässt

Die Rechtsprechung arbeitet zunehmend heraus, dass Trainingsfrage, Outputfrage, Identitätsschutz und Verantwortungszuordnung nicht in einem Schritt beantwortet werden können. Gerade diese Trennung schafft für die Praxis mehr Klarheit.

Was sich daraus noch nicht ableiten lässt

Aus den bisherigen Entscheidungen folgt weder ein allgemeiner Freibrief für KI-Training noch ein pauschales Verbot generativer Systeme. Ebenso wenig gibt es bislang eine starre Formel für jede Täuschungskonstellation oder eine umfassend ausformulierte Haftungsdogmatik für jeden fehlerhaften KI-Output.

10. Checkliste für Unternehmen, Plattformen, Hochschulen und Legal-Teams

Worauf es jetzt praktisch ankommt

Die folgenden Prüffelder zeigen, an welchen Stellen Risiken regelmäßig entstehen. Je mehr Punkte sauber abgedeckt sind, desto eher lässt sich der Einsatz von KI rechtlich belastbar aufsetzen. Zugleich wird sichtbar, wo Produktdesign, Kommunikation, Datenarchitektur und Governance besonders eng verzahnt werden sollten.

Trainings- und Datenebene

  • Ist die Herkunft der Daten dokumentiert?
  • Wird zwischen Datensatzbildung, Analyse, Training und Output sauber unterschieden?
  • Sind Vorbehalte, Opt-outs oder Nutzungsschranken erfasst?
  • Ist die Rechtsgrundlage für personenbezogene Daten nachvollziehbar begründet?
  • Gibt es eine belastbare Dokumentation der Eingriffsbegrenzung?

Output- und Produktseite

  • Gibt es Filter gegen werknahen oder identitätsnahen Output?
  • Sind Missbrauchs- und Eskalationspfade definiert?
  • Wird problematischer Output protokolliert und nachverfolgbar behandelt?
  • Sind Freigabe- und Review-Prozesse dokumentiert?
  • Besteht eine klare Verantwortungszuordnung für den Betrieb?

Prüfungs- und Arbeitskontexte

  • Sind erlaubte, beschränkt erlaubte und unzulässige KI-Nutzungen ausdrücklich geregelt?
  • Gibt es Offenlegungspflichten für KI-Unterstützung?
  • Wird Beweiswürdigung nicht auf Detektionssoftware verkürzt?
  • Sind Sanktionen klar an Regeln und Verfahren rückgebunden?
  • Ist die Eigenständigkeit der Leistung sauber definiert?

Persönlichkeits- und Plattformschutz

  • Gibt es Freigabelogiken für Stimme, Bild und Identitätsnähe?
  • Sind Notice- und Takedown-Prozesse bei Deepfakes und Voice Cloning belastbar?
  • Werden kommerzielle Zuordnungsrisiken gesondert geprüft?
  • Ist klar, wie mit gleichartigen Rechtsverletzungen nach Hinweis umzugehen ist?
  • Besteht eine dokumentierte Eskalation zwischen Produkt, Legal und Operations?

FAQ zu KI-Training, KI-Outputs, Prüfungen und Datenschutz

Ist KI-Training mit fremden Inhalten zulässig?

Nicht pauschal. Maßgeblich sind Nutzungshandlung, Schranke, Vorbehalt, Datenkontext und Outputnähe.

Welche Entscheidung ist für LLM-Memorisierung besonders wichtig?

Besonders wichtig ist derzeit das Urteil des Landgerichts München I zu GEMA gegen OpenAI, weil es Memorisierung, einfache Prompts und outputnahe Reproduktion eng zusammenführt.

Kann ChatGPT-Nutzung in Schule oder Hochschule als Täuschung bewertet werden?

Ja. Die Rechtsprechung behandelt unerlaubte KI-Nutzung im Prüfungsrecht als Frage der Eigenständigkeit und verlangt eine tragfähige Würdigung des Einzelfalls.

Sind KI-generierte Outputs automatisch urheberrechtlich geschützt?

Nein. Ohne einen hinreichend greifbaren menschlichen Gestaltungsbeitrag bleibt die Schutzposition regelmäßig schwach.

Ist die Meta-AI-Entscheidung eine allgemeine Freigabe für KI-Training?

Nein. Die Entscheidung des Oberlandesgerichts Köln betrifft ein konkretes Eilverfahren und lässt sich nicht pauschal auf jede Trainingskonstellation übertragen.

Kann eine KI im Patentrecht Erfinder sein?

Nein. Der Bundesgerichtshof knüpft den Erfinderbegriff weiterhin an die natürliche Person.

Quellen, Normen und Rechtsprechungsblock

Zentrale Primärquellen
Weitere offen gut dokumentierte Entscheidungen
  • Verwaltungsgericht (VG) München, 28.11.2023 – M 3 E 23.4371
  • Arbeitsgericht (ArbG) Hamburg, 16.01.2024 – 24 BVGa 1/24
  • Verwaltungsgericht (VG) München, 08.05.2024 – M 3 E 24.1136
  • Oberlandesgericht (OLG) Frankfurt am Main, 04.03.2025 – 16 W 10/25
  • Verwaltungsgericht (VG) Hamburg, 15.12.2025 – 2 E 8786/25
  • Verwaltungsgericht (VG) Wiesbaden, 19.11.2025 – 6 K 788/20.WI
  • Landgericht (LG) Frankfurt am Main, 17.12.2025 – 2-06 O 401/25
  • Amtsgericht (AG) München, 13.02.2026 – 142 C 9786/25
  • Verwaltungsgericht (VG) Kassel, 25.02.2026 – 7 K 2134/24.KS und 7 K 2515/25.KS
Zurückhaltender einzuordnende Entscheidungen
  • Landgericht (LG) Kiel, 29.02.2024 – 6 O 151/23
  • Landgericht (LG) Berlin II, 20.08.2025 – 2 O 202/24
  • Landgericht (LG) Hamburg, 23.09.2025 – 324 O 461/25

Diese Fälle bleiben relevant, werden wegen schmalerer offener Dokumentation aber bewusst vorsichtiger in die Gesamtbetrachtung eingestellt.

Zentrale Normbezüge

§§ 2, 16, 23, 44b, 60d Urheberrechtsgesetz (UrhG); Art. 6, 15, 22 Datenschutz-Grundverordnung (DSGVO); § 823 Bürgerliches Gesetzbuch (BGB); § 1004 BGB analog; Patentgesetz (PatG); prüfungsrechtliche Eigenständigkeits- und Täuschungsgrundsätze.

Vertiefende ITMR-Bereiche

11. Rechtsprechungstabelle

DatumGerichtEntscheidungsartAktenzeichenThemaKurzzuordnung
16.02.2023Bundesverfassungsgericht (BVerfG)Urteil1 BvR 1547/19, 1 BvR 2634/20Automatisierte Datenanalyse / PalantirGrundrechtliche Grenzen automatisierter Analyse
28.11.2023Verwaltungsgericht (VG) MünchenBeschlussM 3 E 23.4371KI-Essay / MasterzulassungTäuschung im Hochschulzugang
16.01.2024Arbeitsgericht (ArbG) HamburgBeschluss24 BVGa 1/24Mitbestimmung / ChatGPT am ArbeitsplatzBetriebsverfassungsrechtlicher KI-Einsatz
29.02.2024Landgericht (LG) KielUrteil6 O 151/23Automatisiert erzeugte FalschauskünfteHaftung im KI-Assistenzkontext
08.05.2024Verwaltungsgericht (VG) MünchenBeschlussM 3 E 24.1136KI-Essay / IndizienbeweisTäuschung und Beweiswürdigung
11.06.2024Bundesgerichtshof (BGH)BeschlussX ZB 5/22DABUS / KI als ErfinderPatentrechtlicher Erfinderbegriff
27.09.2024Landgericht (LG) HamburgUrteil310 O 227/23LAION / Trainingsdaten / Text und Data MiningUrheberrechtliche Schranken im Trainingskontext
04.03.2025Oberlandesgericht (OLG) Frankfurt am MainBeschluss16 W 10/25Deepfake / Hostprovider / Fake-WerbungPrüf- und Reaktionspflichten
23.05.2025Oberlandesgericht (OLG) KölnUrteil15 UKl 2/25Meta AI / Training mit NutzerdatenDatenschutz-Grundverordnung und KI-Training
20.08.2025Landgericht (LG) Berlin IIUrteil2 O 202/24Voice Cloning / StimmimitationPersönlichkeitsrechtliche Stimmnutzung
23.09.2025Landgericht (LG) HamburgBeschluss324 O 461/25Grok / KI-HalluzinationOutputbezogene Betreiberverantwortung
11.11.2025Landgericht (LG) München IUrteil42 O 14139/24GEMA / OpenAI / LiedtexteLLM-Memorisierung und Output
18.11.2025Oberverwaltungsgericht (OVG) Nordrhein-WestfalenBeschluss19 B 881/25ChatGPT / SchulprüfungTäuschung im Schulrecht
19.11.2025Verwaltungsgericht (VG) WiesbadenUrteil6 K 788/20.WISCHUFA / Scoring / TransparenzAuskunft und Nachvollziehbarkeit
10.12.2025Hanseatisches Oberlandesgericht (OLG) HamburgUrteil5 U 104/24LAION-Berufung / Text und Data MiningBestätigung der Hamburger Linie
15.12.2025Verwaltungsgericht (VG) HamburgBeschluss2 E 8786/25ChatGPT / LesetagebuchEigenständigkeit schulischer Leistung
17.12.2025Landgericht (LG) Frankfurt am MainUrteil2-06 O 401/25KI-Song / SunoAIMenschlicher Werkanteil im Musikbereich
13.02.2026Amtsgericht (AG) MünchenUrteil142 C 9786/25KI-generierte LogosSchutzfähigkeit reiner KI-Outputs
25.02.2026Verwaltungsgericht (VG) KasselUrteil7 K 2134/24.KSKI-Täuschung / BachelorarbeitSchwere Sanktionen im Hochschulrecht
25.02.2026Verwaltungsgericht (VG) KasselUrteil7 K 2515/25.KSKI-Täuschung / HausarbeitSchwere Sanktionen im Hochschulrecht
02.04.2026Oberlandesgericht (OLG) DüsseldorfUrteil20 W 2/26KI-Bildgenerierung auf Grundlage eines FotosWerkqualität des KI-Outputs und Übernahme schutzbegründender Merkmale

KI-Modelle, Datenprozesse und Output-Risiken rechtlich einordnen und sauber absichern

Geschäftsmodelle scheitern selten an der Technologie allein. Die eigentlichen Risiken liegen meist in Datennutzung, Ausgabe, Kommunikation und Governance. Genau dort entscheidet sich, ob ein KI-Projekt belastbar aufgesetzt ist oder unnötig angreifbar bleibt. Genau dort setzt anwaltliche Beratung regelmäßig an.

KI-Rechtsprechung: Leitentscheidungen, Linien und offene Fragen
von Rechtsanwalt Jean Paul P. Bohne, LL.M., MM

Artikel teilen

Teilen Sie diesen Artikel mit Ihrem Netzwerk