KI-Rechtsprechung: Leitentscheidungen, Linien und offene Fragen
Die deutsche und europäisch geprägte Rechtsprechung zu Künstlicher Intelligenz ist noch kein geschlossenes System. Sie ist aber weit genug entwickelt, um erste belastbare Linien zu erkennen: bei Trainingsdaten, reproduktionsnahen Outputs, Prüfungsleistungen, Deepfakes, Scoring, automatisierter Datenanalyse und der Frage, wann menschliche Verantwortung rechtlich greift.
Dieser Beitrag ordnet die wichtigsten Entscheidungen nicht nur chronologisch, sondern nach Konfliktachsen: Was lässt sich bereits verlässlich ableiten? Wo bleiben die Gerichte vorsichtig? Und welche Punkte sollten Unternehmen, Plattformen, Hochschulen, Kreative und Legal-Teams jetzt praktisch dokumentieren?
Die KI-Rechtsprechung verdichtet sich derzeit entlang von vier Konfliktachsen: Datennutzung, Outputnähe, Identitätsschutz und Verantwortungszuordnung. Am weitesten fortgeschritten ist die Entwicklung im Urheberrecht, im Prüfungsrecht sowie in daten- und persönlichkeitsrechtlichen KI-Konstellationen. Besonders wichtig sind Entscheidungen zu Text und Data Mining, LLM-Memorisierung, KI-generierten Bildern, unerlaubter ChatGPT-Nutzung in Prüfungen, Deepfakes, Voice Cloning, Scoring, automatisierter Datenanalyse und dem patentrechtlichen Erfinderbegriff. Zu letzterem gibt es eine höchstrichterliche Entscheidung; im Übrigen stehen Klärungen durch EuGH und BGH überwiegend aus.
Neu aufgenommen ist die Entscheidung des Oberlandesgerichts (OLG) Düsseldorf vom 2. April 2026 zur KI-Bildgenerierung auf Grundlage eines vorhandenen Fotos.
Relevanz: Das Gericht trennt besonders klar zwischen der Werkqualität des KI-Ergebnisses, dem menschlichen Gestaltungsbeitrag und der Frage, ob schutzbegründende Merkmale des Ausgangsbildes übernommen wurden.
Aus der bisherigen Rechtsprechung folgt kein allgemeiner Freibrief für KI-Training. Entscheidend bleiben Nutzungshandlung, Schranke, Vorbehalt, Datenkontext und Outputnähe.
Bei LLMs verlagert sich der Blick zunehmend auf reproduktionsnahe Ausgaben. Einfache Prompts können rechtlich erheblich werden, wenn sie geschützte Inhalte deutlich wiedererkennbar hervorrufen.
Die bloße Auswahl eines KI-Ergebnisses reicht für urheberrechtliche Werkqualität nicht aus. Schutzfähig wird ein Ergebnis erst, wenn ein greifbarer menschlicher Gestaltungsbeitrag sichtbar wird.
Im Prüfungsrecht ersetzt KI-Erkennungssoftware keine tragfähige Beweiswürdigung. Entscheidend ist eine Gesamtbetrachtung aus Regeln, Arbeitsprodukt, Indizien und Einzelfallumständen.
Schneller Einstieg
- EinordnungWie sich die aktuelle Rechtsprechung lesen lässt.
- LeitentscheidungenDie Fälle, auf denen der Beitrag im Kern ruht.
- FallmatrixWelche Entscheidung für welches Rechtsproblem wichtig ist.
- ITMR-FallbesprechungenVertiefende Blogartikel zu einzelnen Entscheidungen.
- Leitentscheidungen, Signalentscheidungen, offene FelderWo bereits mehr Klarheit besteht.
- UrheberrechtTraining, Memorisierung, Bild- und Text-Outputs.
- PrüfungsrechtChatGPT, Indizienbeweis und Eigenständigkeit.
- Persönlichkeitsrecht und MedienrechtDeepfakes und Voice Cloning.
- Datenschutz und ScoringPalantir, Meta AI und SCHUFA.
- Grenzen der AbleitungWas sich aus der Rechtsprechung gerade nicht ergibt.
- Praktische ChecklisteWorauf es in Governance und Produktgestaltung ankommt.
- RechtsprechungstabelleChronologischer Überblick.
1. Einordnung
Die aktuelle Rechtsprechung sollte nach unserer Auffassung weder als bloße Folge medienwirksamer Entscheidungen noch als bereits abgeschlossenes System gelesen werden. In einzelnen Feldern zeichnet sich inzwischen eine vergleichsweise klare Richtung ab. Daneben stehen Bereiche, in denen die Gerichte die dogmatischen Grundlagen erst allmählich schärfen. Wer beides nicht sauber trennt, wird dem gegenwärtigen Stand kaum gerecht.
Für die rechtliche Bewertung kommt es regelmäßig weniger auf den Oberbegriff „KI“ an als auf die konkrete Nutzung: Woher stammen die Daten? Welche technische Funktion erfüllt der Einsatz? Wie nah kommt der Output an ein geschütztes Werk oder an eine identifizierbare Person heran? Und wer steuert, kontrolliert und verantwortet den Prozess?
2. Leitentscheidungen, Signalentscheidungen und offene Felder
Der derzeit aussagekräftigste Bestand ergibt sich nicht aus lückenloser Breite, sondern aus einigen klar konturierten Blöcken. Offene Volltexte oder gut zugängliche gerichtliche Veröffentlichungen liegen insbesondere für die Entscheidung des Bundesverfassungsgerichts (BVerfG) zu Palantir, die Münchner Prüfungsfälle, die DABUS-Entscheidung des Bundesgerichtshofs (BGH), die Entscheidungen des Landgerichts (LG) und des Hanseatischen Oberlandesgerichts (OLG) Hamburg zu LAION, die Entscheidung des Oberlandesgerichts (OLG) Köln zu Meta AI, den Beschluss des Oberverwaltungsgerichts (OVG) Nordrhein-Westfalen, die Entscheidung des Verwaltungsgerichts (VG) Hamburg, die Entscheidung des Verwaltungsgerichts (VG) Wiesbaden sowie die Entscheidung des Oberlandesgerichts (OLG) Düsseldorf vor.
Andere Entscheidungen sind fachlich relevant, müssen wegen der offeneren Quellenlage aber behutsamer eingeordnet werden. Das gilt vor allem dort, wo nur Presseberichte, knappe Metadaten oder stark verkürzte Wiedergaben zugänglich sind.
LAION, GEMA gegen OpenAI, OLG Düsseldorf, OVG Nordrhein-Westfalen, OLG Köln, Palantir und DABUS bilden derzeit den belastbarsten Kern dieser Übersicht.
Weitere Fälle vertiefen einzelne Probleme, etwa zu Persönlichkeitsrecht, Halluzinationen oder Voice Cloning, ohne bereits dieselbe dogmatische Dichte zu erreichen.
Besonders offen bleiben bisher allgemeine Haftungsmodelle für fehlerhafte KI-Outputs, viele wettbewerbsrechtliche KI-Claims und ein großer Teil des HR- und Produkthaftungsumfelds.
2. Die derzeit wichtigsten Leitentscheidungen
Für die Praxis sind nicht alle Entscheidungen gleich wichtig. Besonders aussagekräftig sind die Fälle, die über den Einzelfall hinaus eine wiederkehrende rechtliche Prüfungslogik sichtbar machen.
LAION
Text und Data Mining, Nutzungsvorbehalt, § 44b UrhG und die Frage, wie Datensatzbildung, Analyse und Training rechtlich auseinanderzuhalten sind.
GEMA gegen OpenAI
Der derzeit schärfste Referenzfall für LLM-Memorisierung, einfache Prompts, outputnahe Reproduktion und Zurechnung.
OLG Düsseldorf
Werkqualität des KI-Ergebnisses, menschlicher Gestaltungsbeitrag und Abstand zum Ausgangsbild bei Bild-zu-Bild-Konstellationen.
OVG Nordrhein-Westfalen
Eigenständigkeit der Prüfungsleistung, Beweiswürdigung und Täuschung im schulischen Kontext.
OLG Köln
Training mit Nutzerdaten im konkreten Eilverfahren, berechtigtes Interesse und begrenzte Reichweite.
Palantir / DABUS
Automatisierte Analyse als Grundrechtsthema und der Erfinderbegriff im Patentrecht als weiterhin menschlich verstandene Kategorie.
Leitentscheidungs-Matrix: Welche Entscheidung wofür steht
Die folgende Matrix ist der schnelle juristische Kompass. Sie zeigt, welche Entscheidung für welches Rechtsproblem besonders relevant ist und was daraus gerade nicht vorschnell abgeleitet werden sollte.
Vertiefende ITMR-Fallbesprechungen zu einzelnen Entscheidungen
Diese Übersicht ordnet die Rechtsprechungslinien zusammenhängend ein. Einzelne Entscheidungen und Teilfragen hat ITMR bereits gesondert vertieft. Die folgenden Beiträge sind daher als Fallbesprechungen und Ergänzungen zu lesen, nicht als Ersatz für die übergreifende Einordnung.
KI-Training und LAION
LAION-Entscheidung zu KI-Trainingsdaten: Vertiefung zu § 44b UrhG, Trainingsdatensätzen, Nutzungsvorbehalten und urheberrechtlichen Schranken.
GEMA, Musik-KI und OpenAI-Kontext
GEMA-Verfahren zu Musik-KI und OpenAI-Kontext: Einordnung zu Musikrepertoire, Training, Outputnähe, Lizenzierung und GPAI-Pflichten.
KI-Bilder und Logos
Urheberrecht an KI-Bildern und KI-Logos: Vertiefung zu Schutzfähigkeit, menschlichem Gestaltungsbeitrag und KI-generierten visuellen Ergebnissen.
KI-Song und menschlicher Werkanteil
Urheberrecht für Teil-KI-Texte im KI-Song: Fallbesprechung zur Frage, ob menschliche Textbestandteile durch KI-Einsatz ihren Schutz verlieren.
Meta AI und Nutzerdaten
OLG Köln zu Meta AI und KI-Training mit Nutzerdaten: Vertiefung zur datenschutzrechtlichen Interessenabwägung bei KI-Training mit Plattformdaten.
DABUS und Patentrecht
BGH zu DABUS: KI ist kein Erfinder: Einordnung zur Erfinderbenennung, menschlichen Zuschreibung und KI-gestützten Entwicklungsprozessen.
KI-Stimmenklon
Recht an der eigenen Stimme bei KI-Stimmenklonen: Vertiefung zu Wiedererkennbarkeit, Einwilligung, kommerzieller Nutzung und Persönlichkeitsrecht.
KI in Unternehmen
ChatGPT und KI in Unternehmen: Ergänzung zu beruflicher KI-Nutzung, Output-Prüfung, Haftungsrisiken, DSGVO und Compliance.
Die Blogbeiträge vertiefen einzelne Fälle und Spezialfragen. Der vorliegende Beitrag bleibt der übergreifende Rechtsprechungsüberblick; die Primärseite für KI-Recht bleibt Künstliche Intelligenz, die operative Umsetzung führt zu AI Act umsetzen.
Breite Einordnung
Für die übergreifende rechtliche Einordnung von KI-Systemen ist in erster Linie die Seite Künstliche Intelligenz einschlägig.
Operative Umsetzung
Wo aus Rechtsprechung konkrete Pflichtenprogramme, Governance oder Audit-Fragen folgen, führt der nächste sinnvolle Schritt häufig zu AI Act umsetzen.
Clusterkontext
Der Beitrag gehört in den größeren Zusammenhang von IT-Recht und Digitalisierung und bleibt dort bewusst Supporting Content.
Begriffe, die sauber getrennt werden müssen
Generative KI
Systeme, die neue Texte, Bilder, Audio, Video oder Code erzeugen.
Text und Data Mining
Analyse großer Datenbestände zur Erkennung von Mustern und Strukturen; im Urheberrecht regelmäßig mit Schrankenfragen verknüpft.
LLM-Memorisierung
Konstellation, in der ein Modell Inhalte nicht nur statistisch verarbeitet, sondern reproduktionsnah wieder ausgeben kann.
Halluzination
Sachlich unzutreffender Output mit dem Anschein autoritativer Richtigkeit.
Voice Cloning
Synthetische Nachbildung einer konkret wiedererkennbaren Stimme.
Scoring
Datengetriebene Bewertung, die für Betroffene wirtschaftliche oder rechtliche Folgen haben kann.
3. Urheberrecht: Text und Data Mining, Training, LLM-Memorisierung und KI-Outputs
Das Urheberrecht ist derzeit der sichtbarste Schauplatz der KI-Rechtsprechung. Die Entscheidungen zeigen aber gerade nicht, dass alle KI-Fragen urheberrechtlich gleich zu behandeln wären. Vielmehr muss getrennt werden zwischen Datenbeschaffung, temporären Kopien, Datensatzbildung, Training, Modellverhalten, konkretem Output und einer möglichen eigenen Schutzfähigkeit des KI-Ergebnisses.
LAION: KI-Training, Text und Data Mining und der Nutzungsvorbehalt
Die Hamburger LAION-Entscheidungen ordnen die urheberrechtliche Diskussion in einer Weise, die für die Praxis erhebliches Gewicht hat. Es geht gerade nicht um die schlichte Aussage, KI-Training sei generell erlaubt oder generell unzulässig. Im Mittelpunkt steht die konkrete Nutzungshandlung: Welche Kopie entsteht, welche Funktion hat der Datensatz, welche Schranke kommt in Betracht und welche Bedeutung haben erklärte Vorbehalte gegen bestimmte Nutzungen?
Für die anwaltliche Einordnung ist wesentlich, Datensatzbildung, Analyse, Training und späteren Modelloutput nicht vorschnell in einen Topf zu werfen. Wer Inhalte sammelt, aufbereitet, indexiert oder in Trainingsumgebungen einbindet, sollte diese Schritte getrennt prüfen und dokumentieren. Gerade darin liegt die praktische Aussagekraft der Hamburger Verfahren.
Das Hanseatische Oberlandesgericht (OLG) Hamburg stellt ausdrücklich auf § 44b UrhG ab. Ein Nutzungsvorbehalt muss in der gesetzlich vorgesehenen Form, also „maschinenlesbar“, erklärt werden.
GEMA gegen OpenAI: LLM-Memorisierung, Output und urheberrechtliche Zurechnung
Die Münchner Entscheidung verdient mehr Gewicht, als sie in vielen Übersichten bislang erhält. Sie ist nicht nur ein weiterer urheberrechtlicher Einzelstreit, sondern ein präziser Hinweis darauf, wo sich die juristische Diskussion verlagert: weg von der bloßen Frage, ob Trainingsdaten genutzt wurden, hin zu der Frage, ob sich geschützte Inhalte aus dem System mit einfachen Eingaben wieder abrufen lassen.
Das Landgericht (LG) München I formuliert in seinem redaktionellen Leitsatz ausdrücklich, dass ein „einfach gehaltene[r] Prompt“ für die richterliche Überzeugungsbildung ausreichen kann, um eine Memorisierung festzustellen. Im Urteil selbst heißt es, die Liedtexte seien durch „sehr einfach gehaltene[] Prompts“ deutlich wiedererkennbar ausgegeben worden. Gerade diese Schlichtheit der Abfragen macht die Entscheidung so bedeutsam. Es geht nicht um provozierte Grenztests, sondern um die Frage, ob das Modell bei naheliegenden Nutzeranfragen in einen urheberrechtlich heiklen Bereich kippt.
Hinzu kommt ein zweiter Punkt, der für die Praxis kaum weniger bedeutsam ist. Das Gericht ordnet die Verantwortung nicht reflexhaft dem Nutzer zu. Vielmehr hebt es hervor, dass die Beklagten die Modelle bereitstellen, die Trainingsdaten verarbeitet haben und dass bei „derart offener Prompts“ die Verletzung nicht dem Nutzer zugeschrieben werden könne. An anderer Stelle spricht das Urteil davon, dass die Ausgabe „deutlich wiedererkennbar“ gewesen sei. Wer Systeme anbietet, sollte diese Passagen ernst nehmen. Sie betreffen nicht nur die Modellarchitektur, sondern ebenso Produktgestaltung, Output-Kontrolle und Risikosteuerung.
Die Entscheidung schärft den Blick für outputnahe Urheberrechtsverletzungen. Für generative Systeme ist das praktisch oft näher am Alltag als die abstrakte Debatte über den Trainingsvorgang.
Weiter offen bleiben insbesondere Grenzfälle fragmentierter Ausgaben, teilweise rekonstruierter Inhalte und die genaue Schwelle, ab der Werknähe rechtlich ausschlaggebend wird.
Oberlandesgericht Düsseldorf: KI-Bildgenerierung, Werkqualität und Abstand zum Ausgangsbild
Neu hinzugekommen ist die Entscheidung des Oberlandesgerichts (OLG) Düsseldorf vom 2. April 2026. Ausgangspunkt war eine Fotografie, die in eine KI-Software hochgeladen wurde, um daraus eine neue Abbildung zu erzeugen. Der Senat verneint zunächst eine freie Bearbeitung im Sinne des § 23 Abs. 1 Satz 2 Urheberrechtsgesetzes (UrhG), weil es dafür nach dem Wortlaut der Norm eines neuen „Werkes“ bedarf und ein KI-generiertes Ergebnis diese Werkqualität nur erreicht, wenn sich darin trotz des softwaregesteuerten Prozesses freie kreative Entscheidungen eines Menschen widerspiegeln.
Damit macht das Gericht zweierlei deutlich. Erstens genügt es nicht, auf das Schlagwort „freie Bearbeitung“ zu verweisen, wenn unklar bleibt, ob der KI-Output selbst überhaupt Werkqualität besitzt. Zweitens verlangt das Gericht für die Annahme eines geschützten KI-Ergebnisses eine menschlich-schöpferische Einflussnahme auf die konkrete Gestaltung, etwa durch individuelle Voreinstellungen oder einen prägenden Selektionsprozess. Besonders deutlich wird das in der Formulierung, die „bloße Auswahl eines KI-Erzeugnisses“ sei „nicht ausreichend“.
Gleichzeitig verneint das Oberlandesgericht (OLG) Düsseldorf eine Verletzung des ursprünglichen Lichtbildwerkes. Maßgeblich sei, dass die eigenpersönlichen Merkmale des Ausgangsbildes nicht übernommen würden und das Motiv als solches nicht am urheberrechtlichen Schutz teilhabe. Auch das Leistungsschutzrecht aus § 72 UrhG sei aus demselben Grund nicht berührt.
Die Entscheidung ist für die Praxis vor allem deshalb interessant, weil sie zwei Fragen sauber trennt: die Werkqualität des KI-Ergebnisses einerseits und die Übernahme schutzbegründender Merkmale des Ausgangswerks andererseits. Wer mit Bild-zu-Bild-KI arbeitet, sollte genau an dieser Trennlinie ansetzen.
SunoAI und KI-Logos: Der menschliche Anteil bleibt entscheidend
Die Entscheidungen aus Frankfurt am Main und München führen einen weiteren Strang zusammen. Im Frankfurter KI-Song-Kontext bleibt der Schutz menschlicher Werkbestandteile erhalten, obwohl KI-Systeme im weiteren Produktionsprozess eingesetzt werden. Umgekehrt zeigt die Münchner Logo-Entscheidung, dass rein KI-generierte Ergebnisse urheberrechtlich rasch an Grenzen stoßen, wenn der menschliche Beitrag sich in allgemeiner Steuerung erschöpft.
Wer KI-erzeugte Inhalte exklusiv verwerten, lizenzieren oder gegen Dritte verteidigen möchte, sollte den menschlichen Gestaltungsbeitrag möglichst konkret dokumentieren. Je undeutlicher dieser Beitrag bleibt, desto angreifbarer wird die eigene Rechtsposition.
- Herkunft, Rechtekette und Nutzungsbedingungen relevanter Trainings-, Referenz- oder Eingabedaten.
- Unterscheidung zwischen Datensatzbildung, Analyse, Training, Prompting, Auswahl und Nachbearbeitung.
- Menschliche Gestaltungsschritte bei KI-gestützten Texten, Bildern, Musikstücken, Logos oder sonstigen Assets.
- Werknaher Output ohne Filter-, Prüf- oder Eskalationsprozess.
- Exklusivverwertung rein KI-generierter Assets ohne dokumentierten menschlichen Gestaltungsanteil.
- Unklare Produktkommunikation zu Schutzfähigkeit, Rechteinhaberschaft und Trainingsdaten.
4. Prüfungsrecht: KI-Täuschung, Indizienbeweis und Sanktionen
Kaum ein Bereich hat sich so schnell verdichtet wie das Prüfungsrecht. Die Beschlüsse des Verwaltungsgerichts (VG) München, die Entscheidung des Oberverwaltungsgerichts (OVG) Nordrhein-Westfalen, der Hamburger Schulfall und die Kasseler Urteile zeigen gemeinsam, dass Gerichte die unerlaubte Nutzung generativer KI nicht als bloßes Ordnungsthema behandeln, sondern als Frage der Eigenständigkeit der Prüfungsleistung.
Verwaltungsgericht München: ChatGPT, KI-Täuschung und Indizienbeweis
Die Münchner Entscheidungen sind besonders aufschlussreich, weil sie die Diskussion vom reinen Techniknachweis lösen. Ein Detektor für KI-Texte genügt nicht. Maßgeblich ist vielmehr eine Gesamtwürdigung: Sprachbild, Brüche im Arbeitsprodukt, Vergleich mit sonstigen Leistungen, Widersprüche in Darstellung und Bearbeitungssituation. Die Täuschungsfrage wird damit in eine klassische prüfungsrechtliche Beweisstruktur eingebettet.
Oberverwaltungsgericht Nordrhein-Westfalen und Verwaltungsgericht Hamburg: Eigenständigkeit und Schulprüfung
Der Beschluss des Oberverwaltungsgerichts (OVG) Nordrhein-Westfalen bringt den Kern klar auf den Punkt: Täuschung liegt vor, wenn eine eigenständige und reguläre Prüfungsleistung vorgespiegelt wird, obwohl tatsächlich unzulässige Hilfe eingesetzt wurde. Für die Überzeugungsbildung des Senats war dabei unter anderem wichtig, dass „belastbare Tatsachen“ für die behauptete Vorbereitung fehlten und dass die mit ChatGPT erzeugte Lösung der abgegebenen Lösung „in auffallendem Maße“ ähnelte. Der Hamburger Schulfall fügt sich in dieses Bild ein.
Verwaltungsgericht Kassel: Sanktionen können deutlich ausfallen
Die Kasseler Entscheidungen verschärfen den praktischen Blick noch einmal. Unerlaubte generative KI-Nutzung muss nicht bei einer bloßen Abwertung stehen bleiben. Je nach Prüfungsordnung und Einzelfall können schwerere Folgen in Betracht kommen. Gerade deshalb sollten Hochschulen und Bildungsträger ihre Regelwerke, Offenlegungsanforderungen und Verfahrensdokumentation besonders sorgfältig überprüfen.
Prüfungsrechtliche KI-Fälle sollten nicht allein über Detektionssoftware entschieden werden. Benötigt wird eine nachvollziehbare Würdigung aus Regelverstoß, Indizien, Vergleichsmaterial, Anhörung und Verfahrensdokumentation.
Schulen, Hochschulen und Arbeitgeber sollten erlaubte KI-Assistenz, Offenlegungspflichten und unzulässige Fremdleistung klar trennen. Unklare Regeln erzeugen vermeidbare Angriffsflächen.
5. Persönlichkeitsrecht und Medienrecht: Deepfakes, Voice Cloning und Fake-Werbung
Der Deepfake-Beschluss des Oberlandesgerichts (OLG) Frankfurt am Main und der Berliner Voice-Cloning-Fall gehören in denselben Problemkreis: KI simuliert nicht nur Inhalte, sondern Identität. Es geht deshalb nicht allein um technische Manipulation, sondern um Wiedererkennbarkeit, Zuordnung, wirtschaftliche Nutzung und den Schutz der persönlichen Sphäre insgesamt.
Für die Praxis liegt die Nähe zu Medienrecht, Persönlichkeitsrecht und Reputationsschutz auf der Hand. Wer KI-generierte Stimmen, Bilder, Testimonials oder werbliche Zuordnungen nutzt, sollte vor Veröffentlichung klären, ob eine reale Person erkennbar betroffen ist, ob eine Einwilligung erforderlich ist und ob Plattform- oder Takedown-Prozesse greifen müssen.
Nach einem Hinweis auf einen rechtsverletzenden Deepfake darf die Prüfung nicht formal auf einen einzelnen Fundort verengt werden. Wer Kenntnis hat, muss sich mit gleichartigen Verletzungsformen ernsthaft auseinandersetzen.
Die Stimme ist in kommerziellen oder reputationsrelevanten Zusammenhängen kein rechtsfreier Rohstoff. Wiedererkennbarkeit, Zuweisung und wirtschaftlicher Wert stehen hier schnell im Mittelpunkt.
6. Haftung für KI-Outputs und Plattformverantwortung
Die Rechtsprechung ist in diesem Bereich noch nicht so weit ausgeformt wie im Urheber- oder Prüfungsrecht. Die offen diskutierten Fälle aus Kiel und Hamburg lassen aber erkennen, worum es künftig gehen wird: Wer KI-Systeme nach außen als Kommunikations-, Assistenz- oder Auskunftsinstrument einsetzt, kann sich nicht schlicht auf deren technische Eigenlogik zurückziehen.
Entscheidend werden insbesondere Rolle, Kontrollmöglichkeit, Einsatzkontext, Kenntnis, Reaktion und organisatorische Absicherung. Für Unternehmen, Plattformen und Agenturen überschneidet sich diese Frage häufig mit IT-Recht, Vertragsgestaltung, Produktkommunikation, Support-Prozessen und Compliance. Gerade deshalb lohnt es sich, diese Entscheidungen bereits jetzt mitzudenken, auch wenn sie noch keine umfassende Grundsatzrechtsprechung bilden.
7. Datenschutz, Meta AI, Palantir und SCHUFA-Scoring
Bundesverfassungsgericht zu Palantir: automatisierte Datenanalyse und Grundrechtsschutz
Die Entscheidung des Bundesverfassungsgerichts (BVerfG) ist für KI-Recht im weiteren Sinne zentral, weil sie zeigt, wie automatisierte Datenanalyse verfassungsrechtlich einzuordnen ist. Beanstandet wird nicht schlicht der Einsatz von Software, sondern die Unklarheit und Weite der normativen Grundlage. Je tiefer automatisierte Analyse in sensible Lebens- und Freiheitsbereiche eingreift, desto präziser muss die gesetzliche Struktur ausfallen.
Oberlandesgericht Köln zu Meta AI: Training mit Nutzerdaten und begrenzte Reichweite
Die Kölner Entscheidung ist in der öffentlichen Wahrnehmung schnell als Freigabe für KI-Training gelesen worden. So würden wir sie nicht verstehen. Es handelt sich um ein Eilverfahren zur angekündigten Nutzung öffentlich gestellter Daten erwachsener Nutzerinnen und Nutzer auf Facebook und Instagram. Im Mittelpunkt steht eine konkrete Prüfung von berechtigtem Interesse, Erforderlichkeit, Eingriffsabschwächung, Umgang mit sensiblen Daten und Gesamtgewichtung. Schon deshalb verbietet sich eine pauschale Übertragung auf jede Form des Modelltrainings.
Die Reichweite der Entscheidung bleibt begrenzt. Weder beantwortet sie die datenschutzrechtliche Zulässigkeit sämtlicher Trainingskonstellationen noch ersetzt sie die Prüfung der konkreten Datenarchitektur. Wo aus solchen Konstellationen konkrete Umsetzungsfragen folgen, liegt die operative Vertiefung regelmäßig näher bei /ai-act-umsetzen als bei einer bloßen Fallbesprechung.
Verwaltungsgericht Wiesbaden zur SCHUFA: Scoring, Transparenz und Auskunft
Das Wiesbadener Urteil betrifft nicht generative KI im engeren Sinne, gehört aber in jede ernsthafte KI-Rechtsprechungsübersicht. Wo Daten verarbeitet, bewertet und zu wirksamen Scores verdichtet werden, reichen abstrakte Hinweise nicht. Transparenz und aussagekräftige Informationen über die Funktionsweise des Systems bleiben zentral.
Unser Eindruck aus der Praxis
Im Datenkontext entscheidet sich die rechtliche Stabilität eines KI-Projekts häufig lange vor dem Go-live. Rechtsgrundlage, Erforderlichkeit, Begrenzung, Dokumentation und Betroffeneninformation müssen von Anfang an zusammenpassen. Werden diese Punkte erst nachträglich ergänzt, entstehen die späteren Angriffsflächen oft schon im Konzept.
8. Patentrecht: DABUS und der Erfinderbegriff
Mit DABUS hat der Bundesgerichtshof (BGH) klargestellt, dass eine KI nicht Erfinder im Sinne des deutschen Patentrechts sein kann. Das ist weniger eine technologische Wertung als eine begriffliche Präzisierung. Der Erfinderbegriff knüpft weiterhin an die natürliche Person an. Für KI-gestützte Entwicklungsprozesse bedeutet das allerdings nicht, dass Patente ausgeschlossen wären. Die rechtliche Zuschreibung muss nur weiterhin menschlich erfolgen.
Für technologieorientierte Unternehmen ist die Entscheidung deshalb praktisch: KI kann Werkzeug, Impulsgeber oder Bestandteil eines Entwicklungsprozesses sein. Die Erfinderbenennung, Dokumentation menschlicher Beiträge und interne IP-Governance bleiben aber menschlich zu organisieren. Berührungspunkte bestehen hier häufig auch zum gewerblichen Rechtsschutz.
Zeitliche Entwicklung in vier Linien
Palantir und frühe Münchner Prüfungsfälle zeigen, dass KI nicht nur Technik-, sondern Grundrechts-, Verfahrens- und Eigenständigkeitsthema ist.
Patentrecht, Text und Data Mining sowie ChatGPT am Arbeitsplatz machen sichtbar, dass KI-rechtliche Fragen in klassische Rechtsgebiete hineinwirken.
Die Rechtsprechung schärft Datenschutz, Outputnähe, Identitätsschutz und Täuschungsfragen.
Gerichte befassen sich stärker mit konkreten KI-Ergebnissen, menschlichem Gestaltungsbeitrag und Folgen unerlaubter Nutzung.
9. Linien und Spannungen
Wo sich eine Richtung erkennen lässt
- Im Urheberrecht verschiebt sich der Blick von der abstrakten Trainingsfrage zunehmend auf outputnahe Reproduktion und auf die Anforderungen an menschliche Schöpfung bei KI-Ergebnissen.
- Im Prüfungsrecht rückt an die Stelle bloßer KI-Erkennung die Gesamtwürdigung des Einzelfalls.
- Im Persönlichkeitsrecht wird KI immer deutlicher als Identitäts- und Zuordnungsproblem behandelt.
Wo Zurückhaltung geboten bleibt
- Bei der genauen Grenze zwischen zulässiger KI-Assistenz und Täuschung.
- Bei der dogmatischen Ausgestaltung von Betreiber- und Plattformhaftung für Halluzinationen.
- Bei der Reichweite von Trainings- und Datenverarbeitungsmodellen in komplexen Konstellationen.
Die Rechtsprechung arbeitet zunehmend heraus, dass Trainingsfrage, Outputfrage, Identitätsschutz und Verantwortungszuordnung nicht in einem Schritt beantwortet werden können. Gerade diese Trennung schafft für die Praxis mehr Klarheit.
Aus den bisherigen Entscheidungen folgt weder ein allgemeiner Freibrief für KI-Training noch ein pauschales Verbot generativer Systeme. Ebenso wenig gibt es bislang eine starre Formel für jede Täuschungskonstellation oder eine umfassend ausformulierte Haftungsdogmatik für jeden fehlerhaften KI-Output.
10. Checkliste für Unternehmen, Plattformen, Hochschulen und Legal-Teams
Worauf es jetzt praktisch ankommt
Die folgenden Prüffelder zeigen, an welchen Stellen Risiken regelmäßig entstehen. Je mehr Punkte sauber abgedeckt sind, desto eher lässt sich der Einsatz von KI rechtlich belastbar aufsetzen. Zugleich wird sichtbar, wo Produktdesign, Kommunikation, Datenarchitektur und Governance besonders eng verzahnt werden sollten.
Trainings- und Datenebene
- Ist die Herkunft der Daten dokumentiert?
- Wird zwischen Datensatzbildung, Analyse, Training und Output sauber unterschieden?
- Sind Vorbehalte, Opt-outs oder Nutzungsschranken erfasst?
- Ist die Rechtsgrundlage für personenbezogene Daten nachvollziehbar begründet?
- Gibt es eine belastbare Dokumentation der Eingriffsbegrenzung?
Output- und Produktseite
- Gibt es Filter gegen werknahen oder identitätsnahen Output?
- Sind Missbrauchs- und Eskalationspfade definiert?
- Wird problematischer Output protokolliert und nachverfolgbar behandelt?
- Sind Freigabe- und Review-Prozesse dokumentiert?
- Besteht eine klare Verantwortungszuordnung für den Betrieb?
Prüfungs- und Arbeitskontexte
- Sind erlaubte, beschränkt erlaubte und unzulässige KI-Nutzungen ausdrücklich geregelt?
- Gibt es Offenlegungspflichten für KI-Unterstützung?
- Wird Beweiswürdigung nicht auf Detektionssoftware verkürzt?
- Sind Sanktionen klar an Regeln und Verfahren rückgebunden?
- Ist die Eigenständigkeit der Leistung sauber definiert?
Persönlichkeits- und Plattformschutz
- Gibt es Freigabelogiken für Stimme, Bild und Identitätsnähe?
- Sind Notice- und Takedown-Prozesse bei Deepfakes und Voice Cloning belastbar?
- Werden kommerzielle Zuordnungsrisiken gesondert geprüft?
- Ist klar, wie mit gleichartigen Rechtsverletzungen nach Hinweis umzugehen ist?
- Besteht eine dokumentierte Eskalation zwischen Produkt, Legal und Operations?
FAQ zu KI-Training, KI-Outputs, Prüfungen und Datenschutz
Ist KI-Training mit fremden Inhalten zulässig?
Nicht pauschal. Maßgeblich sind Nutzungshandlung, Schranke, Vorbehalt, Datenkontext und Outputnähe.
Welche Entscheidung ist für LLM-Memorisierung besonders wichtig?
Besonders wichtig ist derzeit das Urteil des Landgerichts München I zu GEMA gegen OpenAI, weil es Memorisierung, einfache Prompts und outputnahe Reproduktion eng zusammenführt.
Kann ChatGPT-Nutzung in Schule oder Hochschule als Täuschung bewertet werden?
Ja. Die Rechtsprechung behandelt unerlaubte KI-Nutzung im Prüfungsrecht als Frage der Eigenständigkeit und verlangt eine tragfähige Würdigung des Einzelfalls.
Sind KI-generierte Outputs automatisch urheberrechtlich geschützt?
Nein. Ohne einen hinreichend greifbaren menschlichen Gestaltungsbeitrag bleibt die Schutzposition regelmäßig schwach.
Ist die Meta-AI-Entscheidung eine allgemeine Freigabe für KI-Training?
Nein. Die Entscheidung des Oberlandesgerichts Köln betrifft ein konkretes Eilverfahren und lässt sich nicht pauschal auf jede Trainingskonstellation übertragen.
Kann eine KI im Patentrecht Erfinder sein?
Nein. Der Bundesgerichtshof knüpft den Erfinderbegriff weiterhin an die natürliche Person.
Quellen, Normen und Rechtsprechungsblock
- Bundesverfassungsgericht (BVerfG), 16.02.2023 – 1 BvR 1547/19, 1 BvR 2634/20
- Landgericht (LG) Hamburg, 27.09.2024 – 310 O 227/23
- Hanseatisches Oberlandesgericht (OLG) Hamburg, 10.12.2025 – 5 U 104/24
- Landgericht (LG) München I, 11.11.2025 – 42 O 14139/24
- Oberverwaltungsgericht (OVG) Nordrhein-Westfalen, 18.11.2025 – 19 B 881/25
- Oberlandesgericht (OLG) Köln, 23.05.2025 – 15 UKl 2/25
- Oberlandesgericht (OLG) Düsseldorf, 02.04.2026 – 20 W 2/26
- Bundesgerichtshof (BGH), 11.06.2024 – X ZB 5/22
- Verwaltungsgericht (VG) München, 28.11.2023 – M 3 E 23.4371
- Arbeitsgericht (ArbG) Hamburg, 16.01.2024 – 24 BVGa 1/24
- Verwaltungsgericht (VG) München, 08.05.2024 – M 3 E 24.1136
- Oberlandesgericht (OLG) Frankfurt am Main, 04.03.2025 – 16 W 10/25
- Verwaltungsgericht (VG) Hamburg, 15.12.2025 – 2 E 8786/25
- Verwaltungsgericht (VG) Wiesbaden, 19.11.2025 – 6 K 788/20.WI
- Landgericht (LG) Frankfurt am Main, 17.12.2025 – 2-06 O 401/25
- Amtsgericht (AG) München, 13.02.2026 – 142 C 9786/25
- Verwaltungsgericht (VG) Kassel, 25.02.2026 – 7 K 2134/24.KS und 7 K 2515/25.KS
- Landgericht (LG) Kiel, 29.02.2024 – 6 O 151/23
- Landgericht (LG) Berlin II, 20.08.2025 – 2 O 202/24
- Landgericht (LG) Hamburg, 23.09.2025 – 324 O 461/25
Diese Fälle bleiben relevant, werden wegen schmalerer offener Dokumentation aber bewusst vorsichtiger in die Gesamtbetrachtung eingestellt.
§§ 2, 16, 23, 44b, 60d Urheberrechtsgesetz (UrhG); Art. 6, 15, 22 Datenschutz-Grundverordnung (DSGVO); § 823 Bürgerliches Gesetzbuch (BGB); § 1004 BGB analog; Patentgesetz (PatG); prüfungsrechtliche Eigenständigkeits- und Täuschungsgrundsätze.
11. Rechtsprechungstabelle
| Datum | Gericht | Entscheidungsart | Aktenzeichen | Thema | Kurzzuordnung |
|---|---|---|---|---|---|
| 16.02.2023 | Bundesverfassungsgericht (BVerfG) | Urteil | 1 BvR 1547/19, 1 BvR 2634/20 | Automatisierte Datenanalyse / Palantir | Grundrechtliche Grenzen automatisierter Analyse |
| 28.11.2023 | Verwaltungsgericht (VG) München | Beschluss | M 3 E 23.4371 | KI-Essay / Masterzulassung | Täuschung im Hochschulzugang |
| 16.01.2024 | Arbeitsgericht (ArbG) Hamburg | Beschluss | 24 BVGa 1/24 | Mitbestimmung / ChatGPT am Arbeitsplatz | Betriebsverfassungsrechtlicher KI-Einsatz |
| 29.02.2024 | Landgericht (LG) Kiel | Urteil | 6 O 151/23 | Automatisiert erzeugte Falschauskünfte | Haftung im KI-Assistenzkontext |
| 08.05.2024 | Verwaltungsgericht (VG) München | Beschluss | M 3 E 24.1136 | KI-Essay / Indizienbeweis | Täuschung und Beweiswürdigung |
| 11.06.2024 | Bundesgerichtshof (BGH) | Beschluss | X ZB 5/22 | DABUS / KI als Erfinder | Patentrechtlicher Erfinderbegriff |
| 27.09.2024 | Landgericht (LG) Hamburg | Urteil | 310 O 227/23 | LAION / Trainingsdaten / Text und Data Mining | Urheberrechtliche Schranken im Trainingskontext |
| 04.03.2025 | Oberlandesgericht (OLG) Frankfurt am Main | Beschluss | 16 W 10/25 | Deepfake / Hostprovider / Fake-Werbung | Prüf- und Reaktionspflichten |
| 23.05.2025 | Oberlandesgericht (OLG) Köln | Urteil | 15 UKl 2/25 | Meta AI / Training mit Nutzerdaten | Datenschutz-Grundverordnung und KI-Training |
| 20.08.2025 | Landgericht (LG) Berlin II | Urteil | 2 O 202/24 | Voice Cloning / Stimmimitation | Persönlichkeitsrechtliche Stimmnutzung |
| 23.09.2025 | Landgericht (LG) Hamburg | Beschluss | 324 O 461/25 | Grok / KI-Halluzination | Outputbezogene Betreiberverantwortung |
| 11.11.2025 | Landgericht (LG) München I | Urteil | 42 O 14139/24 | GEMA / OpenAI / Liedtexte | LLM-Memorisierung und Output |
| 18.11.2025 | Oberverwaltungsgericht (OVG) Nordrhein-Westfalen | Beschluss | 19 B 881/25 | ChatGPT / Schulprüfung | Täuschung im Schulrecht |
| 19.11.2025 | Verwaltungsgericht (VG) Wiesbaden | Urteil | 6 K 788/20.WI | SCHUFA / Scoring / Transparenz | Auskunft und Nachvollziehbarkeit |
| 10.12.2025 | Hanseatisches Oberlandesgericht (OLG) Hamburg | Urteil | 5 U 104/24 | LAION-Berufung / Text und Data Mining | Bestätigung der Hamburger Linie |
| 15.12.2025 | Verwaltungsgericht (VG) Hamburg | Beschluss | 2 E 8786/25 | ChatGPT / Lesetagebuch | Eigenständigkeit schulischer Leistung |
| 17.12.2025 | Landgericht (LG) Frankfurt am Main | Urteil | 2-06 O 401/25 | KI-Song / SunoAI | Menschlicher Werkanteil im Musikbereich |
| 13.02.2026 | Amtsgericht (AG) München | Urteil | 142 C 9786/25 | KI-generierte Logos | Schutzfähigkeit reiner KI-Outputs |
| 25.02.2026 | Verwaltungsgericht (VG) Kassel | Urteil | 7 K 2134/24.KS | KI-Täuschung / Bachelorarbeit | Schwere Sanktionen im Hochschulrecht |
| 25.02.2026 | Verwaltungsgericht (VG) Kassel | Urteil | 7 K 2515/25.KS | KI-Täuschung / Hausarbeit | Schwere Sanktionen im Hochschulrecht |
| 02.04.2026 | Oberlandesgericht (OLG) Düsseldorf | Urteil | 20 W 2/26 | KI-Bildgenerierung auf Grundlage eines Fotos | Werkqualität des KI-Outputs und Übernahme schutzbegründender Merkmale |
KI-Modelle, Datenprozesse und Output-Risiken rechtlich einordnen und sauber absichern
Geschäftsmodelle scheitern selten an der Technologie allein. Die eigentlichen Risiken liegen meist in Datennutzung, Ausgabe, Kommunikation und Governance. Genau dort entscheidet sich, ob ein KI-Projekt belastbar aufgesetzt ist oder unnötig angreifbar bleibt. Genau dort setzt anwaltliche Beratung regelmäßig an.