ITMR Kuenstliche Intelligenz vs Recht

Künstliche Intelligenz vs. Recht

Einordnung
Veröffentlicht 2023UrheberrechtAI / KIKünstliche Intelligenz

Der Beitrag ordnet einen frühen Moment der ChatGPT-Debatte ein. Im Mittelpunkt stehen nicht technische Details, sondern die rechtlichen Grundfragen, die Unternehmen seitdem noch deutlich schärfer prüfen müssen: Eingaben, Vertraulichkeit, Datenschutz, Urheberrecht und die Verantwortung für KI-Outputs.

Worum es hier geht

Der Text zeigt, warum generative KI schon im Ausgangspunkt keine rein technische, sondern eine rechtliche und organisatorische Frage ist.

Für wen das relevant ist

Relevant ist das insbesondere für Unternehmen, Produktteams, Marketing, HR, Einkauf, Compliance und alle, die KI in Arbeitsabläufe oder Kundenkommunikation einbinden.

Was Sie mitnehmen

Für die heutige Einordnung führt der direkte Weg in das KI-Recht für Unternehmen; die größere thematische Klammer liegt im Bereich IT-Recht & Digitalisierung.

Kurze Einordnung

  • Generative KI ist längst kein reines Zukunftsthema mehr, sondern Teil eines konkret regulierten Rechtsrahmens.
  • Die rechtlichen Risiken beginnen nicht erst beim Output, sondern bereits bei Eingaben, Datenflüssen, Rollenverteilung und Dokumentation.
  • Urheberrechtliche Fragen zu Training, Output und Nutzungsrechten sind weiterhin im Fluss, auch wenn erste gerichtliche Leitlinien vorliegen.
  • Wer KI im Unternehmen einsetzt, sollte die operative Einordnung nicht abstrakt, sondern entlang von System, Zweck, Datenlage und Verantwortlichkeit vornehmen.

Eine vertiefte aktuelle Einordnung zu Rollen, Pflichten, Haftung und Projektkontexten finden Sie im Schwerpunkt KI-Recht für Unternehmen.

Stand April 2026

Stand April 2026: Der historische Kern des Beitrags trägt weiterhin, die Rechtslage ist heute jedoch deutlich konkreter. Die KI-Verordnung der EU ist seit dem 1. August 2024 in Kraft; erste Verbote und Basispflichten gelten seit dem 2. Februar 2025, GPAI-bezogene Pflichten seit dem 2. August 2025 und die breite Anwendbarkeit folgt grundsätzlich ab dem 2. August 2026.

Die frühe italienische Sperre von ChatGPT war zeitlich begrenzt. Die italienische Datenschutzaufsicht meldete bereits am 28. April 2023 die Wiederfreischaltung nach zusätzlichen Transparenz- und Schutzmaßnahmen.

Auch im Urheberrecht ist die Debatte nicht stehengeblieben. In Hamburg haben zunächst das Landgericht und später das Hanseatische Oberlandesgericht im Streit um ein für KI-Training nutzbares Dataset die Berufung auf die Schranke des Text und Data Mining nach § 44b UrhG als tragfähig angesehen. Das macht die Lage für Trainings- und Datensatzfragen greifbarer, beendet die urheberrechtliche Diskussion rund um generative KI aber nicht insgesamt.

Beitrag im Wortlaut

Thema eigentlich gar nicht neu?

Das generative KI-System ChatGPT (Generative Pre-Trained Model) beherrscht seit einigen Wochen die Medien. Dabei ist das Thema eigentlich gar nicht neu. Künstliche Intelligenzen werden bereits seit einigen Jahren in verschiedenen Branchen verwendet, insbesondere um Märkte aller Art zu analysieren und Trends zu erkennen. Doch seit ChatGPT aufgetaucht ist, hat das Thema künstliche Intelligenz die Büros moderner Unternehmen verlassen und ist bei der Bevölkerung angekommen. Betrachtet man die Schlagzeilen zum Thema der letzten Wochen, so ist zwischen Euphorie über das Potential und Warnungen vor Gefahren und Missbrauch nicht viel zu finden. „Spekulation an der Börse: ChatGPT handelt besser als Finanzprofis“, „Bildung und KI: Weckt ChatGPT die Schule auf?“ oder „Uni-Präsident: ChatGPT kann Unterricht besser machen“ und in Thailand will sogar jemand im Lotto gewonnen haben, nachdem er sich die Zahlen von einer KI hat vorhersagen lassen. Dem entgegen ist Europol besorgt, dass ChatGPT die Planung und Begehung von Straftaten, insbesondere im Internet erheblich vereinfachen und erweiterten wird. Beispielhaft sei da nur die Erstellung von Phishing-Betrügereien genannt, die dann so echt aussehen könnten, dass man wirklich glaubt von Amazon kontaktiert worden zu sein. In Italien ist ChatGPT sogar zeitweise von den dortigen Datenschutzbehörden wegen jugendschutzrechtlicher Bedenken gesperrt worden.

Doch was ist ChatGPT überhaupt? Was kann es und welchen Zweck verfolgt es? Wer könnte diese Frage besser beantworten als der Chatbot selbst:

„ChatGPT ist ein Sprachmodell von OpenAI, das darauf trainiert wurde, menschenähnliche Texte und Konversationen zu generieren. Es basiert auf der GPT-Technologie und verwendet ein "Transformer"-Netzwerk, um natürliche Sprache zu verstehen und darauf zu antworten. ChatGPT verfügt über ein breites Wissen in verschiedenen Themenbereichen und kann bei vielen Aufgaben helfen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung und Fragebeantwortung. Es ist in der Lage, auf komplexe Fragen und Anfragen zu antworten und kann die Interaktion mit Benutzern erleichtern, indem es den Zugang zu Informationen verbessert.

ChatGPT ist eines der fortschrittlichsten Sprachmodelle, die derzeit verfügbar sind. Es wurde auf einer sehr großen Menge an Texten trainiert und kann daher eine Vielzahl von Themen verstehen und behandeln. Darüber hinaus ist es in der Lage, den Kontext einer Konversation zu verstehen und auf diese Weise menschenähnliche Antworten zu generieren.

ChatGPT kann auf verschiedene Weise genutzt werden. Einige Beispiele sind:

  • Chatbots: ChatGPT kann als Basis für Chatbots verwendet werden, die in Kundenservice- oder Marketinganwendungen eingesetzt werden können.
  • Sprachassistenz: ChatGPT kann auch in Sprachassistenzanwendungen wie Siri oder Alexa eingesetzt werden, um auf Fragen und Anfragen zu antworten.
  • Textgenerierung: ChatGPT kann Texte in verschiedenen Stilen und Formaten generieren, einschließlich Artikel, Gedichte und Geschichten.
  • Forschung: ChatGPT wird auch in der Forschung und im akademischen Bereich eingesetzt, um menschenähnliche Konversationen in verschiedenen Sprachen zu simulieren.

Insgesamt ist ChatGPT ein äußerst nützliches Tool für die Textgenerierung, Fragenbeantwortung und Konversationsmodellierung."

Das was sich da so harmlos Sprachmodell nennt, hat – wie man sieht – bereits beeindruckende Fähigkeiten. Es formuliert in Sekunden ganze Texte, denkt sich Geschichten mit Wendungen aus und übernimmt auf Nachfrage auch die Internetrecherche zu beliebigen Themen. Schnell neigt man dazu, alles was ChatGPT einem erzählt zu glauben und ungeprüft zu übernehmen, denn gut klingen tut es eigentlich immer. Tatsächlich kommt es aber gar nicht allzu selten vor, dass Inhalte unpräzise bis falsch sind. Wüsste man es nicht besser, könnte man teilweise meinen es belügt einen in voller Absicht, bloß um nicht schlecht dazustehen. Die Entwickler sprechen bei diesem Phänomen von "Halluzinationen" welches dem jungen Entwicklungsstadium geschuldet sei. Die aktuelle Version ChatGPT-4 soll schon wesentlich weniger solcher Halluzinationen haben, als die Vorgänger und langfristig dürften solche Kinderkrankheiten wohl nahezu verschwinden.

Wo das Ganze in den nächsten Jahren hinführen wird, ob ganze Tätigkeitsbereiche durch Chatbots ersetzt werden, kriminelle in Zukunft leichtes Spiel haben oder das Ganze nichts weiter bleibt als ein Tool für Recherchen im Internet, ist nicht seriös vorherzusagen. Die Wahrheit wird wohl irgendwo dazwischen liegen. Sicher ist hingegen schon jetzt, dass sich künftig viele rechtliche Fragestellungen rund um das Thema Chatbots und künstliche Intelligenzen stellen werden.

Schon die Eingabe hat rechtliche Relevanz, also womit darf man die KI "füttern", um am Ende ein möglichst präzises Ergebnis zu erhalten. Denn insbesondere im beruflichen Kontext ist gegen das Datenschutzrecht und Vertraulichkeitspflichten schnell verstoßen. ChatGPT lernt aus jeder Eingabe, daher ist es nicht ausgeschlossen, dass sich eingegebene Daten irgendwann in den Antworten an andere Verwender des Bots wiederfinden.

Während datenschutzrechtliche Fragen durch die vorhandenen Datenschutzgesetze, insbesondere durch DSGVO und BDSG relativ eindeutig zu beantworten sind, nämlich, dass man schlicht keine sensiblen Daten eingeben darf, ist die Sache im Urheberrecht weniger eindeutig. Da sich ChatGPT wie auch andere solcher KI-Systeme riesiger ihr antrainierter Datenmengen bedienen, die mit jeder Benutzung wachsen, kann es durchaus vorkommen, dass der Bot Inhalte minimal oder unverändert wiedergibt. Für den Nutzer ist das kaum zu erkennen und schwer überprüfbar und doch kann die Verwendung einen Verstoß gegen Urheberrechte darstellen. Ein eigenes Urheberrecht hat ChatGPT indes nicht, da als Computer kann er kein Urheber im Sinn des § 7 des Urhebergesetztes sein. Denkbar ist aber, dass durch die Benutzung des Bots selbst und die Art und Weise wie man diesen bedient, ein Urheberrecht beim Verwender entsteht, weil der Bot nur der Herstellung eines geschützten Werkes dient.

Im jetzigen Entwicklungsstadium dürfte aber klar sein, wer Chatbots bedient und den Output für sich nutzt, muss mit dem was er bekommt verantwortungsbewusst umgehen. Von Unabhängigkeit und Autarkie sind die KI-Systeme heute noch weit entfernt und eine ungeprüfte Übernahme von Inhalten dürfte wohl mindestens als fahrlässig bezeichnet werden.

Um die Regulierung künstlicher Intelligenzen wird man perspektivisch nicht herumkommen, insbesondere wenn man davon ausgeht, dass ein Chatbot wie ChatGPT nur Teil eines ganzen Technologiezweigs ist, der erst am Anfang seiner Entwicklung steht. Schon jetzt einen rechtlichen Rahmen zu schaffen ist angesichts der Entwicklungsgeschwindigkeit ratsam und wird auch ausdrücklich vom ChatGPT Erfinder Sam Altman befürwortet. Im Ergebnis wird es dabei jedoch darauf ankommen ein Gleichgewicht zu finden, zwischen den Möglichkeiten und Chancen und einer Regulierungsstrategie, die keinen Selbstzweck verfolgt, sondern gezielt Gefahren bekämpft und Risiken minimiert, ohne der Weiterentwicklung der Technologie im Wege zu stehen.

Was davon heute fortgilt

Der Beitrag bleibt als frühe Einordnung deshalb relevant, weil sein Kern nicht veraltet ist: Wer KI nutzt, muss Eingaben, Datenflüsse, Output-Kontrolle und Verantwortlichkeit rechtlich mitdenken. Hinzugekommen ist vor allem ein dichterer Regelungs- und Umsetzungskontext.

  • Unternehmen sollten nicht nur den Output prüfen, sondern bereits Prompts, Datenquellen, Rollen im Projekt und Dokumentationspflichten sauber erfassen.
  • Datenschutzrecht, Geschäftsgeheimnisse, Vertragsgestaltung und Schutzrechte laufen im KI-Einsatz häufig parallel und nicht nacheinander.
  • Die Frage „Ist KI erlaubt?“ hilft operativ wenig. Tragfähig ist die Prüfung, welche Rolle das Unternehmen einnimmt, welche Daten einfließen und welche Pflichten daraus folgen.

Für die aktuelle fachliche Vertiefung führt der passende Weg in den Schwerpunkt KI-Recht für Unternehmen. Eine engere urheberrechtliche Anschlussfrage behandelt ergänzend der Beitrag Bestehen Urheberrechte an KI-Bildern und KI-erzeugten Logos?.

Zuständige Rechtsanwälte bei ITMR

Jean Paul P. Bohne, LL.M., MM

Fachanwalt für IT-Recht und Fachanwalt für Urheber- und Medienrecht. Die Zuständigkeit passt hier insbesondere wegen der Schnittstellen zwischen KI, Datenschutz, Schutzrechten, Plattformfragen und digitaler Unternehmenspraxis.

Dr. Alexander Pleh

Fachanwalt für IT-Recht. Der Schwerpunkt liegt bei der rechtlichen Einordnung von KI-Projekten, Produkt- und Organisationsfragen sowie der strukturierten Umsetzung regulatorischer Anforderungen.

Offizielle Quellen und Vertiefung

Fazit

Der Beitrag beschreibt einen frühen Wendepunkt der öffentlichen KI-Debatte. Sein praktischer Kern bleibt tragfähig: Wer generative KI im Unternehmen nutzt, darf sich nicht auf technische Leistungsfähigkeit verlassen, sondern muss Eingaben, Datenlage, Nutzungsrechte, Vertraulichkeit und Output-Kontrolle rechtlich absichern.

Seit der Veröffentlichung ist aus der Grundsatzfrage ein konkretes Pflichtenprogramm geworden. Deshalb ist bei heutigen KI-Projekten nicht nur die abstrakte Diskussion über Chancen und Risiken wichtig, sondern die saubere rechtliche Einordnung des konkreten Systems, seines Einsatzzwecks und der verantwortlichen Rolle im Unternehmen.


Artikel teilen

Teilen Sie diesen Artikel mit Ihrem Netzwerk