SBS Firmengruppe Logos

| KI-Recht

Die wichtigsten Gerichtsentscheidungen für den Einsatz von KI


Während der rechtliche Rahmen im Umgang mit etablierten Technologien bereits eindeutig abgesteckt ist, tauchen im Zusammenhang mit KI immer wieder ungeklärte Fragen auf. Lange fehlten hierzu klare Urteile, doch in jüngerer Vergangenheit haben erste Gerichtsentscheidungen zu KI-Anwendungen wichtige Weichen gestellt. Inzwischen liegen teils richtungsweisende Urteile vor, welche erstmals konkretisieren, wie Gerichte mit haftungs- und persönlichkeitsrechtlichen Streitfragen bei KI-gestützten Systemen umgehen.

Ein Überblick über diese aktuellen Entscheidungen verdeutlicht, wie die Rechtsprechung beginnt, Grundsatzfragen rund um Verantwortlichkeit, Sorgfalt und Haftung beim Einsatz Künstlicher Intelligenz zu ordnen. Die wichtigsten Erkenntnisse dieser neuen Rechtsprechung haben wir nachfolgend zusammengefasst.


KI-Training mit personenbezogenen Daten für Meta erlaubt

Das Oberlandesgericht Köln hat im Eilverfahren entschieden, dass Meta die öffentlichen Daten erwachsener Nutzerinnen und Nutzer von Facebook und Instagram vorerst für das Training seines Sprach-KI-Modells „LLaMA“ verwenden darf.

Die Richter sehen in der geplanten Nutzung der Daten zu Trainingszwecken keinen Verstoß gegen die Datenschutz-Grundverordnung (DSGVO), da ein berechtigtes Interesse von Meta besteht, seine KI-Modelle mit realen Nutzerdaten zu verbessern. Im konkreten Fall betraf dies Informationen wie Namen, Profilbilder und öffentlich zugängliche Kommentare – nicht jedoch private Chats.

Der Versuch der Verbraucherzentrale NRW, diese Datenverarbeitung über eine einstweilige Verfügung zu verhindern, blieb ohne Erfolg. Das Gericht betonte, dass die Nutzer die Möglichkeit zum Widerspruch haben, solange sie diesen rechtzeitig einlegen. Auch wurde festgehalten, dass Meta den Vorgaben des Europäischen Datenschutzausschusses entspreche, indem lediglich öffentliche, über Suchmaschinen auffindbare Daten sowie bestimmte Deidentifizierungsmaßnahmen berücksichtigt werden.

Die zuständige irische Datenschutzbehörde wurde darüber informiert und erachtet die getroffenen Maßnahmen als ausreichend, sodass keine unmittelbaren aufsichtsbehördlichen Schritte notwendig schienen. Anders sah dies der hamburgische Datenschutzbeauftragte, der einstweilige Maßnahmen auf europäischer Ebene anstrebt. Diese stehen jedoch noch aus. Nach Ansicht des Gerichts ist ein legitimer Zweck für die Datenverarbeitung gegeben und die Interessen der betroffenen Personen überwiegen in der Gesamtabwägung nicht. Endgültige Klarheit wird jedoch erst ein Hauptsacheverfahren bringen.

Kompakte Übersicht der wichtigsten Punkte:

  • Das OLG Köln sieht in der Datennutzung durch Meta zu KI-Trainingszwecken keinen DSGVO-Verstoß.
  • Erlaubt wird die Verarbeitung ausschließlich öffentlicher Daten volljähriger Nutzer – keine Verwendung privater Chats.
  • Das Gericht erkennt ein berechtigtes Interesse und einen legitimen Zweck für KI-Training mit realen Nutzerdaten an.
  • Meta hält Deidentifizierungsmaßnahmen sowie Vorgaben des Europäischen Datenschutzausschusses (EDSA) ein.
  • Nutzer können der Verwendung ihrer Daten widersprechen, dabei ist jedoch Eile geboten.
  • Die irische Datenschutzbehörde sieht aktuell keinen Handlungsbedarf; von einer endgültigen Entscheidung bleibt ein Hauptverfahren abzuwarten.
  • Parallel hat der Hamburgische Datenschutzbeauftragte eigenständige Verfahren nach Art. 66 DSGVO eingeleitet.

KI-Trainingsdatensätzen: Erstellung aus Sicht des Urheberrechts unbedenklich

Das Landgericht Hamburg hat mit einem wegweisenden Urteil klargestellt, dass das Erstellen von KI-Trainingsdatensätzen durch gemeinnützige Organisationen grundsätzlich unter die urheberrechtliche Schrankenregelung für Text- und Data-Mining fällt.

Im konkreten Fall stritt der Fotograf Robert Kneschke mit dem Verein LAION, der ein von ihm auf einer Bildplattform öffentlich bereitgestelltes Foto ohne individuelle Erlaubnis als Teil eines Datensatzes zur KI-Forschung nutzte. Ausgangspunkt war die Frage, ob die Nutzung des Bildes trotz expliziten Nutzungsverbots für „automated programs“ in den Plattformbedingungen zulässig war. Das Gericht entschied, dass das Herunterladen und die Vervielfältigung von Werken für Trainingszwecke durch § 60d Urheberrechtsgesetz gedeckt sind, solange diese Tätigkeit der wissenschaftlichen Forschung dient und keine kommerziellen Interessen verfolgt werden.

Ermöglicht wird dies, da die automatisierte Analyse, etwa zur Erkennung von Mustern oder Korrelationen, rechtlich ausdrücklich erlaubt ist. Das Urteil stützt sich auf die aktuelle EU-KI-Verordnung, die in Artikel 53 Abs. 1 ausdrücklich klarstellt, dass die Erarbeitung von KI-Trainingsdaten durch Text- und Data-Mining begünstigt wird, sofern potenzielle Nutzungsvorbehalte beachtet werden. Eine Besonderheit des Urteils stellt die Bewertung dar, dass auch ein Nutzungsvorbehalt in „natürlicher Sprache“ (beispielsweise ein Verbot in den Nutzungsbedingungen) als maschinenlesbar gelten kann. Eine zentrale Frage, über die juristisch noch keine endgültige Klarheit besteht. Damit stärkt das Urteil vor allem den Bereich der frei nutzbaren KI-Datensätze und schafft mehr Rechtssicherheit für die Open-Source-Community. Gleichzeitig bleibt aber offen, wie in Zukunft Nutzungsvorbehalte zu formulieren sind, um eindeutig Wirkung zu entfalten.

Wichtige Punkte im Überblick:

  • Das LG Hamburg hält die Nutzung urheberrechtlich geschützter Werke im Rahmen von KI-Trainingsdatensätzen für zulässig, sofern diese wissenschaftlichen Zwecken dient.
  • Gestützt wird das Urteil auf § 60d UrhG (Text- und Data-Mining) sowie auf die aktuelle EU-KI-Verordnung (EU 2024/1689).
  • Die automatisierte Auswertung von Bilddaten zur Erstellung von Trainingsdatensätzen – auch Open Source – fällt unter diese Schrankenregelung.
  • Ein Nutzungsvorbehalt muss grundsätzlich beachtet werden, kann nach Gerichtsmeinung aber auch in verständlicher Alltagssprache formuliert sein.

Das Urteil bringt erhebliche Klarheit für Forschungseinrichtungen, Open-Source-Projekte und die KI-Entwicklung, lässt aber technische und juristische Detailfragen zum Nutzungsvorbehalt offen.


Warum eine KI kein Erfinder sein kann

Der Bundesgerichtshof hat mit seinem aktuellen Beschluss die Rolle von Künstlicher Intelligenz im Patentrecht deutlich eingegrenzt. Im Fokus stand das KI-System „DABUS“, dessen Entwickler, Stephen Thaler, das System als Erfinder im Rahmen einer Patentanmeldung benennen wollte. Weder das Deutsche Patent- und Markenamt noch das Bundespatentgericht sahen darin einen Verstoß gegen den Grundsatz, dass nur natürliche Personen als Erfinder gelten können.

Entscheidend ist nach Ansicht des BGH, dass § 37 Abs. 1 PatG ausdrücklich die Erfindereigenschaft allein Menschen zuschreibt. Auch hochentwickelte, autonome KI-Systeme erfüllen dieses Kriterium nicht, da bislang keine Erfindung ohne wesentlichen menschlichen Beitrag möglich ist. Deshalb genügt es, wenn der Mensch, der die KI veranlasst oder steuert, als Erfinder benannt wird. Die KI bleibt dabei Werkzeug und nicht Rechtssubjekt.

Das Gericht folgte damit der gängigen Auffassung in der internationalen Patentrechtspraxis und betonte, dass der gesetzgeberische Wille sowie die „Erfinderehre“ ausschließlich natürlichen Personen zukommt. Der BGH bestätigte dabei ausdrücklich die Entscheidung des Bundespatentgerichts, die die Benennung als „Stephen Thaler, der die KI DABUS dazu veranlasst hat, die Erfindung zu generieren“ für rechtlich zulässig hält.

Damit wurde endgültig festgestellt, dass KI-Systeme nach aktueller Rechtslage nicht selbst als Erfinder auftreten können, sondern stets ein Mensch als Erfinder gelten muss, der maßgeblich an der Entstehung der technischen Lehre beteiligt war.

Wesentliche Aussagen zusammengefasst:

  • Der BGH stellt klar: „Erfinder“ im Sinne des Patentrechts kann nur ein Mensch sein – auch bei KI-generierten Erfindungen.
  • KI-Systeme wie DABUS können nicht als eigenständige Erfinder in Anmeldungen genannt werden, sondern gelten als Instrumente.
  • Es genügt, wenn ein Mensch, der die KI maßgeblich anleitet oder nutzt, als Erfinder benannt wird. Das Ausmaß seines Beitrags ist nachrangig.
  • Die vom BGH bestätigte Formulierung „Stephen Thaler, der die KI DABUS dazu veranlasst hat.“ genügt für die Erfinderbenennung.

Auch international folgen Patentämter der Linie, dass KI selbst keine Rechte als Erfinder beanspruchen kann.


Betriebsrat hat bei der Einführung von ChatGPT kein Mitbestimmungsrecht

Das Arbeitsgericht Hamburg hat für Klarheit hinsichtlich der Mitbestimmungsrechte des Betriebsrats bei der Nutzung von generativer Künstlicher Intelligenz am Arbeitsplatz gesorgt. Im Verfahren ging es um einen Medizintechnikhersteller, der es seinen Mitarbeitenden erlaubte, im Berufsalltag freiwillig KI-Tools wie ChatGPT zu nutzen. Allerdings ausschließlich über private Accounts und ohne unternehmensinterne IT-Integration. Der Betriebsrat forderte ein Mitbestimmungsrecht und versuchte, den Einsatz von ChatGPT per einstweiligem Rechtsschutz untersagen zu lassen.

Die Kernfrage: Liegt eine technische Überwachungseinrichtung im Sinne des § 87 Abs. 1 Nr. 6 BetrVG oder eine mitbestimmungspflichtige Regelung zur Ordnung im Betrieb vor? Das Gericht verneinte dies. Es stellte klar, dass eine bloße Gestattung zur Nutzung privater ChatGPT-Accounts kein Mitbestimmungsrecht auslöst, solange der Arbeitgeber weder Zugriff auf die Nutzungsdaten noch Kontrolle über Einsatz und Umfang der verwendeten KI hat.

Die Notwendigkeit, Arbeitsergebnisse auszuweisen, die mithilfe von KI entstanden sind, ändere daran nichts: Solange diese Kennzeichnung lediglich auf Angaben der Mitarbeitenden beruht, besteht keine überwachungspflichtige technische Einrichtung. Entscheidend für die betriebsverfassungsrechtliche Bewertung ist somit, ob der Arbeitgeber Einfluss auf KI-Infrastruktur und Auswertung der Daten nimmt. Die Entscheidung macht deutlich: Solange KI-Systeme ausschließlich durch private Accounts der Beschäftigten im Arbeitsalltag Anwendung finden und der Arbeitgeber keine Überwachungsmöglichkeiten erhält, handelt es sich um mitbestimmungsfreies Arbeitsverhalten.

Die Entscheidung betont zugleich, dass schon geringe Änderungen – wie die Einführung betrieblicher KI-Infrastrukturen – rasch ein Mitbestimmungsrecht auslösen können.

Wichtige Eckpunkte aus dem Beschluss:

  • Die Nutzung generativer KI-Tools wie ChatGPT über private Accounts fällt unter mitbestimmungsfreies Arbeitsverhalten (§ 87 Abs. 1 Nr. 1, Nr. 6 BetrVG findet keine Anwendung).
  • Mitbestimmungsrechte des Betriebsrats greifen nicht, solange der Arbeitgeber keine Kontrolle über Nutzungsverhalten und Daten der Beschäftigten erhält.
  • Eine Kennzeichnungspflicht für Arbeitsergebnisse, die mittels KI entstanden sind, begründet allein kein Mitbestimmungsrecht.
  • Erst wenn der Arbeitgeber eigene KI-Infrastrukturen im Betrieb etabliert oder unmittelbare Überwachungsmöglichkeiten bestehen, entsteht ein Mitbestimmungsrecht des Betriebsrats.
  • Die gerichtliche Entscheidung gilt mit besonderer Vorsicht, da höchstrichterliche Rechtsprechung in diesem Bereich bislang fehlt und Details der Praxis erheblichen Einfluss auf die rechtliche Bewertung nehmen können.

KI im universitären Bereich

Künstliche Intelligenz ist längst Teil des Studienalltags an deutschen Hochschulen: Laut aktuellem CHE-Datencheck nutzen ca. zwei Drittel aller Studierenden KI-Tools wie ChatGPT regelmäßig, ein Viertel sogar täglich. Die Einsatzbereiche reichen von Übersetzungen über Literaturrecherchen bis zur Verbesserung von Texten. Doch vor allem beim Thema Prüfungsleistungen bleibt der Einsatz von KI rechtlich heikel. Viele Hochschulen wie die Universität zu Köln erlauben Künstliche Intelligenz unter bestimmten Voraussetzungen, beispielsweise als Quelle für Inspiration, zur Textüberarbeitung oder als Recherchehilfe. Sobald Studierende jedoch ganze Essays, Hausarbeiten oder schriftliche Bewerbungen ohne ausreichend eigene Leistung von KI erstellen lassen, kann dies einen Täuschungsversuch darstellen.

Auch wenn ein KI-generierter Text juristisch kein Plagiat im klassischen Sinne ist, weil die KI kein „Urheber“ im Sinne des Gesetzes sein kann, erfüllen solche Arbeiten dennoch die Voraussetzungen für eine unzulässige Fremdhilfe und werden prüfungsrechtlich als Täuschung gewertet. Universitäten haben ihre Prüfungsordnungen entsprechend angepasst: Wird ein Verstoß nachgewiesen, drohen – je nach Schwere – der Nichtantritt der Prüfung, der Ausschluss vom Studium oder sogar strafrechtliche Konsequenzen wie eine falsche Versicherung an Eides statt (§ 156 StGB).

Wie diese Täuschung nachgewiesen werden kann, zeigen Entscheidungen des Verwaltungsgerichts München: Dort wurde Bewerberinnen und Bewerbern der Zugang zum Masterstudium verweigert, weil sie im Rahmen ihrer Bewerbung Essays mithilfe von KI eingereicht hatten. Die Universitäten konnten plausibel anhand von typischen KI-Merkmalen – etwa ungewöhnlich fehlerfreien, hochstrukturierten und auffällig komprimierten Texten – sowie durch eine Abweichung zum vorherigen Schreibstil Beweise für die Unterstützung durch KI-Tools vorlegen. Die Beweislast liegt bei der Hochschule, die Indizien und Vergleiche mit früheren Arbeiten heranziehen kann. Das Gericht bestätigte in diesem Zusammenhang mehrfach, dass der Einsatz von KI zur vollständigen oder teilweisen Erstellung von prüfungsrelevanten Texten die Annahme einer Täuschung rechtfertigt und somit gravierende Folgen nach sich ziehen kann.

Zentrale Punkte im Überblick:

  • Der Großteil der Studierenden nutzt KI-Tools im Studium regelmäßig; in Prüfungen ist die Nutzung jedoch streng reglementiert.
  • KI-gestützte Unterstützung ist zulässig, solange eine eigenständige studentische Leistung erkennbar bleibt (z. B. Recherche, Inspiration, Formulierungshilfe).
  • Die Erstellung ganzer Prüfungsleistungen durch KI gilt als Täuschungsversuch und ist untersagt.
  • Ein Plagiat liegt formell nicht vor, da KI keine natürliche Person ist, dennoch wird die Nutzung als unerlaubte Fremdhilfe behandelt.
  • Bei Nachweis (über Indizien wie typische KI-Merkmale, Vergleich mit eigenen früheren Arbeiten oder Inkonsistenzen im Text) drohen schwerwiegende Konsequenzen: Prüfungsausfall, Zulassungsverweigerung, Exmatrikulation und ggf. rechtliche Folgen.
  • Die Beweislast für einen Täuschungsversuch liegt bei der Hochschule, muss aber auf nachvollziehbaren Indizien basieren.

Gerichte bestätigen: Wer Studienarbeiten mit KI erstellt und als eigene Leistung ausgibt, riskiert seinen Hochschulzugang.


Verfahren auf EU-Ebene: Vorlagefrage zur Auslegung von Art. 86 AI-Act

In der Rechtssache C-806/24 (Yettel Bulgaria ./. FB) beschäftigt sich der Gerichtshof der Europäischen Union mit zentralen Fragen rund um Verbraucherschutz und Künstliche Intelligenz bei automatisierten Entscheidungen, insbesondere im Kontext der Abrechnung für Mobilfunkdienstleistungen. Anlass ist ein Streit zwischen einem Telekommunikationsanbieter und einem Kunden, der aufgrund automatisiert erstellter Rechnungen Zahlungspflichten aus einem Mobilfunkvertrag bestreiten möchte.

Die Abrechnungen beruhen auf automatischer Datenerhebung und Verarbeitung durch KI-gestützte Systeme („Automated Decision-Making“, ADM), deren Funktion und Logik – sowie deren Tarifierung – für den Kunden und auch für das Gericht nicht transparent nachvollziehbar sind. Strittig ist vor allem, ob Verbraucher im Rahmen bestehender Richtlinien das Recht haben, die genaue Funktionsweise, Algorithmen und Einflussfaktoren dieser automatisierten Systeme offenlegen zu lassen.

Das bulgarische Gericht fragt in zahlreichen Punkten insbesondere danach, inwiefern Transparenz-, Informations- und Kontrollrechte nach der europäischen KI-Verordnung, der Charta der Grundrechte und den europäischen Verbraucherschutzrichtlinien bestehen und wie der sogenannte „Black-Box-Effekt“ (fehlende Überprüfbarkeit von Algorithmen) gerichtlich zu behandeln ist. Ebenfalls thematisiert werden die ethischen Anforderungen an KI-Systeme, die Zulässigkeit bestimmter Vertrags- und Entschädigungsklauseln sowie die Kostentragung für Verfahren, in denen ADM im Nachhinein erläutert wird.

Wesentliche Rechtsfragen und Streitpunkte:

  • Transparenz und Informationsrechte: Muss der Mobilfunkanbieter offenlegen, nach welchen Regeln, Algorithmen und Parametern ADM-Systeme Rechnungen und Forderungen generieren? Haben Verbraucher das Recht, eine detaillierte menschliche Überprüfung zu verlangen?
  • Geltung des Verbraucherschutzes für KI und ADM: Sind bestehende Verbraucherschutzbestimmungen (insb. aus den RL 93/13/EWG und 2011/83/EU) auch für automatisierte Entscheidungen und KI-Systeme anwendbar?
  • Black-Box-Effekt und gerichtliche Kontrolle: Kann ein Gericht vom Unternehmen verlangen, Quellcode, Algorithmus und Entscheidungsgrundlagen des ADM-Systems herauszugeben, um die Fairness und Vertragstreue (Effektivitätsgrundsatz) zu prüfen?
  • Ethik und Human Oversight: Müssen bei Entwicklung und Betrieb hochautomatisierter Entscheidungssysteme (z. B. bei der Abrechnung) auch ethische Standards, menschliche Kontrolle und richterliche Überprüfbarkeit gewährleistet sein?
  • Prüfung und Missbrauch vertraglicher Klauseln: Dürfen Unternehmen Entschädigungszahlungen auf Grundlage von Standard- statt Aktionspreisen berechnen und so den Verbraucher nachteiligen Konditionen unterwerfen, insbesondere, wenn der ADM-Prozess intransparent bleibt?
  • Sprachliche Verständlichkeit und Nachvollziehbarkeit: Müssen alle durch ADM erstellten Rechnungen und vertraglich relevanten Dokumente klar und verständlich formuliert sein, sodass Verbraucher nachvollziehen können, wie der geforderte Betrag zustande kommt?
  • Verfahrenskosten und Rechtsmissbrauch: Dürfen Verbrauchern Verfahrenskosten auferlegt werden, wenn Unternehmen erst im laufenden Gerichtsprozess die Funktionsweise des ADM offenlegen?

Kompakte Liste der Kernthemen:

  • Anwendung und Auslegung der Transparenz- und Informationspflichten bei ADM/KI in Verbraucherverträgen (vor allem Mobilfunk).
  • Recht auf Überprüfung und Zugang zu Algorithmen, Parametern und Quellcode bei Streit über automatisierte Forderungsberechnung.
  • Erforderlichkeit klarer sowie verständlicher Sprache für ADM-basierte Rechnungen und Vertragsdokumente.
  • Geltung des Verbraucherschutzes und gerichtliche Kontrollmöglichkeiten auch bei automatisierten und KI-gestützten Abrechnungen.
  • Vereinbarkeit von vertraglichen Entschädigungsregelungen/Klauseln zu Standard- und Aktionspreisen mit europäischem Verbraucherrecht.
  • Bedeutung hoher ethischer Standards, menschlicher Überprüfbarkeit und Schutz der Grundrechte im gesamten Einsatz von KI-Systemen.
  • Rechtliche und praktische Folgen unzureichender Transparenz und Verständlichkeit (z. B. Kostenlast, Ausschluss wirksamer Rechtsmittel).
  • Die Vorlage zielt darauf, den wirksamen Verbraucherschutz auch im Zeitalter automatisierter KI-Entscheidungen zu sichern und Rechtssicherheit bei Black-Box-Systemen zu schaffen.

SBS LEGAL – Kanzlei für KI-Recht

Möchten Sie wissen, wie Sie Künstliche Intelligenz rechtskonform in Ihrem Unternehmen einsetzen? Planen Sie die Einführung neuer KI-Systeme im Recruiting, Finanzsektor oder Gesundheitswesen und sind unsicher, welche Vorgaben die EU-KI-Verordnung an Sie stellt? Oder möchten Sie wissen, wie Sie Risiken minimieren, Vertragswerke absichern und die Mitbestimmung des Betriebsrats berücksichtigen? 

Dann sind Sie bei SBS LEGAL genau richtig! 

Unser spezialisiertes Team berät Sie umfassend zu allen Fragen des KI-Rechts, von der transparenten Risikobewertung und der Umsetzung technischer Schutzmaßnahmen bis hin zur Prüfung von diskriminierungsfreien HR-Lösungen und Datenschutz. Wir helfen Ihnen, KI-Projekte auf eine sichere rechtliche Grundlage zu stellen und Ihr Unternehmen fit für die regulatorischen Herausforderungen zu machen, die mit Künstlicher Intelligenz einhergehen.

Ganz gleich, ob Sie ein Start-up oder ein etabliertes Unternehmen führen, vertrauen Sie auf unsere Erfahrung und lassen Sie sich individuell beraten, damit Ihre KI-Nutzung heute und zukünftig rechtlich sicher und wettbewerbsfähig bleibt.

Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie die Rechtsberatung von dem erfahrenen Team aus Fachanwälten und Spezialisten von SBS LEGAL?

Der Erstkontakt zu SBS LEGAL ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutzhinweise gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht