Rechtsanwalt & Spezialist für Kryptorecht & KI-Recht, Zertifizierter Geldwäschebeauftragter (TÜV)
T (+49) 040 / 7344 086-0
Rechtsanwältin & Expertin für Kryptorecht
T (+49) 040 / 7344 086-0
| KI-Recht
Blog News
Während der rechtliche Rahmen im Umgang mit etablierten Technologien bereits eindeutig abgesteckt ist, tauchen im Zusammenhang mit KI immer wieder ungeklärte Fragen auf. Lange fehlten hierzu klare Urteile, doch in jüngerer Vergangenheit haben erste Gerichtsentscheidungen zu KI-Anwendungen wichtige Weichen gestellt. Inzwischen liegen teils richtungsweisende Urteile vor, welche erstmals konkretisieren, wie Gerichte mit haftungs- und persönlichkeitsrechtlichen Streitfragen bei KI-gestützten Systemen umgehen.
Ein Überblick über diese aktuellen Entscheidungen verdeutlicht, wie die Rechtsprechung beginnt, Grundsatzfragen rund um Verantwortlichkeit, Sorgfalt und Haftung beim Einsatz Künstlicher Intelligenz zu ordnen. Die wichtigsten Erkenntnisse dieser neuen Rechtsprechung haben wir nachfolgend zusammengefasst.
Das Oberlandesgericht Köln hat im Eilverfahren entschieden, dass Meta die öffentlichen Daten erwachsener Nutzerinnen und Nutzer von Facebook und Instagram vorerst für das Training seines Sprach-KI-Modells „LLaMA“ verwenden darf.
Die Richter sehen in der geplanten Nutzung der Daten zu Trainingszwecken keinen Verstoß gegen die Datenschutz-Grundverordnung (DSGVO), da ein berechtigtes Interesse von Meta besteht, seine KI-Modelle mit realen Nutzerdaten zu verbessern. Im konkreten Fall betraf dies Informationen wie Namen, Profilbilder und öffentlich zugängliche Kommentare – nicht jedoch private Chats.
Der Versuch der Verbraucherzentrale NRW, diese Datenverarbeitung über eine einstweilige Verfügung zu verhindern, blieb ohne Erfolg. Das Gericht betonte, dass die Nutzer die Möglichkeit zum Widerspruch haben, solange sie diesen rechtzeitig einlegen. Auch wurde festgehalten, dass Meta den Vorgaben des Europäischen Datenschutzausschusses entspreche, indem lediglich öffentliche, über Suchmaschinen auffindbare Daten sowie bestimmte Deidentifizierungsmaßnahmen berücksichtigt werden.
Die zuständige irische Datenschutzbehörde wurde darüber informiert und erachtet die getroffenen Maßnahmen als ausreichend, sodass keine unmittelbaren aufsichtsbehördlichen Schritte notwendig schienen. Anders sah dies der hamburgische Datenschutzbeauftragte, der einstweilige Maßnahmen auf europäischer Ebene anstrebt. Diese stehen jedoch noch aus. Nach Ansicht des Gerichts ist ein legitimer Zweck für die Datenverarbeitung gegeben und die Interessen der betroffenen Personen überwiegen in der Gesamtabwägung nicht. Endgültige Klarheit wird jedoch erst ein Hauptsacheverfahren bringen.
Kompakte Übersicht der wichtigsten Punkte:
Das Landgericht Hamburg hat mit einem wegweisenden Urteil klargestellt, dass das Erstellen von KI-Trainingsdatensätzen durch gemeinnützige Organisationen grundsätzlich unter die urheberrechtliche Schrankenregelung für Text- und Data-Mining fällt.
Im konkreten Fall stritt der Fotograf Robert Kneschke mit dem Verein LAION, der ein von ihm auf einer Bildplattform öffentlich bereitgestelltes Foto ohne individuelle Erlaubnis als Teil eines Datensatzes zur KI-Forschung nutzte. Ausgangspunkt war die Frage, ob die Nutzung des Bildes trotz expliziten Nutzungsverbots für „automated programs“ in den Plattformbedingungen zulässig war. Das Gericht entschied, dass das Herunterladen und die Vervielfältigung von Werken für Trainingszwecke durch § 60d Urheberrechtsgesetz gedeckt sind, solange diese Tätigkeit der wissenschaftlichen Forschung dient und keine kommerziellen Interessen verfolgt werden.
Ermöglicht wird dies, da die automatisierte Analyse, etwa zur Erkennung von Mustern oder Korrelationen, rechtlich ausdrücklich erlaubt ist. Das Urteil stützt sich auf die aktuelle EU-KI-Verordnung, die in Artikel 53 Abs. 1 ausdrücklich klarstellt, dass die Erarbeitung von KI-Trainingsdaten durch Text- und Data-Mining begünstigt wird, sofern potenzielle Nutzungsvorbehalte beachtet werden. Eine Besonderheit des Urteils stellt die Bewertung dar, dass auch ein Nutzungsvorbehalt in „natürlicher Sprache“ (beispielsweise ein Verbot in den Nutzungsbedingungen) als maschinenlesbar gelten kann. Eine zentrale Frage, über die juristisch noch keine endgültige Klarheit besteht. Damit stärkt das Urteil vor allem den Bereich der frei nutzbaren KI-Datensätze und schafft mehr Rechtssicherheit für die Open-Source-Community. Gleichzeitig bleibt aber offen, wie in Zukunft Nutzungsvorbehalte zu formulieren sind, um eindeutig Wirkung zu entfalten.
Wichtige Punkte im Überblick:
Das Urteil bringt erhebliche Klarheit für Forschungseinrichtungen, Open-Source-Projekte und die KI-Entwicklung, lässt aber technische und juristische Detailfragen zum Nutzungsvorbehalt offen.
Der Bundesgerichtshof hat mit seinem aktuellen Beschluss die Rolle von Künstlicher Intelligenz im Patentrecht deutlich eingegrenzt. Im Fokus stand das KI-System „DABUS“, dessen Entwickler, Stephen Thaler, das System als Erfinder im Rahmen einer Patentanmeldung benennen wollte. Weder das Deutsche Patent- und Markenamt noch das Bundespatentgericht sahen darin einen Verstoß gegen den Grundsatz, dass nur natürliche Personen als Erfinder gelten können.
Entscheidend ist nach Ansicht des BGH, dass § 37 Abs. 1 PatG ausdrücklich die Erfindereigenschaft allein Menschen zuschreibt. Auch hochentwickelte, autonome KI-Systeme erfüllen dieses Kriterium nicht, da bislang keine Erfindung ohne wesentlichen menschlichen Beitrag möglich ist. Deshalb genügt es, wenn der Mensch, der die KI veranlasst oder steuert, als Erfinder benannt wird. Die KI bleibt dabei Werkzeug und nicht Rechtssubjekt.
Das Gericht folgte damit der gängigen Auffassung in der internationalen Patentrechtspraxis und betonte, dass der gesetzgeberische Wille sowie die „Erfinderehre“ ausschließlich natürlichen Personen zukommt. Der BGH bestätigte dabei ausdrücklich die Entscheidung des Bundespatentgerichts, die die Benennung als „Stephen Thaler, der die KI DABUS dazu veranlasst hat, die Erfindung zu generieren“ für rechtlich zulässig hält.
Damit wurde endgültig festgestellt, dass KI-Systeme nach aktueller Rechtslage nicht selbst als Erfinder auftreten können, sondern stets ein Mensch als Erfinder gelten muss, der maßgeblich an der Entstehung der technischen Lehre beteiligt war.
Wesentliche Aussagen zusammengefasst:
Auch international folgen Patentämter der Linie, dass KI selbst keine Rechte als Erfinder beanspruchen kann.
Das Arbeitsgericht Hamburg hat für Klarheit hinsichtlich der Mitbestimmungsrechte des Betriebsrats bei der Nutzung von generativer Künstlicher Intelligenz am Arbeitsplatz gesorgt. Im Verfahren ging es um einen Medizintechnikhersteller, der es seinen Mitarbeitenden erlaubte, im Berufsalltag freiwillig KI-Tools wie ChatGPT zu nutzen. Allerdings ausschließlich über private Accounts und ohne unternehmensinterne IT-Integration. Der Betriebsrat forderte ein Mitbestimmungsrecht und versuchte, den Einsatz von ChatGPT per einstweiligem Rechtsschutz untersagen zu lassen.
Die Kernfrage: Liegt eine technische Überwachungseinrichtung im Sinne des § 87 Abs. 1 Nr. 6 BetrVG oder eine mitbestimmungspflichtige Regelung zur Ordnung im Betrieb vor? Das Gericht verneinte dies. Es stellte klar, dass eine bloße Gestattung zur Nutzung privater ChatGPT-Accounts kein Mitbestimmungsrecht auslöst, solange der Arbeitgeber weder Zugriff auf die Nutzungsdaten noch Kontrolle über Einsatz und Umfang der verwendeten KI hat.
Die Notwendigkeit, Arbeitsergebnisse auszuweisen, die mithilfe von KI entstanden sind, ändere daran nichts: Solange diese Kennzeichnung lediglich auf Angaben der Mitarbeitenden beruht, besteht keine überwachungspflichtige technische Einrichtung. Entscheidend für die betriebsverfassungsrechtliche Bewertung ist somit, ob der Arbeitgeber Einfluss auf KI-Infrastruktur und Auswertung der Daten nimmt. Die Entscheidung macht deutlich: Solange KI-Systeme ausschließlich durch private Accounts der Beschäftigten im Arbeitsalltag Anwendung finden und der Arbeitgeber keine Überwachungsmöglichkeiten erhält, handelt es sich um mitbestimmungsfreies Arbeitsverhalten.
Die Entscheidung betont zugleich, dass schon geringe Änderungen – wie die Einführung betrieblicher KI-Infrastrukturen – rasch ein Mitbestimmungsrecht auslösen können.
Wichtige Eckpunkte aus dem Beschluss:
Künstliche Intelligenz ist längst Teil des Studienalltags an deutschen Hochschulen: Laut aktuellem CHE-Datencheck nutzen ca. zwei Drittel aller Studierenden KI-Tools wie ChatGPT regelmäßig, ein Viertel sogar täglich. Die Einsatzbereiche reichen von Übersetzungen über Literaturrecherchen bis zur Verbesserung von Texten. Doch vor allem beim Thema Prüfungsleistungen bleibt der Einsatz von KI rechtlich heikel. Viele Hochschulen wie die Universität zu Köln erlauben Künstliche Intelligenz unter bestimmten Voraussetzungen, beispielsweise als Quelle für Inspiration, zur Textüberarbeitung oder als Recherchehilfe. Sobald Studierende jedoch ganze Essays, Hausarbeiten oder schriftliche Bewerbungen ohne ausreichend eigene Leistung von KI erstellen lassen, kann dies einen Täuschungsversuch darstellen.
Auch wenn ein KI-generierter Text juristisch kein Plagiat im klassischen Sinne ist, weil die KI kein „Urheber“ im Sinne des Gesetzes sein kann, erfüllen solche Arbeiten dennoch die Voraussetzungen für eine unzulässige Fremdhilfe und werden prüfungsrechtlich als Täuschung gewertet. Universitäten haben ihre Prüfungsordnungen entsprechend angepasst: Wird ein Verstoß nachgewiesen, drohen – je nach Schwere – der Nichtantritt der Prüfung, der Ausschluss vom Studium oder sogar strafrechtliche Konsequenzen wie eine falsche Versicherung an Eides statt (§ 156 StGB).
Wie diese Täuschung nachgewiesen werden kann, zeigen Entscheidungen des Verwaltungsgerichts München: Dort wurde Bewerberinnen und Bewerbern der Zugang zum Masterstudium verweigert, weil sie im Rahmen ihrer Bewerbung Essays mithilfe von KI eingereicht hatten. Die Universitäten konnten plausibel anhand von typischen KI-Merkmalen – etwa ungewöhnlich fehlerfreien, hochstrukturierten und auffällig komprimierten Texten – sowie durch eine Abweichung zum vorherigen Schreibstil Beweise für die Unterstützung durch KI-Tools vorlegen. Die Beweislast liegt bei der Hochschule, die Indizien und Vergleiche mit früheren Arbeiten heranziehen kann. Das Gericht bestätigte in diesem Zusammenhang mehrfach, dass der Einsatz von KI zur vollständigen oder teilweisen Erstellung von prüfungsrelevanten Texten die Annahme einer Täuschung rechtfertigt und somit gravierende Folgen nach sich ziehen kann.
Zentrale Punkte im Überblick:
Gerichte bestätigen: Wer Studienarbeiten mit KI erstellt und als eigene Leistung ausgibt, riskiert seinen Hochschulzugang.
In der Rechtssache C-806/24 (Yettel Bulgaria ./. FB) beschäftigt sich der Gerichtshof der Europäischen Union mit zentralen Fragen rund um Verbraucherschutz und Künstliche Intelligenz bei automatisierten Entscheidungen, insbesondere im Kontext der Abrechnung für Mobilfunkdienstleistungen. Anlass ist ein Streit zwischen einem Telekommunikationsanbieter und einem Kunden, der aufgrund automatisiert erstellter Rechnungen Zahlungspflichten aus einem Mobilfunkvertrag bestreiten möchte.
Die Abrechnungen beruhen auf automatischer Datenerhebung und Verarbeitung durch KI-gestützte Systeme („Automated Decision-Making“, ADM), deren Funktion und Logik – sowie deren Tarifierung – für den Kunden und auch für das Gericht nicht transparent nachvollziehbar sind. Strittig ist vor allem, ob Verbraucher im Rahmen bestehender Richtlinien das Recht haben, die genaue Funktionsweise, Algorithmen und Einflussfaktoren dieser automatisierten Systeme offenlegen zu lassen.
Das bulgarische Gericht fragt in zahlreichen Punkten insbesondere danach, inwiefern Transparenz-, Informations- und Kontrollrechte nach der europäischen KI-Verordnung, der Charta der Grundrechte und den europäischen Verbraucherschutzrichtlinien bestehen und wie der sogenannte „Black-Box-Effekt“ (fehlende Überprüfbarkeit von Algorithmen) gerichtlich zu behandeln ist. Ebenfalls thematisiert werden die ethischen Anforderungen an KI-Systeme, die Zulässigkeit bestimmter Vertrags- und Entschädigungsklauseln sowie die Kostentragung für Verfahren, in denen ADM im Nachhinein erläutert wird.
Wesentliche Rechtsfragen und Streitpunkte:
Kompakte Liste der Kernthemen:
Möchten Sie wissen, wie Sie Künstliche Intelligenz rechtskonform in Ihrem Unternehmen einsetzen? Planen Sie die Einführung neuer KI-Systeme im Recruiting, Finanzsektor oder Gesundheitswesen und sind unsicher, welche Vorgaben die EU-KI-Verordnung an Sie stellt? Oder möchten Sie wissen, wie Sie Risiken minimieren, Vertragswerke absichern und die Mitbestimmung des Betriebsrats berücksichtigen?
Unser spezialisiertes Team berät Sie umfassend zu allen Fragen des KI-Rechts, von der transparenten Risikobewertung und der Umsetzung technischer Schutzmaßnahmen bis hin zur Prüfung von diskriminierungsfreien HR-Lösungen und Datenschutz. Wir helfen Ihnen, KI-Projekte auf eine sichere rechtliche Grundlage zu stellen und Ihr Unternehmen fit für die regulatorischen Herausforderungen zu machen, die mit Künstlicher Intelligenz einhergehen.
Ganz gleich, ob Sie ein Start-up oder ein etabliertes Unternehmen führen, vertrauen Sie auf unsere Erfahrung und lassen Sie sich individuell beraten, damit Ihre KI-Nutzung heute und zukünftig rechtlich sicher und wettbewerbsfähig bleibt.
Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie die Rechtsberatung von dem erfahrenen Team aus Fachanwälten und Spezialisten von SBS LEGAL?