SBS Firmengruppe Logos

| IT-Recht

Haftung bei KI-generierten Inhalten


Wenn künstliche Intelligenz wirtschaftsrelevante Informationen fehlerhaft interpretiert, kann das schnell schwerwiegende Konsequenzen haben. Besonders dann, wenn falsche Angaben öffentlich verbreitet werden. In einem aktuellen Fall veröffentlichte ein Onlineportal unter Einsatz einer KI-gestützten Datenanalyse fälschlicherweise die Information, ein Unternehmen sei wegen Vermögenslosigkeit gelöscht worden. Das betroffene Unternehmen setzte sich juristisch zur Wehr – mit Erfolg.

Technologische Automatisierung entbindet nicht von rechtlicher Verantwortung

Das Landgericht Kiel stellte mit seinem Urteil vom 29.02.2024, Az. 6 O 151/23 klar: Wer automatisierte Systeme betreibt, haftet auch für deren Fehler. Das Urteil sendet ein deutliches Signal, sowohl an Anbieter digitaler Auskunftsdienste als auch an andere Unternehmen, die solche nutzen.

Was war passiert?

Ein mittelständisches Familienunternehmen aus dem Handwerksbereich, das sich auf den Bau von Wintergärten und Terrassendächern spezialisiert hat, sah sich plötzlich mit fatalen Falschinformationen im Netz konfrontiert. Über ein Internetportal, das Wirtschaftsdaten deutscher Unternehmen strukturiert aufbereitet und zur Verfügung stellt, war abrufbar, die Gesellschaft solle wegen Vermögenslosigkeit gelöscht werden. Der Hinweis, veröffentlicht unter Berufung auf das Handelsregister, suggerierte, dass der Betrieb mit finanziellen Schwierigkeiten zu kämpfen hatte, obwohl das Unternehmen wirtschaftlich stabil aufgestellt ist.

Die Portalbetreiberin, gegen die sich die Klage richtete, betreibt einen automatisierten Informationsdienst. Mithilfe einer Software werden Veröffentlichungen aus dem Bundesanzeiger, dem Handelsregister sowie dem Insolvenzregister vollautomatisch ausgewertet, zusammengeführt und nutzerfreundlich dargestellt. Die Inhalte sind über eine Suchmaske abrufbar. Nutzer können so ganz gezielt nach Firmennamen recherchieren. Und genau hier lag das Problem: Ein fehlerhafter Abgleich innerhalb der Verarbeitungskette führte dazu, dass Daten eines anderen Unternehmens versehentlich mit denen der Klägerin verknüpft wurden.

So war auf der Plattform unter dem Namen des klagenden Unternehmens die Bekanntmachung vom 19. Juni 2023 abrufbar. In Wahrheit betraf diese Information jedoch ein vollkommen anderes Unternehmen.

Die Klägerin forderte umgehend die Entfernung der fehlerhaften Angabe und verlangte zusätzlich eine Unterlassungserklärung. Zwar reagierte die Beklagte, entfernte die Information und richtete eine technische Sperre ein, verweigerte jedoch die Abgabe der geforderten Erklärung. Damit war der Weg zur gerichtlichen Klärung geebnet.


Nutzungsbedingungen kein Freifahrtschein

Die Betreiberin des Portals war sich der potenziellen Risiken augenscheinlich bewusst. Zumindest deuten die eigenen Nutzungsbedingungen darauf hin. Darin wird neben dem vollautomatischen Charakter der Datenauswertung ausdrücklich betont, dass die ermittelten Informationen ungenau oder gar erheblich fehlerhaft sein könnten. Die grafische Darstellung der Daten erklärte sie zudem als eigene geistige Leistung.

Um sich rechtlich abzusichern, enthielt das Regelwerk des Dienstes außerdem einen weitreichenden Haftungsausschluss: Für Richtigkeit, Vollständigkeit oder Aktualität der bereitgestellten Inhalte wollte die Plattform keine Verantwortung übernehmen. Mit dieser Formulierung versuchte man, die Gefahren der automatisierten Datenverarbeitung auf die Nutzer abzuwälzen. Trotz der Tatsache, dass die veröffentlichten Informationen über Unternehmen weitreichende Auswirkungen auf deren geschäftlichen Ruf haben können.

Wer automatisierte Systeme nutzt, bleibt für deren Inhalte verantwortlich

Und das auch dann, wenn diese fehlerhaft sind. Das Gericht erkannte im vorliegenden Fall zudem einen Eingriff in das Unternehmenspersönlichkeitsrecht und sprach dem mittelständischen Unternehmen einen Unterlassungsanspruch zu. Rechtlich wurde der Unterlassungsanspruch auf § 1004 Abs. 1 S. 2 BGB analog i.V.m. § 823 Abs. 1 BGB sowie Art. 2 Abs. 1, 19 Abs. 3 GG gestützt. Obwohl § 1004 BGB primär das Eigentum schützt, findet er aufgrund seiner Schutzfunktion auch bei anderen absoluten Rechten Anwendung. Darunter das allgemeine Persönlichkeitsrecht. Dieses steht auch juristischen Personen zu, sofern sie – wie hier – auf gesellschaftliche Reputation angewiesen sind.

Allerdings wurde der Unterlassungsanspruch auf die konkret veröffentlichte Aussage beschränkt. Eine darüberhinausgehende generalisierte Untersagung künftiger Inhalte wurde abgelehnt, da das allgemeine Persönlichkeitsrecht in jedem Einzelfall gegen andere grundrechtlich geschützte Positionen abzuwägen sei.

Kernaussagen des Urteils:

  • Die Beklagte haftet als unmittelbare Störerin für KI-generierte Falschinformationen.
  • Die Veröffentlichung verletzte das Unternehmenspersönlichkeitsrecht der Klägerin.
  • Es bestand Wiederholungsgefahr, da vergleichbare Fehler jederzeit wieder auftreten können.
  • Die Beklagte wurde zur Unterlassung und zur Zahlung vorgerichtlicher Anwaltskosten (527 € zzgl. Zinsen) verpflichtet.
  • Eine weitergehende Unterlassung zukünftiger Aussagen wurde mangels konkreter Wiederholungsform abgelehnt.
  • Die rechtliche Grundlage der Entscheidung ergibt sich aus §§ 1004 Abs. 1 S. 2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 19 Abs. 3 GG.

KI-Haftung und internationale Perspektiven

Ein Vergleich der rechtlichen Herangehensweisen verschiedener Staaten zeigt: Es gibt keine einheitliche Lösung, wohl aber unterschiedliche Strategien, wie Gesetzgeber auf die Haftungs-Herausforderung reagieren.

Europäische Union: Regulierung mit Augenmaß
Die EU setzt auf einen klar strukturierten, rechtssicheren Rahmen. Mit der geplanten KI-Haftungsrichtlinie verfolgt sie das Ziel, ein einheitliches Schutzniveau für Personen zu schaffen, die durch KI-Systeme geschädigt wurden. Zentrale Elemente des KI-Rechts sind die Erleichterung der Beweisführung für Betroffene und neue Offenlegungspflichten für Unternehmen, die KI-Systeme einsetzen. Die EU will damit nicht nur Vertrauen in die Technologie stärken, sondern auch Haftungslücken schließen, die durch die Autonomie von KI-Systemen entstehen.

USA: Marktgetrieben und flexibel
Die Vereinigten Staaten setzen dagegen stärker auf bestehende Rechtsstrukturen. Spezifische Bundesgesetze zur KI-Haftung gibt es bislang nicht. Stattdessen wird auf das klassische Produkthaftungsrecht zurückgegriffen und durch Präzedenzfälle und einzelstaatliche Regelungen ergänzt. Der eher zurückhaltende Regulierungsansatz soll Innovation nicht ausbremsen, führt jedoch zu einer gewissen rechtlichen Unschärfe, die Unternehmen wie Geschädigte gleichermaßen vor Herausforderungen stellt.

China: Zentral gesteuerte Kontrolle
Chinas Ansatz ist stark staatlich geprägt. Die Regierung fördert gezielt die Entwicklung von KI, setzt aber gleichzeitig auf strikte Vorgaben, um Risiken einzudämmen. Die KI-Haftung wird dort vor allem im Kontext staatlicher Kontrolle gedacht. Eine engmaschige Überwachung und die Pflicht zur Risikominimierung sollen potenzielle Schäden gar nicht erst entstehen lassen. Der Fokus liegt weniger auf individueller Verantwortung, sondern auf der systemischen Steuerung durch die öffentliche Hand.

Japan: Verantwortung durch Kooperation
In Japan steht die Balance zwischen technologischer Offenheit und Verbraucherschutz im Mittelpunkt. Anstelle harter Regulierung vertraut der japanische Gesetzgeber auf freiwillige Standards, ethische Leitlinien und die enge Zusammenarbeit von Wirtschaft, Wissenschaft und Staat. Ziel ist ein verantwortungsvoller Umgang mit KI, der durch Transparenz und Rechenschaftspflichten gestützt wird. Damit will Japan rechtliche Sicherheit schaffen, ohne die Innovationsdynamik zu gefährden.

Fazit

Das Urteil des Landgerichts Kiel markiert einen wichtigen Meilenstein im Umgang mit KI-gestützten Informationssystemen. Es verdeutlicht, dass Unternehmen, die auf automatisierte Datenverarbeitung durch Künstliche Intelligenz setzen, sich nicht hinter der Technologie verstecken können. Wer solche KI-Systeme betreibt und deren Ergebnisse veröffentlicht, trägt weiterhin die Verantwortung für deren inhaltliche Korrektheit. Auch bei fehlerhaften Verknüpfungen oder Auswertungen.

Damit wird klar: Der Einsatz von KI entbindet nicht von rechtlicher Sorgfalt. Vielmehr müssen Betreiber geeignete Kontrollmechanismen integrieren, um falsche oder irreführende Inhalte frühzeitig zu erkennen und zu verhindern. Zwar schreibt die europäische KI-Verordnung (AI Act) solche Maßnahmen derzeit nur für Hochrisiko-KI-Systeme verbindlich vor, doch das Urteil zeigt: Auch unterhalb dieser Schwelle kann eine fehlende Qualitätssicherung schnell haftungsrelevant werden.

Für Unternehmen bedeutet das: Eine durchdachte Strategie zur inhaltlichen Kontrolle von KI-Ergebnissen ist längst keine Kür mehr, sondern ein zentraler Bestandteil moderner Compliance- und Risikomanagementstrukturen.


SBS LEGAL – Kanzlei für KI-Recht 

Sind Sie unsicher, ob die Nutzung von KI-Systemen rechtlich einwandfrei erfolgt? Fragen Sie sich, wer haftet, wenn automatisierte Informationen fehlerhaft sind – etwa wie im Fall einer falschen Handelsregistermitteilung durch eine KI? Oder benötigen Sie rechtliche Unterstützung, um interne Prozesse im Umgang mit Anwendungen wie ChatGPT rechtssicher zu gestalten?

Dann sind Sie bei SBS LEGAL genau richtig! 

Unser erfahrenes Team berät Sie umfassend zu allen Fragen rund um das KI-Recht – ob es um die Bewertung urheberrechtlicher Schutzfähigkeit von KI-generierten Inhalten geht, um arbeitsrechtliche Richtlinien für den KI-Einsatz im Unternehmen oder um Haftungsfragen bei automatisierten Systemen.

Wir unterstützen Sie auch präventiv dabei, Risiken im Zusammenhang mit künstlicher Intelligenz zu erkennen und gezielt zu minimieren. Sei es durch rechtssichere Gestaltung von Nutzungsbedingungen, interne Compliance-Richtlinien oder die Bewertung von Hochrisiko-KI nach dem AI Act.

Unsere Beratung ist ferner interdisziplinär und praxisnah, abgestimmt auf die konkreten Herausforderungen, mit denen Unternehmen beim Einsatz moderner KI-Technologie konfrontiert sind.

Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie die Rechtsberatung von dem erfahrenen Team aus Fachanwälten und Spezialisten von SBS LEGAL?

Der Erstkontakt zu SBS LEGAL ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutz-Richtlinien gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht