Rechtsanwalt & Spezialist für Kryptorecht & KI-Recht, Zertifizierter Geldwäschebeauftragter (TÜV)
T (+49) 040 / 7344 086-0
Rechtsanwältin & Expertin für Kryptorecht
T (+49) 040 / 7344 086-0
| IT-Recht
Blog News
KI-Halluzinationen, also fehlerhafte Inhalte als Ergebnis unzureichender Informationen, sind ein zentrales Problem im KI-Recht. Der Einsatz generativer Künstlicher Intelligenz (KI), insbesondere von Large Language Models (LLMs), hat den Umgang mit Daten und Informationen revolutioniert. Unternehmen profitieren von einer Vielzahl von Vorteilen, doch die Technik birgt auch erhebliche Risiken. Das Landgericht Kiel hat mit seinem Urteil vom 29. Februar 2024 (Az. 6 O 151/23) eine richtungsweisende Entscheidung getroffen, die die Haftung für KI-generierte Inhalte klar umreißt.
Im vorliegenden Fall ging es um ein mittelständisches Unternehmen, das falsche Informationen über ein anderes Unternehmen veröffentlichte. Die Beklagte betrieb eine Plattform für Wirtschaftsinformationen, auf der automatisierte Daten aus öffentlichen Registern angezeigt wurden. Das System hatte angegeben, die klagende Gesellschaft sei aufgrund von Vermögenslosigkeit gemäß § 394 FamFG gelöscht worden – eine unzutreffende Behauptung.
Die Beklagte hatte sich zur Datenerhebung einer KI-gestützten Software bedient, die relevante Informationen auf Basis von Suchbegriffen aus öffentlichen Quellen filtert. Zwar erklärte das Unternehmen auf seiner Webseite, dass die Daten automatisiert generiert würden und Fehler nicht ausgeschlossen werden könnten. Auch ein Haftungsausschluss für die Richtigkeit und Aktualität der Inhalte war implementiert. Doch das Landgericht Kiel machte deutlich: Weder die Automatisierung noch der Haftungsausschluss entbinden von der Verantwortung.
Die Klägerin forderte die Löschung der falschen Information und klagte auf Unterlassung. Zwar entfernte die Beklagte die fehlerhafte Angabe, doch das Gericht sah die Voraussetzungen für einen Unterlassungsanspruch als erfüllt an. Nach Ansicht des LG Kiel verletzte die Veröffentlichung das Unternehmenspersönlichkeitsrecht der Klägerin gemäß § 1004 BGB analog in Verbindung mit Art. 2 Abs. 1 und Art. 19 Abs. 3 GG. Solche Fehlinformationen können nicht nur den Ruf eines Unternehmens schädigen, sondern auch dessen Kreditwürdigkeit beeinträchtigen.
Das Gericht stellte zudem fest, dass die Gefahr einer erneuten Veröffentlichung fehlerhafter Daten bestand, da die Beklagte weiterhin auf ihr automatisiertes System vertraute, ohne dessen Ergebnisse ausreichend zu überprüfen. Damit sah das LG Kiel die Wiederholungsgefahr als gegeben an.
Der Fall des Landgerichts Kiel verdeutlicht eindrücklich, dass Unternehmen die Verantwortung für Inhalte tragen, die durch ihre KI-gestützten Systeme generiert werden. Es reicht nicht aus, sich auf die Automatisierung zu berufen oder Haftungsausschlüsse zu implementieren. Vielmehr müssen Betreiber sicherstellen, dass ihre Systeme mit geeigneten Qualitätssicherungsmaßnahmen ausgestattet sind, um Fehlinformationen zu vermeiden.
Die Europäische KI-Verordnung (AI Act) schreibt solche Maßnahmen nicht pauschal vor, sondern konzentriert sich insbesondere auf Hochrisiko-KI. Doch auch wenn keine gesetzliche Pflicht besteht, bleibt das Risiko bestehen: Veröffentlicht ein Unternehmen unrichtige Inhalte, haftet es unabhängig von der zugrunde liegenden Technologie. Eine sorgfältige Überprüfung der KI-generierten Daten ist daher ein unverzichtbarer Bestandteil des Risikomanagements.
KI-Halluzinationen bezeichnen Inhalte, die von einem KI-Modell erzeugt werden, aber nicht der faktischen Wahrheit oder den zugrunde liegenden Quellen entsprechen. Sie wirken oft glaubwürdig, basieren jedoch auf fehlerhaften Interpretationen oder fehlendem Kontext. Solche Abweichungen können insbesondere bei zusammenfassenden Aufgaben oder der Beantwortung generativer Fragen auftreten, wenn das Modell ungenaue Rückschlüsse aus dem verfügbaren Wissen zieht.
Drei Hauptfaktoren tragen dazu bei, dass KI-Modelle falsche oder irreführende Inhalte erzeugen: die Trainingsdaten, die Trainingsmethoden und der Prozess der Antwortgenerierung (Inferenz)Trainingsdaten:
Kurz gesagt: KI-Halluzinationen entstehen, wenn das Modell auf unzuverlässigen Daten arbeitet, Trainingsfehler aufweist oder während der Antwortgenerierung falsche Prioritäten setzt.
Das Erkennen von KI-Halluzinationen ist oft schwierig, weil die generierten Antworten auf den ersten Blick glaubwürdig wirken, obwohl sie nicht der Wahrheit entsprechen. Es gibt jedoch einige praktische Ansätze, um solche Fehler zu identifizieren.
Eine vollständige Vermeidung von KI-Halluzinationen ist derzeit nicht möglich. Selbst fortschrittliche Sprachmodelle können gelegentlich falsche oder irreführende Inhalte erzeugen. Sie lassen sich mit einiger Technik daher lediglich reduzieren. Das sollte man sich als Nutzer immer wieder ins Gedächtnis rufen. Eine einfache, aber effektive Maßnahme ist die gezielte Formulierung der Eingaben. Klare und präzise Fragen verringern die Wahrscheinlichkeit, dass das Modell ungenaue oder spekulative Antworten liefert. Je genauer der Kontext beschrieben wird, desto zuverlässiger sind die Ergebnisse.
Möchten Sie mehr darüber erfahren, wie Sie sich vor den Risiken von KI-Halluzinationen schützen können? Wollen Sie wissen, ob Ihr Unternehmen für fehlerhafte, KI-generierte Inhalte haftbar gemacht werden kann? Oder sind Sie bereits mit einer Abmahnung konfrontiert und benötigen rechtlichen Beistand?
Unser erfahrenes Team berät Sie umfassend zu allen rechtlichen Aspekten rund um den Einsatz von Künstlicher Intelligenz, einschließlich der Haftungsfragen. Wir unterstützen Sie dabei, Ihre Systeme rechtssicher zu gestalten, prüfen KI-generierte Inhalte auf mögliche Risiken und stehen Ihnen bei der Abwehr oder Durchsetzung von Ansprüchen zur Seite.
Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie eine Rechtsberatung von den spezialisierten Fachanwälten der SBS LEGAL?