SBS Firmengruppe Logos

| IT-Recht

KI-Halluzination: Wie sieht es mit dem KI-Recht aus?


KI-Halluzinationen, also fehlerhafte Inhalte als Ergebnis unzureichender Informationen, sind ein zentrales Problem im KI-Recht. Der Einsatz generativer Künstlicher Intelligenz (KI), insbesondere von Large Language Models (LLMs), hat den Umgang mit Daten und Informationen revolutioniert. Unternehmen profitieren von einer Vielzahl von Vorteilen, doch die Technik birgt auch erhebliche Risiken. Das Landgericht Kiel hat mit seinem Urteil vom 29. Februar 2024 (Az. 6 O 151/23) eine richtungsweisende Entscheidung getroffen, die die Haftung für KI-generierte Inhalte klar umreißt.

Unternehmen haftet für fehlerhafte KI-Inhalte

Im vorliegenden Fall ging es um ein mittelständisches Unternehmen, das falsche Informationen über ein anderes Unternehmen veröffentlichte. Die Beklagte betrieb eine Plattform für Wirtschaftsinformationen, auf der automatisierte Daten aus öffentlichen Registern angezeigt wurden. Das System hatte angegeben, die klagende Gesellschaft sei aufgrund von Vermögenslosigkeit gemäß § 394 FamFG gelöscht worden – eine unzutreffende Behauptung.

Automatisierung schützt nicht vor Verantwortung

Die Beklagte hatte sich zur Datenerhebung einer KI-gestützten Software bedient, die relevante Informationen auf Basis von Suchbegriffen aus öffentlichen Quellen filtert. Zwar erklärte das Unternehmen auf seiner Webseite, dass die Daten automatisiert generiert würden und Fehler nicht ausgeschlossen werden könnten. Auch ein Haftungsausschluss für die Richtigkeit und Aktualität der Inhalte war implementiert. Doch das Landgericht Kiel machte deutlich: Weder die Automatisierung noch der Haftungsausschluss entbinden von der Verantwortung.

Die Klägerin forderte die Löschung der falschen Information und klagte auf Unterlassung. Zwar entfernte die Beklagte die fehlerhafte Angabe, doch das Gericht sah die Voraussetzungen für einen Unterlassungsanspruch als erfüllt an. Nach Ansicht des LG Kiel verletzte die Veröffentlichung das Unternehmenspersönlichkeitsrecht der Klägerin gemäß § 1004 BGB analog in Verbindung mit Art. 2 Abs. 1 und Art. 19 Abs. 3 GG. Solche Fehlinformationen können nicht nur den Ruf eines Unternehmens schädigen, sondern auch dessen Kreditwürdigkeit beeinträchtigen.

Das Gericht stellte zudem fest, dass die Gefahr einer erneuten Veröffentlichung fehlerhafter Daten bestand, da die Beklagte weiterhin auf ihr automatisiertes System vertraute, ohne dessen Ergebnisse ausreichend zu überprüfen. Damit sah das LG Kiel die Wiederholungsgefahr als gegeben an.

Was bedeutet das Urteil?

Der Fall des Landgerichts Kiel verdeutlicht eindrücklich, dass Unternehmen die Verantwortung für Inhalte tragen, die durch ihre KI-gestützten Systeme generiert werden. Es reicht nicht aus, sich auf die Automatisierung zu berufen oder Haftungsausschlüsse zu implementieren. Vielmehr müssen Betreiber sicherstellen, dass ihre Systeme mit geeigneten Qualitätssicherungsmaßnahmen ausgestattet sind, um Fehlinformationen zu vermeiden.

Die Europäische KI-Verordnung (AI Act) schreibt solche Maßnahmen nicht pauschal vor, sondern konzentriert sich insbesondere auf Hochrisiko-KI. Doch auch wenn keine gesetzliche Pflicht besteht, bleibt das Risiko bestehen: Veröffentlicht ein Unternehmen unrichtige Inhalte, haftet es unabhängig von der zugrunde liegenden Technologie. Eine sorgfältige Überprüfung der KI-generierten Daten ist daher ein unverzichtbarer Bestandteil des Risikomanagements.

Was versteht man unter Halluzinationen bei KI?

KI-Halluzinationen bezeichnen Inhalte, die von einem KI-Modell erzeugt werden, aber nicht der faktischen Wahrheit oder den zugrunde liegenden Quellen entsprechen. Sie wirken oft glaubwürdig, basieren jedoch auf fehlerhaften Interpretationen oder fehlendem Kontext. Solche Abweichungen können insbesondere bei zusammenfassenden Aufgaben oder der Beantwortung generativer Fragen auftreten, wenn das Modell ungenaue Rückschlüsse aus dem verfügbaren Wissen zieht.

Drei Hauptfaktoren tragen dazu bei, dass KI-Modelle falsche oder irreführende Inhalte erzeugen: die Trainingsdaten, die Trainingsmethoden und der Prozess der Antwortgenerierung (Inferenz)Trainingsdaten:

  1. Die Grundlage jedes KI-Modells sind die Daten, mit denen es trainiert wird. Sind diese fehlerhaft, veraltet oder einseitig, spiegelt sich das in den generierten Antworten wider. Wenn das Modell beispielsweise auf unvollständige oder falsche Informationen stößt, kann es falsche Schlüsse ziehen. Ein typisches Problem ist das Needle-in-a-Haystack-Phänomen: Wichtige Fakten gehen in der Datenmenge unter, sodass das Modell sie nicht zuverlässig herausfiltern kann.
  2. Trainingsmethoden:
    Auch die Art, wie das Modell trainiert wird, beeinflusst die Genauigkeit der Ergebnisse. Technische Schwachstellen, wie sogenannte Attention Glitches, führen dazu, dass das Modell Zusammenhänge falsch interpretiert. Zudem kann es vorkommen, dass das Modell während des Trainings gut funktioniert, im realen Einsatz aber fehlerhafte Antworten liefert (Exposure Bias). Selbst fortgeschrittene Anpassungen wie das Reinforcement Learning through Human Feedback (RLHF ) stoßen an Grenzen. Ein bekanntes Beispiel ist das Sycophancy-Phänomen: Hier passt das Modell seine Antworten zu sehr an die vermuteten Erwartungen des Nutzers an, statt sich an objektiven Fakten zu orientieren.
  3. Inferenz (Antwortgenerierung):
    Beim Erstellen von Antworten arbeitet das Modell auf Basis von Wahrscheinlichkeiten. Eine zu strikte oder zufällige Auswahl kann jedoch zu unplausiblen Ergebnissen führen (Likelihood Trap). Besonders anfällig sind ähnlich klingende Begriffe, Daten oder Zahlen, die das Modell leicht verwechselt. Zudem neigt es manchmal dazu, Details zu überbewerten (Overconfidence) oder Anweisungen während des Antwortprozesses zu „vergessen“ (Instruction Forgetting). Technische Einschränkungen wie der Softmax Bottleneckbegrenzen zudem die Vielfalt der generierten Inhalte.

Kurz gesagt: KI-Halluzinationen entstehen, wenn das Modell auf unzuverlässigen Daten arbeitet, Trainingsfehler aufweist oder während der Antwortgenerierung falsche Prioritäten setzt.


Wie erkennt man eine KI-Halluzination?

Das Erkennen von KI-Halluzinationen ist oft schwierig, weil die generierten Antworten auf den ersten Blick glaubwürdig wirken, obwohl sie nicht der Wahrheit entsprechen. Es gibt jedoch einige praktische Ansätze, um solche Fehler zu identifizieren.

  1. Unsicherheit der Antwort prüfen:
    Eine Möglichkeit, Halluzinationen zu erkennen, besteht darin, auf die „Selbstsicherheit“ der KI zu achten. Wenn eine Antwort ungewöhnlich detailliert oder absolut wirkt, sollte man skeptisch sein. Ein bewährter Trick ist das sogenannte Self-Consistency-Verfahren: Man stellt der KI dieselbe Frage mehrmals und vergleicht die Antworten. Weichen diese stark voneinander ab, ist das ein klares Warnsignal.
  2. Fakten abgleichen:
    Eine weitere Methode ist der Faktencheck. Hier kann man die Aussagen der KI mit bekannten Quellen, wie offiziellen Webseiten, Datenbanken oder seriösen Nachrichtenseiten, vergleichen. Auch einfache Suchanfragen bei Google helfen, die Richtigkeit von Behauptungen zu überprüfen.
  3. Auffällige Details hinterfragen:
    Halluzinierte Inhalte erkennt man oft an kleinen Ungenauigkeiten, wie falschen Daten, unrealistischen Zusammenhängen oder unbekannten Quellenangaben. Besonders bei Namen, Orten oder Zahlen lohnt sich ein genauerer Blick.
  4. KI als Prüfer nutzen:
    Interessanterweise können auch andere KI-Modelle genutzt werden, um generierte Antworten zu überprüfen. Einige Tools, wie das response_hallucination-Modul von LangKit, bewerten die Konsistenz der Inhalte und weisen auf mögliche Fehler hin.

Lassen sich KI-Halluzinationen vermeiden?

Eine vollständige Vermeidung von KI-Halluzinationen ist derzeit nicht möglich. Selbst fortschrittliche Sprachmodelle können gelegentlich falsche oder irreführende Inhalte erzeugen. Sie lassen sich mit einiger Technik daher lediglich reduzieren. Das sollte man sich als Nutzer immer wieder ins Gedächtnis rufen.  Eine einfache, aber effektive Maßnahme ist die gezielte Formulierung der Eingaben. Klare und präzise Fragen verringern die Wahrscheinlichkeit, dass das Modell ungenaue oder spekulative Antworten liefert. Je genauer der Kontext beschrieben wird, desto zuverlässiger sind die Ergebnisse.


SBS LEGAL – Ihre Kanzlei für das KI-Recht

Möchten Sie mehr darüber erfahren, wie Sie sich vor den Risiken von KI-Halluzinationen schützen können? Wollen Sie wissen, ob Ihr Unternehmen für fehlerhafte, KI-generierte Inhalte haftbar gemacht werden kann? Oder sind Sie bereits mit einer Abmahnung konfrontiert und benötigen rechtlichen Beistand?

Dann sind Sie bei SBS LEGAL genau richtig!

Unser erfahrenes Team berät Sie umfassend zu allen rechtlichen Aspekten rund um den Einsatz von Künstlicher Intelligenz, einschließlich der Haftungsfragen. Wir unterstützen Sie dabei, Ihre Systeme rechtssicher zu gestalten, prüfen KI-generierte Inhalte auf mögliche Risiken und stehen Ihnen bei der Abwehr oder Durchsetzung von Ansprüchen zur Seite.

Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie eine Rechtsberatung von den spezialisierten Fachanwälten der SBS LEGAL?

Der Erstkontakt ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutz-Richtlinien gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht