SBS Firmengruppe Logos

| Internetrecht, IT-Recht

Neue Haftungsrichtlinie bei Schäden durch künstliche Intelligenz


EU-Gesetzesvorschlag für mehr Rechtssicherheit bei Schäden durch KI-Systeme

Mit Chat-GPT und anderen Systemen hat die künstliche Intelligenz (KI) längst Einzug in den Alltag vieler Privatpersonen gefunden. Dennoch werden KI-Systeme noch immer nur selten von Unternehmen eingesetzt. Grund dafür scheint die bleibende Rechtsunsicherheit bezüglich vieler Haftungsfragen bei Schäden, die durch den Einsatz künstlicher Intelligenzen entstehen, zu sein. Nachdem die EU-Kommission 2021 einen ersten Gesetzesentwurf für Regelungen von Systemen der künstlichen Intelligenz vorgestellt hat, wurde ein Jahr später der Entwurf für eine neue Richtlinie der KI-Haftung veröffentlicht. 

Was ist das Ziel der neuen Haftungs-Richtlinie?

Auch wenn sich die Kommission durch die neue Haftungsrichtlinie mehr Rechtssicherheit durch die Harmonisierung der Haftunsregulierungen erhofft, soll sie nicht zu einer generellen und allumfänglichen Reglung der KI-Haftung führen. Stattdessen soll sie einen "Mittelweg" für harmonisierte Vorschriften darstellen, ohne ein zu starker Eingriff in die nationale Schadensregulierung zu sein. Regelungsgegenstand dafür sind außervertragliche, verschuldensabhängige Schadensfälle, bei denen die Beweisführung und Verschuldensnachweise wegen der Komplexität oder einem fehlenden technischen Verständnis von Systemen künstlicher Intelligenz erschwert sind. Durch die Richtlinie soll dieses Problem beseitigt und eine Erleichterung der Beweisführung ermöglicht werden. Der sachliche Anwendungsbereich begrenzt sich dabei auf die Geltendmachung außervertraglicher zivilrechtlicher Schadensersatzansprüche, die die verschuldensabhängige Haftung betreffen. Nicht umfasst sind hingegen Haftungsvoraussetzungen im Verkehrsbereich, Vorschriften des Gesetzes über digitale Inhalte oder strafrechtliche Sachverhalte. 


Erleichterte Beweisführung durch Offenlegungspflicht

Um Geschädigten die Geltendmachung von Schadensersatzansprüchen zu erleichtern, soll eine Offenlegungspflicht der Anbieter und Nutzer von KI-Systemen in Bezug auf Beweismittel eingeführt werden, die unter bestimmten Voraussetzungen eintritt. Dadurch soll die Ermittlung des Anspruchgegners oder der Ursache des Schadens für den Geschädigten erleichtert werden. Die Voraussetzungen für einen erfolgreichen Antrag, der an den Anbieter oder Nutzer der künstlichen Intelligenz gestellt werden muss, sind die plausible Darstellung des Bestehens eines Schadensersatzanspruches und die erfolglos und auf verhältnismäßige Art und Weise versuchte Beweisführung. Die Offenlegungspflicht muss im Einzelfall verhältnismäßig sein, wodurch sichergestellt werden soll, dass das Gleichgewicht zwischen den Rechten des Klägers und denen des Beklagten nicht aufgehoben wird und die Geschäftsgeheimnisse des Beklagten gewahrt werden. Um die Durchsetzbarkeit der Pflicht zu gewährleisten, müssen Gerichte auf Basis des nationalen Rechts die Sicherstellung von Beweismitteln anordnen können. Zudem wird eine widerlegbare Verschuldensvermutung angenommen, wenn der Offenlegungspflicht nicht nachgekommen wird. 

Kausalitätsvermutung für leichteren Schadensersatz

Eine weitere Maßnahme zur Nachweiserleichterung stellt eine vorgesehene widerlegbare Kausalitätsvermutung dar. Wenn deren Voraussetzungen erfüllt sind, wird automatisch ein Kausalzusammenhang zwischen dem sorgfaltspflichtwidrigen Verhalten und den eingetretenen Schäden vermutet. Dafür muss der Geschädigte das Verschulden und die Verletzung einer Sorgfaltspflicht des Beklagten und einen durch das System der künstlichen Intelligenz entstandenen Schaden nachweisen. Bei KI-Systemen mit einem erhöhrten Risiko soll der geforderte Verschuldensnachweis erleichtert werden, indem nur eine speziell aufgeführte Sorgfaltspflichtverletzung verletzt worden sein muss. Im Falle von Anbietern künstlicher Intelligenzen tritt die Verletzung ein, wenn Qualitätskriterien der Trainingsdaten nicht erfüllt werden, die Möglichkeit der Beaufsichtigung durch natürliche Personen nicht umgesetzt wird, Transparenzerforderungen nicht erfüllt werden, das System nicht die Anforderungen an Genauigkeit, Robustheit oder Cybersicherheit erfüllt oder notwendige Korrekturmaßnahmen nicht ergriffen werden. Bei Nutzern von KI-Systemen wird verlangt, dass Überwachungspflichten nicht erfüllt oder Eingabedaten, die der Kontrolle des Nutzers unterliegen, nicht dem Zweck entsprechend eingegeben werden. Aber auch bei der Kausalitätsvermutung muss weiterhin das Gleichgewicht zwischen den Rechten des Klägers und des Beklagten sichergestellt werden, sodass gewisse Ausnahmen von der Erleichterung in der Richtlinie vorgesehen sind. Die Kausalität wird nicht angenommen, wenn der Beklagte nachweisen kann, dass der Kläger genug Beweismittel oder Fachkenntnisse hat, um den Nachweis über den Zusammenhang selbst führen zu können. Bei Hochrisiko-Systemen muss die Beweisführung der Kausalitätsvermutung für den Kläger übermäßig schwierig sein, während bei der privaten Nutzung der künstlichen Intelligenz der Beklagte die Betriebsbedingungen der künstlichen Intelligenz wesentlich verändert oder unterlassen haben muss, die Bedingungen festzulegen, obwohl er dazu verpflichtet und in der Lage war.

Wie sieht die Zukunft der Haftungsrichtlinie aus?

Im nächsten Schritt müssen die Richtlinie vom EU-Parlament und dem EU-Rat geprüft und die Vorschläge festgelegt werden. Deshalb ist erwartbar, dass noch einige Änderungsvorschläge in den bisherigen Entwurf eingearbeitet werden müssen, bevor die Richtlinie angenommen wird. Wird die Gesetzesvorlage erfolgreich umgesetzt, kann die Kommission gegebenenfalls nach 5 Jahren prüfen, ob die Regeln für eine verschuldensabhängige Haftung für Schadensersatzansprüche im Zusammenhang mit künstlicher Intelligenz erfolgreich sind, sodass zum jetzigen Zeitpunkt noch abzuwarten ist, ob mit der Haftungsrichtlinie die erhoffte Rechtssicherheit erreicht werden kann. Bisher gestaltet sich die Abgrenzung zwischen technischen Systemen mit oder ohne künstlicher Intelligenz noch als schwierig, wodurch der Anwendungsbereich der Richtlinie nicht eindeutig bestimmbar ist und auch dieser Entwurf dabei noch Rechtsfragen aufwirft. Außerdem ist problematisch, ob die Offenlegungspflicht überhaupt zu einer Beweiserleichterung führen kann, weil die erforderlichen Informationen über die Funktionsweise nicht ohne die Hilfe von Sachverständigen erlangt werden können. Dennoch hat der Regelungsumfang der Richtlinie im Vergleich zu vorherigen Gesetzesvorschlägen einen überschaubaren Umfang, wodurch Unternehmen nicht mit einer Vielzahl von neuen Regeln belastet werden. Außerdem befindet sich die Richtlinie noch in einem frühen Stadium des Gesetzgebungsverfahrens, sodass sie noch durch Änderungsvorschläge verbessert werden kann.


SBS LEGAL - Ihre Anwälte für Internetrecht

Der Erfolg von ChatGPT und die Entwicklung weiterer künstlicher Intelligenzen bietet einen Nährboden für zahlreiche zukünftig entstehenden Probleme und Rechtsfragen. Doch auch andere Bereiche des Internetrechts, wie die Verwendung von Allgemeinen Geschäftsbedingungen oder Cookies, Domainverträge oder eine Online-Shop-Prüfung, können schwierige Herausforderungen darstellen. Als spezialisierte Anwälte für Internet- und IT-Recht beraten wir Sie gerne bei sämtlichen Schwierigkeiten. 

Sie haben noch Fragen zur künstlichen Intelligenz?

Zögern Sie nicht, sich an uns zu wenden. Mit ihrer jahrelangen Expertise und fachlichen Kompetenz stehen unsere Anwälte Ihnen bei sämtlichen Fragen zur Seite. 

Der Erstkontakt zu SBS LEGAL ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutz-Richtlinien gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht