SBS Firmengruppe Logos

| IT-Recht

Das EU-KI-Gesetz wird konkreter


Mit dem EU-KI-Gesetz, der KI-Verordnung (engl. AI Act), schafft die Europäische Union erstmals einen verbindlichen Rechtsrahmen für den Einsatz Künstlicher Intelligenz. Ziel ist es, Innovation weiterhin zu fördern und gleichzeitig Gesundheit, Sicherheit und Grundrechte zu schützen. KI-Systeme werden dazu in Risikokategorien eingeteilt – von ausdrücklich verbotenen Anwendungen bis zu Systemen mit hohen Risiken oder Transparenzpflichten.

KI-Verordnung: Leitlinien zur Auslegung von Artikel 5 - Orientierung, aber keine Verbindlichkeit

Am 4. Februar 2025 hat die Europäische Kommission nun Leitlinien zu den in Artikel 5 geregelten Verbotstatbeständen veröffentlicht. Im Fokus stehen insbesondere Praktiken wie manipulative Beeinflussung, Social Scoring und biometrische Echtzeitüberwachung. Die Leitlinien liefern eine rechtliche Einordnung und enthalten praxisnahe Beispiele, um Unternehmen bei der Umsetzung der neuen Vorgaben zu unterstützen.

Auch wenn sie nicht rechtsverbindlich sind – die letztgültige Auslegung obliegt dem Europäischen Gerichtshof – geben sie dennoch einen klaren Einblick in die Auffassung der Kommission zur Auslegung der Verbote nach Artikel 5 im KI-Recht.

Besonders hervorzuheben ist die weitreichende Interpretation der verbotenen Praktiken durch die Kommission. Die Leitlinien zeigen, dass jede Anwendung im Einzelfall bewertet werden muss. Unternehmen, die KI-Systeme entwickeln oder einsetzen, sollten daher besonders sorgfältig prüfen, ob ihr Vorgehen unter die in Artikel 5 aufgeführten Verbote fällt.

Zwar hat die Kommission den Entwurf bereits gebilligt, eine formelle Annahme steht jedoch noch aus. Klar ist aber schon jetzt: Das neu geschaffene KI-Amt wird künftig eine zentrale Rolle bei der Koordination der Durchsetzung auf EU-Ebene spielen – und damit auch bei der praktischen Anwendung der Verbote.

Was steht im Artikel 5?

Artikel 5 des EU-KI-Gesetzes definiert konkrete Einsatzbereiche, in denen Künstliche Intelligenz unzulässig ist. Dazu zählen Systeme, die Menschen manipulieren, ihre Schwächen gezielt ausnutzen oder sie anhand ihres Sozialverhaltens oder persönlicher Merkmale bewerten.

Ebenfalls untersagt sind KI-Anwendungen, die Straftaten voraussagen oder Gesichts- und Emotionserkennung in sensiblen Bereichen wie Arbeitsplatz oder Schule einsetzen. Auch das massenhafte Auslesen biometrischer Daten zur Kategorisierung von Personen fällt unter das Verbot. Ausnahmen gelten nur in engen Grenzen, etwa für Strafverfolgungsbehörden bei der Terrorabwehr oder der Suche nach Vermissten.


Was gilt im Sinne des Artikel 5 als verbotene KI-Systeme?

Verboten ist insbesondere der Einsatz von KI-Systemen, die manipulativ, diskriminierend oder gefährlich für die menschliche Autonomie sind.

Konkret untersagt sind die nachfolgenden Verwendungen:

  1. Unterschwellige oder täuschende Techniken, die das Verhalten von Menschen in einer Weise beeinflussen, dass deren Entscheidungsfähigkeit wesentlich beeinträchtigt wird und sie dadurch geschädigt werden könnten.
  2. Ausnutzung von Schwachstellenbestimmter Personen(gruppen) – etwa aufgrund von Alter, Behinderung oder sozioökonomischer Lage – mit dem Ziel, ihr Verhalten negativ zu beeinflussen.
  3. Soziale Bewertung (Social Scoring), wenn Personen systematisch nach ihrem Verhalten oder persönlichen Merkmalen klassifiziert werden, was zu ungerechtfertigter Benachteiligung führt.
  4. KI-gestützte Risikobewertung von Straftaten, wenn diese ausschließlich auf Persönlichkeitsprofilen basiert, ohne objektive, überprüfbare Tatsachen.
  5. Gesichtserkennungsdatenbanken, die durch das wahllose Auslesen von Bildern aus dem Internet oder Videoüberwachung entstehen.
  6. Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen, außer sie dient klar medizinischen oder sicherheitstechnischen Zwecken.
  7. Biometrische Kategorisierung, die Rückschlüsse auf sensible Merkmale wie ethnische Herkunft, politische Meinung oder sexuelle Orientierung zulässt.
  8. Einsatz von biometrischer Echtzeit-Fernidentifikation in der Öffentlichkeit zu Strafverfolgungszwecken, außer in eng begrenzten Ausnahmen.

Letzteres ist nur erlaubt bei:

  • Suche nach vermissten Personen oder Opfern schwerer Verbrechen.
  • Abwehr konkreter, erheblicher Gefahren (z.  Terroranschläge).
  • Strafverfolgung besonders schwerer Straftaten (z.  mit mindestens 4 Jahren Freiheitsstrafe).

In solchen Ausnahmefällen muss der Einsatz:

  • vorher genehmigt werden durch eine unabhängige Justiz- oder Verwaltungsbehörde.
  • auf bestimmte Orte, Zeiträume und Personenkreise beschränkt sein.
  • verhältnismäßig und notwendig sein.
  • bei Einsatz ohne vorherige Genehmigung sofort nachträglich genehmigt oder eingestellt werden.

Zusätzlich besteht eine Meldepflicht gegenüber den Datenschutz- und Marktüberwachungsbehörden. Mitgliedstaaten müssen geeignete nationale Vorschriften erlassen, die den Einsatz der Technologien regeln, kontrollieren und gegenüber der EU-Kommission offenlegen. Die Kommission wiederum erstellt jährlich einen Bericht über die Verwendung dieser Systeme auf Grundlage aggregierter Daten – ohne operative Details.

Zentrale Begriffe und Haftung bei verbotenen KI-Praktiken

Der Begriff „Anbieter“ umfasst jeden, der ein KI-System entwickelt und es Dritten zur Anwendung in der EU, unabhängig vom Vertriebsweg, ob über APIs, Cloud-Dienste, Downloads oder als physische Integration in Produkte, bereitstellt. „Inbetriebnahme“ meint die erstmalige Nutzung durch Dritte oder intern, während „Betreiber“ die Nutzer beschreibt, die das KI-System nach Inverkehrbringen oder Inbetriebnahme anwenden.

Unabhängig von der Art des KI-Systems, ob allgemeiner oder spezifischer Natur, gelten die Verbote der KI-Verordnung (KI-VO) ausnahmslos. Betreiber, also jene, die die KI im Einsatz haben, dürfen keine missbräuchlichen Nutzungen vornehmen oder Schutzvorkehrungen der Anbieter umgehen. Anbieter wiederum müssen geeignete Maßnahmen treffen, um Missbrauch vorzubeugen.

Dazu zählen technische Schutzmechanismen, vertragliche Absicherungen gegenüber Nutzern und transparente Informationen zur Systemnutzung. Besonders Anbieter von KI-Systemen mit allgemeinem Verwendungszweck (General-Purpose AI) stehen hier vor Herausforderungen, da sie die konkrete Nutzung oft nicht vollständig kontrollieren können. Dennoch sind sie verpflichtet, im Rahmen des Zumutbaren und Angemessenen Vorsorge zu treffen. Immer unter Berücksichtigung des jeweiligen Einsatzkontexts.

Was ist General-Purpose AI?

Ein KI-System mit allgemeinem Verwendungszweck, auch bekannt als General-Purpose AI (GPAI), ist ein künstliches Intelligenzsystem, das darauf ausgelegt ist, eine Vielzahl unterschiedlicher Aufgaben kompetent auszuführen, anstatt auf eine spezifische Anwendung oder Funktion beschränkt zu sein. Die KI-Systeme zeichnen sich durch ihre Vielseitigkeit und Anpassungsfähigkeit aus und können in verschiedenen Bereichen und für diverse Zwecke eingesetzt werden. 

Merkmale von General-Purpose AI:

  • Breites Anwendungsspektrum: GPAI-Modelle können für zahlreiche Aufgaben wie Bild- und Spracherkennung, Textgenerierung, Übersetzungen und Mustererkennung verwendet werden.
  • Flexibilität: Sie lassen sich mit minimalen Anpassungen in verschiedene Systeme oder Anwendungen integrieren und dienen oft als Grundlage für spezialisierte KI-Anwendungen.
  • Skalierbarkeit: Durch ihre Fähigkeit, große Datenmengen zu verarbeiten und aus diesen zu lernen, können sie ihre Leistung kontinuierlich verbessern und auf neue Aufgabenbereiche übertragen.

Beispiele für General-Purpose AI:

  • Sprachmodelle: Systeme wie GPT-4 oder BERT, die menschenähnliche Texte generieren und verstehen können.
  • Bildgenerierungssysteme: Modelle wie DALL·E, die aus textuellen Beschreibungen Bilder erstellen.

Aufgrund ihrer weitreichenden Einsatzmöglichkeiten und potenziellen Auswirkungen auf verschiedene Sektoren stehen GPAI-Modelle im Fokus regulatorischer Bemühungen. Der EU AI Act sieht spezifische Verpflichtungen für Anbieter solcher Modelle vor, insbesondere in Bezug auf Transparenz, Risikobewertung und Cybersicherheit.


SBS LEGAL – Kanzlei für KI-Recht

Nutzen Sie bereits KI-Systeme in Ihrem Unternehmen? Planen Sie den Einsatz intelligenter Technologien oder benötigen Sie rechtliche Klarheit zu Verboten, Risikokategorien oder vertraglichen Sicherheiten?

Dann sind Sie bei SBS LEGAL genau richtig!

Künstliche Intelligenz verändert Geschäftsprozesse grundlegend – ob im Finanzsektor, im E-Commerce oder in der Industrie. Die Einführung der KI-VO durch die Europäische Union schafft nun erstmals verbindliche Rahmenbedingungen für den Einsatz dieser Technologien. Ziel ist ein rechtssicherer Umgang mit KI-Systemen – unter Berücksichtigung von Risiken, Transparenzpflichten und ethischen Standards.

Die praktische Umsetzung des Gesetzes stellt viele Unternehmen vor neue Herausforderungen. Welche Systeme sind betroffen? Welche Anwendungen sind verboten oder besonders reguliert? Und wie kann der rechtliche Einsatz mit Mensch und Maschine vertraglich abgesichert werden?

Ob Beratung zur KI-Implementierung, Begleitung bei der Vertragsgestaltung oder strategische Absicherung komplexer Anwendungen: Wir stehen Ihnen kompetent zur Seite.

Der Erstkontakt zu SBS LEGAL ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutz-Richtlinien gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht