Rechtsanwalt & Spezialist für Kryptorecht & KI-Recht, Zertifizierter Geldwäschebeauftragter (TÜV)
T (+49) 040 / 7344 086-0
Rechtsanwältin & Expertin für Kryptorecht und Markenrecht
T (+49) 040 / 7344 086-0
| KI-Recht
Blog News
Ein Klick und schon wurde ein Abo abgeschlossen. Der Ausstieg dagegen gleicht einem Labyrinth. Genau hier setzt der geplante Digital Fairness Act der EU an. Er zielt auf Dark Patterns, also Interface-Tricks wie doppelte Verneinungen in Checkboxen oder umständliche Kündigungswege, die Nutzer in unvorteilhafte Entscheidungen schubsen und Anbietern Vorteile verschaffen. Die Richtung stimmt, doch die UX-Praxis rast voraus. Das Regelwerk droht beim Start schon überholt zu wirken. Warum das Thema jetzt Fahrt aufnimmt, was das Ganze mit KI-Agenten zu tun hat und worauf es rechtlich ankommt, erfahren Sie im Folgenden.
Der DFA versteht sich als Verbraucherschutzpaket für die digitale Praxis. Im Fokus stehen die genannten Interface-Tricks, die zu voreiligen oder unvorteilhaften Entscheidungen verleiten. Ebenso adressiert der Entwurf Gestaltungsmittel wie endloses Scrollen und Autoplay, intransparente Influencer-Werbung, personalisierte Preise und Anzeigen mit besonderem Blick auf verletzliche Gruppen sowie undurchsichtige Digitalverträge und Abos mit versteckten Kosten oder umständlichen Kündigungswegen.
Den Rückenwind liefert der Fitness-Check der EU-Kommission aus Mai 2024, bei dem die drei zentralen Richtlinien unlautere Geschäftspraktiken (2005/29/EG), Verbraucherrechte (2011/83/EU) und missbräuchliche Vertragsklauseln (93/13/EWG) im Fokus standen. Geprüft wurde, ob sie den Schutz im Digitalen weiterhin tragen oder Anpassungen benötigen.
Das Ergebnis lag kurz darauf vor und zeigte klaren Handlungsbedarf für moderne Manipulationsmuster und Abo-Fallen. Seit dem 17. Juli 2025 läuft eine öffentliche Konsultation, die Minderjährige und andere schutzbedürftige Nutzer besonders in den Mittelpunkt stellt. Auf dieser Basis plant die Kommission bis Mitte 2026, einen Gesetzesvorschlag vorzulegen.
Im Zusammenspiel mit der bestehenden Regulierung zieht der DFA eine klare Linie. Der DSA ordnet Plattformverantwortung und Transparenz, der DMA zügelt gatekeepergetriebene Marktmacht. Der DFA ergänzt diese Architektur um eine konsequente Fairness-Schicht für Nutzerinnen und Nutzer: klare Opt-ins statt verwirrender Klickpfade, ehrliche Kennzeichnungen im Influencer-Marketing, faire Preise ohne versteckte Hebel und Abo-Prozesse, die Abschluss und Kündigung gleichwertig gestalten.
Kurz gesagt: Der DFA will digitales Verhalten in Richtung Fairness lenken. Technologieneutral, UX-nah und mit Blick auf reale Nutzungsmuster. Unternehmen, die ihre Oberflächen, Preislogiken und Abo-Strecken jetzt auf Transparenz trimmen, gewinnen Vertrauen, senken Rechtsrisiken und sind für die kommenden Regeln gerüstet.
Zeitleiste im Überblick
|
Ereignis |
Zeitpunkt |
|
Fitness Check der EU-Verbraucherschutzgesetze |
Oktober 2024 |
|
Resolution des EU-Parlaments zur „addictive design“ |
Dezember 2023 |
|
Start öffentliche Konsultation |
17. Juli 2025 |
|
Ende der Konsultation |
9. Oktober 2025 |
|
Voraussichtlicher Gesetzesentwurf |
Mitte 2026 |
Der Digital Fairness Act zielt darauf ab, den Verbraucherschutz im Netz gezielt zu stärken: Er setzt verbindliche Regeln für digitale Praktiken, schafft Transparenz und schützt vor manipulativen Designs. Gleichzeitig harmonisiert er den Binnenmarkt, indem er nationale Insellösungen ablöst und ein einheitliches Schutzniveau etabliert. Ein besonderer Fokus liegt auf vulnerablen Gruppen wie Minderjährigen, deren Risiken ausdrücklich adressiert werden. Für Unternehmen definiert der DFA klare Vorgaben zu Gestaltung, Preislogik und Vertragsprozessen, weniger Grauzonen, mehr Rechtssicherheit und Fairness.
Bereits heute greifen mehrere Rechtsakte, teils ausdrücklich, teils über Grundprinzipien. Die Richtlinie über unlautere Geschäftspraktiken, die Verbraucherrechte-Richtlinie und die DSGVO setzen der Manipulation durch irreführende Designs enge Grenzen.
Ein klares Stoppschild stellt daran angeknüpft der Digital Services Act auf. Nach Art. 25 dürfen Plattformen ihre Oberflächen nicht so bauen, dass Nutzer getäuscht, gedrängt oder in freien, informierten Entscheidungen behindert werden. Schwenken wir den Blick rüber zur KI-VO geht diese sogar noch einen Schritt weiter. Art. 5 Abs. 1 lit. a verbietet KI, die mit unterschwelligen oder absichtlich manipulativen Techniken Verhalten wesentlich beeinflusst und dadurch erheblichen Schaden riskiert. Kurz: Wer Nutzer lenkt, muss fair lenken. Sonst wird’s rechtlich eng.
Beim Digital Fairness Act steht also die Frage ganz oben, ob ein ausdrückliches Verbot nötig ist, um Dark Patterns und andere unlautere Methoden zu unterbinden, die Nutzer online unter Druck setzen, täuschen oder lenken.
Die öffentliche Konsultation läuft bis Ende Oktober. Realistisch könnte der Rechtsakt 2028 in Kraft treten. Die Richtung ist vorgegeben und stimmt. Jetzt wird feinjustiert, damit Fairness künftig zum Standard des digitalen Alltags wird.
Der nächste Gamechanger muss nicht mehr aktiv gesteuert werden, sondern agiert im Hintergrund: KI-Agenten. Statt Klicken und Scrollen erledigen sie eigenständig Online-Aufgaben, angefangen bei der Recherche bis zum Abschluss.
Ein Beispiel aus dem Alltag: „Plane meine Geschäftsreise nach Berlin nächste Woche.“ Der Agent prüft den Kalender, vergleicht Flug- und Zugverbindungen, bucht die günstig passende Option samt Hotel, reserviert einen Sitzplatz, hinterlegt die Buchungen im Kalender und sendet die Belege an das Spesentool. Der Mensch kommt erst zum Einsatz, wenn er sich auf den Weg zum Flughafen begibt. Genau hier entstehen neue Fragen: Wer gibt wozu die Zustimmung, wer trägt Verantwortung und wie schützt man vor manipulativen Designs, die nicht mehr Menschen, sondern Agenten adressieren?
Ein KI-Agent ist eine autonome Künstliche Intelligenz, die ein Ziel erhält, ihre Umgebung über Schnittstellen erfasst, Daten auswertet und selbstständig Schritte plant und ausführt. Der KI-Agent zerlegt Aufgaben, sammelt Informationen, handelt in Sequenzen und justiert über Feedback nach. Typische Einsätze reichen vom Kundenservice über Beschaffung bis zu Analyse- und Automationsaufgaben.
Arten von KI-Agenten:
Festzuhalten bleibt an dieser Stelle, dass die nächste Manipulationswelle auf KI-Agenten zielt. Während klassische Dark Patterns mit versteckten Buttons oder doppelten Verneinungen beim Sprachmodell verpuffen, entstehen neue Tricks auf Code- und Inhaltebene, etwa Prompt Injections mit verdeckten Anweisungen, die den Agenten in die Irre führen und Käufe, Kündigungen oder Preisvergleiche subtil verschieben.
Der Schutzauftrag bleibt dennoch derselbe. Am Ende soll der Mensch nicht ausgetrickst werden, auch dann, wenn ein Agent die Transaktion steuert. Deshalb benötigt der Digital Fairness Act von Beginn an klare Regeln gegen agentenbezogene Manipulationen, die jenseits der Oberfläche ansetzen.
Die EU kennt diese Lernkurve. Beim AI-Act kam die Erkenntnis zu General-Purpose-AI erst mitten im Verfahren. Dieses Mal liegt die Chance auf der Hand, den Agentenfall gleich mitzudenken. Und das mit Vorgaben gegen versteckte Instruktionen, manipulative Einbettungen und täuschende Schnittstellen für Maschinen wie für Menschen. So bleibt Fairness auch im Agentenzeitalter belastbar.
Stehen Ihre Nutzeroberflächen, Abo-Kündigungswege oder personalisierten Preise auf Compliance-Tauglichkeit? Suchen Sie Orientierung zum Zusammenspiel von DSA (Art. 25), AI Act (Art. 5) und dem geplanten Digital Fairness Act? Arbeiten Sie bereits mit KI-Agenten und wollen Prompt-Injection-Risiken, Transparenzpflichten und Influencer-Kennzeichnung sauber regeln?
Als Ansprechpartner für praxisnahe, kompetente Rechtsberatung zur KI-Nutzung begleiten wir Unternehmen bei der Risikoklassifizierung nach dem AI-Act, Transparenz- und Datenschutzanforderungen sowie der vertraglichen Absicherung von KI-Projekten. Wir prüfen und gestalten Interfaces, Abo- und Pricing-Strecken rechtssicher, entwickeln Governance, Policies und DPIAs und setzen belastbare Verträge mit Anbietern auf. Rechtlich fundiert, geschäftsnah und zukunftssicher im Hinblick auf den Digital Fairness Act.
Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie die Rechtsberatung von dem erfahrenen Team aus Fachanwälten und Spezialisten von SBS LEGAL?