Rechtsanwalt & Fachanwalt für gewerblichen Rechtsschutz
T (+49) 040 / 7344 086-0
Rechtsanwältin, Fachanwältin für Informationstechnologierecht & Zertifizierte Datenschutzbeauftragte (TÜV)
T (+49) 040 / 7344 086-0
Blog News
Der Hype um künstliche Intelligenz (KI) scheint vorerst nicht aufzuhören. Auch wir haben bereits einige KI-Themen behandelt, wie zum Beispiel ob KI das Ende des Urheberrechts bedeutet. Unternehmen wie OpenAI sind in aller Munde und tragen eine enorme gesellschaftliche Verantwortung. Aktuell drehen sich einige Streitigkeiten um die Ungenauigkeit von sog. Large Language Modellen (LLMs) wie ChatGPT. Wir schauen uns heute mal an, was hier beachtet werden muss und weshalb eine Beschwerde gegen OpanAI bei einer Datenschutzbehörde anhängig ist.
Juristisch ist schon länger anerkannt, dass man bei einem Vertragsschluss jemanden arglistig täuscht, wenn man einfach „ins Blaue hinein“ antwortet, ohne die richtige Antwort zu kennen. Genau das scheint ChatGPT in besorgniserregendem Umfang auch zu tun. Die Antworten dieses KI-Modells basieren darauf, welche Wortfolgen es für am wahrscheinlichsten erachtet. Da spielt ein Fact-Check eine untergeordnete Rolle.
Laut einigen Untersuchungen wie dem Versuch des Unternehmens Newsguard antwortet die neueste Version, GPT-4, noch häufiger falsch als sein Vorgänger. Es gibt sogar ein eigenes Startup-Unternehmen, welches von ehemaligen Google-Mitarbeitern gegründet wurde, das Falschaussagen von KI-Modellen testet. Nach ihren Untersuchungen „halluzinierte“ ChatGPT von Open AI ungefähr 3% der Antworten, was vergleichsweise sehr wenig war. Palm Chat von Google lag hingegen mit 27% bei der höchsten Halluzinationsquote.
OpenAI, Inc. ist ein US-amerikanisches Softwareunternehmen. Ihre berühmteste Software ist das LLM ChatGPT. Während das Unternehmen bei seiner Gründung 2015 eigentlich als Non-Profit startete, wurde 2019 eine gewinnorientierte Tochtergesellschaft gegründet, in welcher Microsoft der größte Investor ist.
Dass diese KI-Modelle halluzinieren, ist besorgniserregend. Denn Menschen nutzen sie für alle möglichen Aufgabenbereiche. Es fängt bereits bei Schulaufgaben an, kann jedoch auch sehr schnell am Arbeitsplatz eine große Versuchung sein. Hier können Falschinformationen schnell Schäden anrichten.
Noch besorgniserregender als die Falschaussagen ist die geringe Kontrolle des verantwortlichen Unternehmens. OpenAI hat schon mehrmals geäußert, dass es keine Möglichkeiten hat, ChatGPT präzise anzupassen. Das Modell verarbeitet seine Unmengen an Trainingsdaten und es ist dabei kaum möglich, genau nachzuvollziehen, wie eine bestimmte Antwort generiert wurde.
Richtig problematisch wird es aber bei Falschaussagen über Personen. An diesem Punkt ist ein neuer Streit mit OpenAI entbrannt, der rechtlich interessant werden wird. Besonderer Ankerpunkt wird dabei die Datenschutz-Grundverordnung (DSGVO).
Personenbezogene müssen […]
sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein; es sind alle angemessenen Maßnahmen zu treffen, damit personenbezogene Daten, die im Hinblick auf die Zwecke ihrer Verarbeitung unrichtig sind, unverzüglich gelöscht oder berichtigt werden („Richtigkeit“); [...]
Verbreitet ChatGPT nun also falsche Informationen über Personen, lässt das den Rückschluss zu, dass irgendwo in den Servern von OpenAI fehlerhafte Informationen über diese Personen gespeichert sind. Jedenfalls müsste OpenAI genau überprüfen, ob das der Fall ist, um die Daten gegebenenfalls anzupassen oder zu löschen.
In Österreich hat nun das europäische Zentrum für digitale Rechte, genannt noyb, Beschwerde bei der österreichischen Datenschutzbehörde eingereicht. Das tut es für einen Beschwerdeführer, der eine Person des öffentlichen Lebens ist und dessen Geburtsdatum ChatGPT häufiger falsch ausgab. Dabei war es nicht immer das gleiche falsche Datum, sondern verschiedene.
Interessant ist, dass laut der Beschwerde das Geburtsdatum des Beschwerdeführers gerade nicht öffentlich bekannt ist. Daher versuche ChatGPT, anderweitig auf dieses Datum rückzuschließen, und komme dadurch zu falschen Ergebnissen. Der Beschwerdeführer beantragte die Löschung dieser Falschinformationen, woraufhin OpenAI antwortete, dass ihnen das schlichtweg nicht möglich sei.
Sie hätten nur einen generellen Filter dafür, personenbezogene Daten zu blockieren. Das würde aber auch andere über den Beschwerdeführer angezeigte Informationen betreffen, was wiederum die Meinungsfreiheit von OpenAI verletzen würde. Die Beschwerde richtet sich nun gegen diese schwammigen Aussagen des Unternehmens, welche den Anschein erwecken, OpenAI würde über den gesetzlich geforderten Pflichten für Datenverarbeiter stehen.
Diese Hintergründe empfehlen wieder einen Blick auf die Rechtslage für KI-Nutzung. Geschäftsführende Organe haben bei ihrer Geschäftsführung die Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters anzuwenden, was bei Verstoß zu Haftungen führen kann. Es besteht unter anderem eine Legalitätspflicht und eine Business Judgement Rule.
Grundsätzlich ist die Nutzung von KI in Unternehmen nicht verboten. Allerdings muss dabei die erforderliche Sorgfalt beachtet werden. Da allgemein bekannt ist, dass die Informationen von KI-Modellen nicht immer zutreffen, müssen diese also nochmal nachgeprüft werden.
Laut Bundesgerichtshof (BGH) ist die Geschäftsleitung verpflichtet, alle verfügbaren rechtlichen und tatsächlichen Informationsquellen vollständig zu verwerten und Kosten und Nutzen gegeneinander abzuwägen. Jedes Leitungsorgan muss die Informationsgrundlage erstmal subjektiv bewerten – diese Bewertung muss rückblickend aber objektiv zumindest vertretbar sein.
Künstliche Intelligenz ist bereits seit einiger Zeit ein Thema, das Unternehmen fast täglich mit neuen rechtlichen Herausforderungen konfrontiert. KI-Systeme wie Chat-GPT oder Midjourney eröffnen zahlreiche technische Möglichkeiten. Doch kann die Nutzung von künstlicher Intelligenz auch Risiken darstellen, wie einen Verstoß gegen das Urheberrecht. Als Kanzlei für KI-Recht befasst sich SBS Legal mit diesen Themen, damit Sie immer auf dem neuesten Stand sind.
Sie brauchen eine Beratung im KI-Recht oder einen KI-Rechtsanwalt, etwa für die Frage, ob ChatGPT lügt und was die Folgen sein könnten? Dann sind Sie bei uns richtig. Bitte nehmen Sie gerne Kontakt zu uns auf.