Rechtsanwalt & Fachanwalt für gewerblichen Rechtsschutz
T (+49) 040 / 7344 086-0
Rechtsanwältin, Fachanwältin für Informationstechnologierecht & Zertifizierte Datenschutzbeauftragte (TÜV)
T (+49) 040 / 7344 086-0
Blog News
Künstliche Intelligenz ist mittlerweile in der Lage, die menschliche Stimme überzeugend nachzuahmen. Während noch vor wenigen Jahren ein deutlicher Unterschied hörbar war, lässt sich das heute nicht mehr so einfach sagen. Dies birgt große Gefahren, missbraucht zu werden und spornt die Entwicklung, dass man technischen Aufnahmen nicht mehr trauen kann, noch weiter an. Wir werfen heute einen Blick auf die rechtlichen Auswirkungen dieses Fortschritts.
Es ist bereits zu einigen beunruhigenden Fällen gekommen. Sei es im US-Wahlkampf mit KI-generierten Stimmen der Präsidentschaftskandidaten oder auch im Musikbereich. Wie wir in einem Artikel zum Thema KI und Musik berichtet haben, hat der US-Rapper Drake einen Song mit der Stimme des bereits verstorbenen Tupac Shakur aufgenommen und veröffentlicht.
Dies zeigt schon das verstörende Potenzial solcher Technologien – die Stimme eines bereits 1996 verstorbenen Künstlers ist plötzlich wieder zu hören. In diesem Fall wurde der Song schon bald wieder gelöscht, da die Erben von Tupac nicht informiert waren und ihnen diese Handhabung gar nicht gefiel.
Wenn solche Vorfälle Politiker und Stars ereilen, wie lange wird es dauern, bis sie auch im privaten Bereich zunehmen? Auch im deutschen Raum ereilte es bereits den ZDF-Nachrichtensprecher Christian Sievers. Im Internet kursiert ein täuschend echt wirkendes Video von ihm, in dem er eine Betrugsmasche bewirbt. Dabei wurden seine Mundbewegungen und seine Stimme mittels KI verändert.
Unser Rechtssystem schützt die eigene tatsächlich Stimme auf verschiedene Weisen. Zunächst einmal sollten wir einen Blick auf die deutsche Verfassung werfen: Hier wird aus Art. 1 Abs. 2 in Verbindung mit Art. 2 Abs. 1 des Grundgesetzes (GG) das sog. allgemeine Persönlichkeitsrecht abgeleitet. Es hat viele Ausprägungen mit dem Ziel, die individuelle persönliche Entfaltung des Menschen zu schützen.
Dazu gehört neben dem Recht am eigenen Bild auch das Recht an der eigenen Stimme. Insbesondere bei Stimmen, die auch einen wirtschaftlichen Wert haben und ein Markenzeichen sind (wie bei Sängern), ist ein Schutz notwendig. Denn ein Missbrauch der Stimme eines Menschen kann erhebliche Schäden, bspw. am Ruf der Person, verursachen. Handelt es sich etwa um ein bearbeitetes Musikstück, kommen auch Ansprüche aus dem Urheberrecht in Betracht.
Die Datenschutz-Grundverordnung (DSGVO) schützt biometrische Daten in Art. 9 Abs. 1. Demnach ist die Verarbeitung von genetischen Daten, biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person oder Gesundheitsdaten untersagt. Die Stimme eines Menschen stellt ein solches biometrisches Merkmal zur Identifizierung einer natürlichen Person dar. Zwar gibt es Erlaubnistatbestände in Art. 9 Abs. 2 DSGVO – diese greifen bei KI jedoch meistens nicht ein.
Wie bei dem Tupac-Beispiel erwähnt, bedeutet der Tod eines Menschen dabei nicht das Ende des rechtlichen Schutzes. Eine besondere Ausprägung des allgemeinen Persönlichkeitsrechts ist nämlich auch das postmortale Persönlichkeitsrecht. Es wurde in Urteilen entwickelt, bei denen die Erben verstorbener Personen deren Persönlichkeitsrechte gefährdet sahen.
In Deutschland gibt es hierzu bezogen auf KI-Stimmen zwar noch keine eindeutigen Urteile. Fraglich ist insbesondere, ob ein solcher Fall ausreicht, um das Ansehen des Verstorbenen ausreichend stark zu schädigen. Da es sich bei der Stimme allerdings um ein so höchstpersönliches Merkmal handelt, das massiv missbraucht werden kann, ist eine Bejahung dieser Frage nicht fernliegend.
Das Internetgericht in Peking hatte kürzlich einen Fall zu entscheiden, der genau zu diesem Themenbereich gehört. Eine Synchronsprecherin hatte Klage eingereicht, nachdem ihre Stimme mittels KI benutzt wurde, um Hörbücher vorzulesen. Es handelte sich aber nicht um eine Aktion völlig fremder Leute, sondern des Unternehmens, das die Rechte an ihren Tonaufnahmen als Synchronsprecherin hatte.
Ähnlich wie beim allgemeinen Persönlichkeitsrecht gibt es auch in China den Schutz der eigenen Stimme. Denn sie kann sich durch den Klang, den Ton und die Frequenz von der Stimme anderer unterscheiden. Somit sei sie laut des Gerichts ein individueller Bestandteil der Persönlichkeit. Selbst wenn eine künstliche Stimme etwas anders klingt, kann doch die Originalstimme identifiziert werden.
Die Person muss also in eine solche Nutzung ihrer Stimme einwilligen. Im chinesischen Fall hatte das Unternehmen die Frau gerade nicht gefragt, ob sie ihre Stimme auf diese Weise verwenden durften. Somit wurden sie zu einer Entschädigungszahlung i.H.v. umgerechnet ca. 32.000 Euro verurteilt.
Problematisch an den Fällen ist, dass die Personen hinter solchen Aktionen schwer aufzufinden sein können. Wer eine KI programmiert, überzeugend die Stimme eines Menschen nachzuahmen, der kennt sich gut mit Technik aus. Kursiert erstmal ein KI-Song oder sonstige Aufnahme im Internet, muss man zurückverfolgen, aus welcher Quelle es ursprünglich stammt.
Je besser die KI-Modelle werden, umso schwerer ist eine solche Rückverfolgung. Sänger müssen in Zukunft immer im Blick haben, ob ihre Stimme für fremde Musikproduktionen genutzt wird. Denn mit so etwas lässt sich schnelles Geld verdienen.
Künstliche Intelligenz ist bereits seit einiger Zeit ein Thema, das Unternehmen fast täglich mit neuen rechtlichen Herausforderungen konfrontiert. KI-Systeme wie Chat-GPT oder Midjourney eröffnen zahlreiche technische Möglichkeiten. Doch kann die Nutzung von künstlicher Intelligenz auch Risiken darstellen, wie einen Verstoß gegen das Urheberrecht. Als Kanzlei für KI-Recht befasst sich SBS Legal mit diesen Themen, damit Sie immer auf dem neuesten Stand sind.
Sie brauchen eine Beratung im KI-Recht oder einen KI-Rechtsanwalt, etwa für die Einordnung der Situation, dass eine künstliche Intelligenz die Stimme eines Menschen klaut? Dann sind Sie bei uns richtig.