Rechtsanwalt & Fachanwalt für gewerblichen Rechtsschutz
T (+49) 040 / 7344 086-0
Rechtsanwältin, Fachanwältin für Informationstechnologierecht & Zertifizierte Datenschutzbeauftragte (TÜV)
T (+49) 040 / 7344 086-0
Blog News
2020 waren Jugendliche zwischen 12 und 19 Jahren jeden Tag 258 Minuten online. 800.000 Kinder ab 10 Jahren wurden bereits im Internet beleidigt oder gemobbt. 250.000 wurden von Erwachsenen kontaktiert, die es auf sexuellen Missbrauch abzielten. Diese erschreckenden Zahlen des BMFSFJ spiegeln die heutige Lebensrealität von Kindern und Jugendlichen, sowie der jugendlichen Influencer wider. Sie werden im Netz durch entwürdigende Fotos oder Videos bloßgestellt, in Kommentaren beleidigt, durch Kostenfallen abgezockt und sexuell belästigt. Es ist klar, dass sie vor all dem geschützt werden müssen. Aber das entsprechende Jugendschutzgesetz ist dafür lange Zeit völlig unzureichend gewesen. Im Wesentlichen stammt es aus dem Jahre 2002 und enthielt dementsprechend längst veraltete Begriffe wie „bespielte Videokassetten“. Auch sonst wurde es der heutigen digitalen Welt und den damit verbundenen Risiken einfach nicht mehr gerecht.
Nach jahrelangen Appellen in Kommissionen und auf Konferenzen ist deswegen Anfang Mai endlich das Zweite Gesetz zur Änderung des Jugendschutzgesetzes (2. JuSchG-ÄndG) in Kraft getreten. Darin wird der Jugendschutz reformiert – modernisiert. Social-Media-Plattformen, Gaming-Plattformen und Messenger-Dienste mit über einer Million Nutzer in Deutschland wie Instagram, WhatsApp, YouTube und TikTok haben demnach nun einige Pflichten zu erfüllen. So müssen sie Hilfs- und Beschwerdemöglichkeiten für Kinder und Eltern sowie bestimmte Voreinstellungen anbieten, sodass Kinder nicht einfach von Fremden kontaktiert werden können und nicht in Kostenfallen tappen. Auf diese Weise sollen Kinder und Jugendliche in den digitalen Medien besser geschützt werden – vor Entwicklungsbeeinträchtigungen und Jugendgefährdungen.
Zudem wird die Altersfreigabe für Spiele angepasst. Nicht nur Inhalte wie z.B. Gewaltdarstellungen, sondern auch Nutzungsumstände wie Interaktionen (z.B. unmoderierte, offene Chats) fließen ab sofort in die Altersbewertung mit ein. Eltern sollen sich daran orientieren können. Und eine Bundeszentrale soll dafür sorgen, dass dieses neue Recht wirksam durchgesetzt wird – auch gegenüber Plattformen mit Sitz im Ausland.
Medien gelten als entwicklungs- bzw. jugendgefährdend, wenn sie Kinder und Jugendliche beeinträchtigen könnten – in ihrer Entwicklung zu eigenverantwortlichen und gemeinschaftsfähigen Personen. Das Jugendschutzgesetz sieht im Internet einige entsprechende Gefahren, vor allem bei Kommunikations-, Kontakt- und Kauffunktionen. So kann über offene Internet-Chats (die oft in Spielen integriert sind) Mobbing oder Cybergrooming stattfinden. Letzteres bedeutet, dass Minderjährige online mit einer sexuellen Absicht angeschrieben werden.
Auch glücksspielähnliche Mechanismen und Mechanismen, die ein exzessives Mediennutzungsverhalten (Spielsucht) hervorrufen können, seien gefährlich. Konkret betrifft das z.B. In-App-Käufe und Lootboxen (Pakete, die man online für ein Spiel kaufen kann, ohne vorher zu wissen, was drin ist) – vor allem, wenn ein Game nur dann weitergespielt werden kann, wenn man etwas dafür kauft.
Mit dem neuen Jugendschutzgesetz gilt die Anbietervorsorge. Das heißt, dass die Internet-Plattformen selbst mit strukturellen Vorsorgemaßnahmen ermöglichen müssen, dass Kinder und Jugendliche den angebotenen Dienst sicher nutzen können. Um eine Verhältnismäßigkeit zu gewährleisten, betrifft diese Pflicht nur große Plattformen – soziale Netzwerke oder Messenger-Dienste, die von vielen Kindern und Jugendlichen und durch jugendliche Influencer geschützt werden, und nicht etwa private Blogs, nicht-kommerzielle Angebote oder berufliche Netzwerke.
Entsprechende Plattformen mit mehr als einer Million Nutzern in Deutschland müssen Voreinstellungen treffen, die Minderjährige schützen – vor Risiken durch Interaktion wie Cybermobbing, Hassrede und Cybergrooming (sexualisierte Ansprache) sowie vor Tracking und Kostenfallen. Bei Spielen oder in sozialen Netzwerken z.B. dürfen Kinder und Jugendliche nicht einfach von Fremden gefunden und kontaktiert werden können. So sollen Eltern bestimmte Funktionen aussetzen können, z.B. dass der Chat für Fremde geschlossen wird oder dass es ein Zeit- und Geldlimit gibt, um die Mediennutzung ihrer Kinder besser begleiten und kontrollieren können.
Zudem muss es Hinweise auf unabhängige Beratungsangebote geben, über die die jungen User sich beschweren und Hilfe holen können, wenn sie auf der Online-Plattform bedroht oder bedrängt werden.
Bei Filmen kennt man Alterskennzeichen wie FSK12 oder FSK18. Nun soll es sowas auch online für Spiele und Filme geben. Dafür werden die bereits bekannten gesetzlichen Kennzeichen auf alle Medien und Vertriebswege übertragen. Wie genau das aussehen soll, arbeitet die Unterhaltungssoftware Selbstkontrolle (USK) noch aus. Beachten soll sie vor allem: Es müssen nicht nur die Inhalte, sondern auch die Interaktionsrisiken betrachtet werden. Ein Spiel wird also nicht nur dann erst für ältere Kinder freigegeben, wenn Gewalt oder sexuelle Handlungen dargestellt werden, sondern auch dann, wenn ungeschützte Kommunikation mit Fremden möglich ist. Denn wenn Fremde einfach so Kinder per In-Game-Chat in einem Online-Spiel anschreiben können, führt das oft zu Cybermobbing oder Cybergrooming.
Zudem sollen auch Kostenfallen in der Alters- bzw. Risikobewertung Berücksichtigung finden: glücksspielähnliche bzw. suchtfördernde Elemente wie In-Game-Käufe (z.B. die Wundertüten bei FIFA) oder Lootboxes. Sie kommen tatsächlich in den allermeisten Online-Spielen und Smartphone-Apps vor – und können für jüngere Kinder eine Gefahr darstellen.
Solche Interaktionsrisiken und Kostenfallen (Kontaktfunktionen und glücksspielähnliche Elemente) werden durch sogenannte Deskriptoren gekennzeichnet. Erläuternde Symbole sowie Beschreibungen und Texthinweise warnen dann nicht nur wie bisher vor Gewalt und sexuellen Inhalten, sondern z.B. auch vor Interaktion mit anderen Nutzern, Standortweitergabe, Glücksspiel und In-App-Käufen. Eltern können sich dann daran orientieren, um zu entscheiden: Erlaube ich meinem Kind dieses Spiel – oder lieber nicht?
Die bisherige „Bundesprüfstelle für jugendgefährdende Medien (BPjM)“ aus Bonn wird zur „Bundeszentrale für Kinder- und Jugendmedienschutz“. Sie soll in Zusammenarbeit mit allen relevanten Akteuren (aus Kinder- und Jugendschutz sowie Kinder- und Jugendmedizin, Medienpädagogik usw.) überwachen, dass das neue Gesetz zum Kinder- und Jugendmedienschutz wirksam umgesetzt wird – dass die entsprechenden Plattformen auch ihre Pflichten erfüllen, also z.B. Voreinstellungen sowie Hilfs- und Beschwerdesysteme bereitstellen. Tun sie das nicht, können ein „dialogisches Verfahren“ und auch Bußgelder in Höhe von bis zu 50 Mio. Euro folgen.
Aber vor allem sollen sich freiwillige Selbstkontrollen etablieren. Plattformen und Online-Dienste, die sich freiwillig kontrollieren lassen, haben letztlich Rechtssicherheit. Sie können also beruhigt davon ausgehen, dass alles, was sie machen, sich im kinder- und jugendmedienschutzrechtlichen Rahmen bewegt – und müssen demnach keine möglichen Strafen fürchten.
Und dabei sollen auch ausländische Anbieter überprüft werden. Sonst wäre das Ganze wohl ohnehin wenig wirksam. Denn die großen Plattformen haben allesamt ihren Sitz im Ausland – Facebook/Instagram in Irland, TikTok in China, …
Kinder und Jugendliche müssen vor den Gefahren im Internet geschützt werden – das ist gar keine Frage. Doch wie so ein Schutz gestaltet wird, ist nicht ganz unumstritten. So fürchten betroffene Medien-Anbieter und Branchen-Verbände, dass das neue Gesetz nicht zu einem modernen Jugendschutz führt, sondern die Rechtslage eher komplexer und unsicherer wird. Ein „Kompetenz-Chaos“ könnte kommen – zwischen Bund und Ländern sowie den verschiedenen Ministerien. Und dann gibt es ja auch noch den Jugendmedienschutzstaatsvertrag (JMStV), das Telemediengesetz (TMG) und das Netzwerkdurchsetzungsgesetz (NetzDG)…
Influencer könnten möglicherweise in ihrer Tätigkeit eingeschränkt werden. Der eigentlichen Zielgruppe könnte von den Inhalten abgeraten werden – vor allem wegen Werbung. Nicht ganz klar ist bspw. auch noch, inwiefern Let´s Player, die ein altersbeschränktes Spiel streamen, das auch für jüngere Zuschauer machen dürfen – oder ob diese den Stream dann nicht gucken dürfen. Würde so ein Stream als Werbung für ein Spiel gedeutet werden, das wegen seiner Interaktionsrisiken altersbeschränkt ist – und dann also nicht jüngeren Kindern und Jugendlichen gezeigt werden darf…? Kann man als Influencer etwas tun, damit der eigene Kanal nicht mit bestimmten Warnhinweisen gekennzeichnet wird? Liegt die Hauptverantwortung für all das bei den Plattformen – oder ist man als YouTuber/Instagrammer/TikToker/… auch selbst mitverantwortlich? Diese und weitere juristische Fragen werden sich mit dem neuen Gesetz künftig stellen.
Das Internet stellt die Rechtswelt immer wieder vor neue Herausforderungen – so wie die Gefahren online, wie Kinder und Jugendliche davor geschützt werden können und wie das entsprechende neue Gesetz richtig umgesetzt wird.
Als Kanzlei für Internetrecht und Social Media Recht sind wir von SBS Legal auf entsprechende Fälle spezialisiert. Seit Jahren betreuen unsere fachkundigen Rechtsanwälte erfolgreiche Unternehmen und Privatpersonen kompetent in allen entsprechenden Angelegenheiten rund um Social Media. Denn wir haben es uns zur Aufgabe gemacht, unsere Mandanten wie etwa YouTuber, Influencer, Instagrammer oder Blogger so angenehm wie möglich über alle rechtlichen Hürden hinweg zu führen – damit sie sich beruhigt auf den eigentlichen Inhalt ihrer Kanäle konzentrieren können.
Gern stehen wir auch Ihnen als Partner zur Seite. Kontaktieren Sie uns: Es ist uns ein persönliches Anliegen, Ihren Erfolg zu gestalten.
Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung.