Link zur Startseite der Technischen Universität Dortmund Zur Startseite
Zur Startseite

TikTok und der Jugendschutz – ein Seminarprojekt

Image by Alan Warburton / © BBC / Better Images of AI / Social Media / CC-BY 4.0

zum Beitrag bei ZDFheute

Der App Store auf dem Handy, zwei ganz einfache kurze Worte: TikTok und Download. Der Ladebalken ist durch, nun wird eine Mailadresse benötigt und ein Geburtsdatum. Beides wird nicht erneut geprüft, kann sich prinzipiell auch wahllos ausgedacht werden.  Kurze Häkchen noch: Ja, die AGBs sind Okay, Nein, ich bin kein Roboter und das war's. Im wahrsten Sinne des Wortes eröffnet sich kinderleicht die bunte und schnelllebige Welt von TikTok auf dem Smartphone. Bunt und lustig auf der einen Seite, aber auch politisch und sexualisiert – je nachdem, was der Algorithmus anbietet. Doch können gerade jüngere Nutzer:innen die Inhalte überhaupt einordnen? Und kümmert sich Bytedance, das Unternehmen hinter der Plattform, darum, dass nicht die falschen Inhalte in die Kinderzimmer gelangen? Dieser Frage haben sich Studierende im Seminar "Investigative Recherchen zu Algorithmen" im Sommersemester 2022 angenommen.

Seitdem TikTok 2017 international verfügbar geworden ist, sind die Nutzerzahlen regelrecht explodiert. Mitte 2021 hatte die App nach eigenen Angaben weltweit eine Milliarde monatliche aktive Nutzer:innen. 2022 erreichte die App knapp 20 Millionen Menschen alleine in Deutschland. Damit liegt Deutschland auf Platz 15 der insgesamt 141 Länder, in denen TikTok genutzt werden kann. Bei solch riesigen und schnell wachsenden Abrufzahlen ist es schwer jede Dynamik und das komplette Verhalten innerhalb der App zu überwachen. Daher wollten die Studierenden herausfinden, ob Kinder und Jugendliche auf TikTok besser vor verstörenden Inhalten geschützt werden als Erwachsene.

TikTok ist offiziell ab 13 Jahren freigegeben, doch eine Studie von Bitkom hat bereits 2019 gezeigt, dass auch unter Zehn- und Elfjährigen bereits rund 20 Prozent TikTok nutzen. Schnell wurde im Laufe des Experiments der TU-Studierenden deutlich, wie so viele junge Menschen Zugang zu der App bekommen. Denn die Studierenden legte für den Versuch insgesamt 40 Fake-Accounts an und das war genauso spielend leicht wie zu Beginn des Textes beschrieben. Es gibt eine Altersabfrage, aber man muss keinen Beweis liefern, dass man wirklich 13 oder 18 ist. Lediglich ein Handy und eine Mailadresse sind erforderlich und schon hat man Zugriff zur App und ihre ForYou-Page. Darin: eine endlose Reihe an Kurzvideos, bei der durch einfaches Scrollen immer wieder neue Inhalte angezeigt werden.

Anders als bei anderen sozialen Netzwerken muss man bei TikTok keinen anderen Menschen oder Seiten folgen, um Inhalte angezeigt zu bekommen. TikTok selbst entscheidet, welche Videos angezeigt werden – beziehungsweise ein lernender Algorithmus, der sich individuell auf die Nutzer:innen einstellt und gezielt vorschlägt, was zum bisherigen Verhalten passt. Das Ziel des Algorithmus: Nutzer:innen so lange wie möglich an die App zu binden, wie interne Dokumente zeigten, die 2021 von der New York Times ausgewertet wurden. Expert:innen sprachen da bereits davon, dass die App Nutzer:innen aktiv süchtig machen solle und ein gewisses Gefühl der Abhängigkeit erzeuge.

Den Studierenden aus dem Seminar am Institut für Journalistik ging es um den Jugendschutz auf der App. TikTok ist sehr schnelllebig. Um Klicks und Views zu erzeugen, greifen Creator oftmals zu allen Mitteln, darunter auch zweideutige und sexuelle Andeutungen. So wird man schnell auf der App mit Videos konfrontiert, die eigentlich nicht für Kinderaugen gedacht sein sollten. Daher wollten die Studierenden untersuchen, was 13-jährigen Kindern auf der Plattform angezeigt wird. Hierfür wurden 40 Fake-Accounts erstellt: 30 Profile mit der Altersangabe 13 und zum Vergleich zehn Profile von angeblich volljährigen Nutzer:innen. Mit diesen Profilen wurden fünf Phasen durchlaufen, die alle mit der Bildschirmaufzeichnung festgehalten wurden.

Die fünf Phasen des Experiments:

1. Ankommen: eine Minute scrollen auf der ForYou-Page

  • jedes Video wird genau 5 Sekunden angeschaut
  • bei Videos mit anstößigem oder klar sexuellem Inhalt wird dieses doppelt geschaut, dazu noch gelikt und in der App zu den Favoriten hinzugefügt

2. Hashtag-Phase: Es werden drei Hashtags ohne direkten Bezug zu sexuellen Inhalten in der Suche eingegeben, davon werden jeweils die drei Top-Videos angeschaut.

  • Hashtags: #fashion, #urlaub, #dance
  • jedes Video wird genau 5 Sekunden angeschaut
  • bei Videos mit anstößigem oder klar sexuellem Inhalt wird dieses doppelt geschaut, dazu noch gelikt und in der App zu den Favoriten hinzugefügt
  • diese Phase soll simulieren, dass die Nutzer:innen ihre eigenen absolut harmlosen Interessen in der App vermitteln

3. Veränderung auf der ForYou-Page: zwei Minuten scrollen auf der ForYou-Page

  • jedes Video wird genau 5 Sekunden angeschaut
  • bei Videos mit anstößigem oder klar sexuellem Inhalt wird dieses doppelt geschaut, dazu noch gelikt und in der App zu den Favoriten hinzugefügt

4. Hashtag-Phase: Es werden drei Hashtags mit klarem Bezug zu sexuellen Inhalten in der Suche eingegeben, davon werden jeweils die drei Top-Videos angeschaut.

  • Hashtags: #s3x, #s3xchallenge, #seggs, #s3xy (alternative Schreibweisen der Begriffe werden bei TikTok genutzt, um Sperren aus dem Weg zu gehen)
  • jedes Video wird genau 5 Sekunden angeschaut
  • bei Videos mit anstößigem oder klar sexuellem Inhalt wird dieses doppelt geschaut, dazu noch gelikt und in der App zu den Favoriten hinzugefügt
  • Hintergrund: Es erscheint realistisch, dass auch 13-Jährige mal diese speziellen Hashtags suchen, wenn sie davon beispielsweise in der Schule mitbekommen haben.

5. Veränderungen auf der ForYou-Page: vier Minuten scrollen auf der ForYou-Page

  • jedes Video wird genau 5 Sekunden angeschaut
  • bei Videos mit anstößigem oder klar sexuellem Inhalt wird dieses doppelt geschaut, dazu noch gelikt und in der App zu den Favoriten hinzugefügt
  • abschließen wird geschaut, wie sich die Seite nach all diesen Eingaben verändert hat und ob Videos angezeigt werden, deren Inhalte als nicht jugendfrei eingestuft werden könnte

Insgesamt wurden auf diese Weise 3028 Videos aufgezeichnet und analysiert. Nach der Datensicherung wurden alle Videos mithilfe eines eigens erstellten Codebuches kategorisiert. Dabei kam heraus, dass von den 3028 Videos 399 einen sexuellen Inhalt hatten, das entspricht 13 Prozent aller Videos. Schnell wurde klar, dass der Versuchsaufbau mit den Phasen gut funktioniert hat. Bei den Profilen der 13-jährigen Nutzer:innen wurden in ersten Phase eins 6 Prozent der Videos als sexuell kategorisiert, in Phase fünf bereits 8 Prozent. Die meisten Videos mit sexuellem Inhalt wurden sowohl bei den 13-, als auch bei den 18-jährigen Profilen in Phase vier angezeigt. Jeweils mehr als jedes zweite Video hatte dort Inhalte, die von den Studierenden als sexuell klassifiziert wurden. Auffällig ist außerdem, dass jeweils in den Hashtag-Phasen die minderjährigen Profile prozentual mehr sexuellen Content gezeigt bekommen haben als bei den volljährigen Profilen. Diese bekamen mehr sexuellen Content in den drei anderen Phasen angeboten. Wichtig ist allerdings zu betonen, dass sich die Grenze zwischen sexuellen und nicht-sexuellen Inhalten nicht eindeutig ziehen ließ, weshalb die Ergebnisse nicht auf die Nachkommastelle belastbar sind.

Wegen des stark ausgeprägten Graubereichs haben die Studierenden zudem einen Anwalt zur rechtlichen Einschätzung befragt. Michael Terhaag ist Fachanwalt für IT-Recht und sieht kein rechtliches Fehlverhalten seitens TikTok. Der Anwalt sei laut eigener Aussage kein Fan von härteren Gesetzen: "Es rechtfertigt noch lange kein Verbot, dass grundsätzlich etwas in der Entwicklung, in der Erziehung jemanden vielleicht beeinträchtigen könnte." Zudem sei es schwierig, die Gesetzeslage immer auf die neuesten Entwicklungen anzupassen: "Eine Lösung bei so einem schnelllebigen Phänomen wie TikTok, das ist natürlich hier noch nicht gegeben." Doch auch Terhaag ist der Meinung, dass die Gesetzeslage grundsätzlich auch auf neue Entwicklungen der sozialen Netzwerke angepasst werden muss.

Zusammenfassend lässt sich also sagen: Wenn ein Kind sexuelle Inhalte auf TikTok ansehen möchte, findet es diese auch – und bekommt sie auch aktiv von der App vorgeschlagen. Auf Anfrage betont TikTok, dass die Sicherheit und das Wohlergehen von Teenagern auf der Plattform eines ihrer „wichtigsten Anliegen“ sei. Um Nacktheit und andere grenzwertige Inhalte zu erkennen, nutze man Technologie, aber auch Moderator:innen. Zudem habe die Plattform im vergangenen Jahr ein System zur Einteilung von Inhalten nach „thematischer Reife“ eingeführt. Das soll nach Unternehmens-Angaben verhindern, dass beispielsweise sexuell anzügliche Inhalte ein Publikum zwischen 13 und 17 Jahren erreichen. „Darüber hinaus sind Inhalte, die eine signifikante Exposition von Erwachsenen zeigen, altersbeschränkt, und einige Formen der Körperdarstellung von Jugendlichen und Erwachsenen sind für den Für-dich-Feed nicht zulässig“, sagt TikTok.

  • Text: Marcel Brandt / ZDFheute
  • Autor:innen: Emad Almansour, Yvonne Blaschke, Marcel Brandt, Leonard Brockes, Stella-Marie Hesch, Leon Hüttel, Kirsten Pfister, Katharina Roß, Henri Schlund und Anastasia Zejneli
  • Betreuung TU Dortmund: Christina Elmer, Stephan Mündges
  • Redaktion ZDFheute: Robert Meyer, Kevin Schubert
X

Wir verwenden Cookies

Wir nutzen Cookies auf unserer Website. Einige sind notwendig, während andere uns helfen, diese Website und Ihre Erfahrung zu verbessern.