Die Menschenrechtsorganisation Amnesty International kritisiert die Funktionsweise und das Geschäftsmodell von TikTok.
Die Plattform würde eine Gefahr für junge Nutzerinnen und Nutzer darstellen, da ihnen aufgrund von Empfehlungen in ihrem Feed Inhalte über Depressionen und Suizid angezeigt werden, die bestehende psychische Probleme verschlimmern könnten, geht aus zwei neuen Berichten von Amnesty hervor.
- TikTok-Verbot in Österreich kommt
- TikTok CEO verbietet seinen Kinder das Nutzen der eigenen App
- Verfassungsschutz warnt vor Risiken bei Nutzung von Tiktok
Die Ergebnisse stammen aus einer gemeinsamen technischen Untersuchung von Amnesty, dem Algorithmic Transparency Institute (ATI) und der National Conference on Citizenship and AI Forensics. Die beiden Berichte "Driven into the Darkness: How TikTok Encourages Self-harm and Suicidal Ideation" und "I Feel Exposed: Caught in TikTok's Surveillance Web" machen auf Menschenrechtsverstöße aufmerksam, denen minderjährige und jugendliche TikTok-Anwenderinnen sowie -Anwender ausgesetzt seien.
Ernste Gefahr für Kinder und Jugendliche
"Die Berichte entlarven die manipulative und süchtig machende Art und Weise, wie TikTok-Feeds gestaltet sind. Diese zielen darauf ab, Nutzerinnen und Nutzer so lange wie möglich auf der Plattform zu halten. Die Funktionsweise von TikTok und dessen aufgrund der eigenen Algorithmen angezeigten Empfehlungen, (...) können Kinder und Jugendliche mit bestehenden psychischen Problemen ernsten Gefahren aussetzen", wird Lisa Dittmer, Research-Expertin bei Amnesty zitiert. Laut Amnesty riskiert TikTok, psychische Probleme wie Depressionen, Angstzustände und Selbstverletzung noch weiter zu verstärken.
Das Problem mit dem "For You"-Feed
Der "For You"-Feed von TikTok sei eine hochgradig personalisierte Seite, durch die man endlos weiter scrollen kann. Sie enthält algorithmisch empfohlene Inhalte, die das System nach den mutmaßlichen Interessen der Anwenderinnen und Anwender auswählt. Die Recherchen ergaben, dass der Feed nach nur fünf bis sechs Stunden auf der Plattform fast zur Hälfte aus Videos über psychische Gesundheit bestand, die potenziell schädliche Inhalte aufwiesen - das sind zehnmal mehr einschlägige Videos als bei Konten, die kein Interesse an Inhalten bezüglich geistiger Gesundheit zeigten, warnte Amnesty.
So wurde Algorithmus untersucht
Für die technischen Recherchen wurden mehr als dreißig automatisierte Konten eingerichtet, die vermeintlich 13-jährigen Nutzerinnen bzw. Nutzer in Kenia und den USA gehörten, um die Auswirkungen der algorithmischen Empfehlungen auf junge Anwender zu erfassen. Eine zusätzliche manuell durchgeführte Simulation umfasste je ein Konto in Kenia, den Philippinen und den USA.
Diese Abwärtsspirale trat sogar noch schneller ein, wenn die Videos über psychische Gesundheit, die den Testkonten vorgeschlagen wurden, von den Amnesty-Experten erneut angeklickt und angesehen wurden. Nach nur drei bis 20 Minuten bestand der "For You"-Feed mit dieser Methode zu mehr als der Hälfte aus Videos, die psychische Probleme thematisierten. Innerhalb einer Stunde wurden zahlreiche empfohlene Videos angezeigt, die Suizid normalisierten oder sogar romantisierten.
Nur selektive Schutzmaßnahmen
Die Recherchen von Amnesty International zeigten, dass das Geschäftsmodell von TikTok von Natur aus missbräuchlich sei und die Nutzerinnen und Nutzer belohne, um sie an die Plattform zu binden und immer mehr Daten über sie zu sammeln. Außerdem würde TikTok seine Schutzmaßnahmen nur in bestimmten Teilen der Welt anwenden, sodass einige Kinder und Jugendliche der ausbeuterischen Datensammlung noch stärker ausgesetzt sind als andere, so Amnesty.
Amnesty fordert, dass TikTok - nicht nur in Europa - die Rechte all seiner jüngeren Nutzer respektiere, indem es jegliche gezielte Werbung verbiete, die sich an Personen unter 18 Jahren weltweit richtet. Außerdem solle der "For You"-Feed nicht standardmäßig personalisiert werden. Stattdessen sollen die Anwender die Möglichkeit haben, aktiv zu entscheiden, welche Interessen ihre Inhaltsempfehlungen beeinflussen, und zwar auf der Grundlage ihrer informierten Zustimmung und wenn sie einen personalisierten Feed wünschen.
Reaktion von TikTok
Als Reaktion auf die Recherchen von Amnesty International verwies TikTok auf seine Community-Richtlinien, in denen festgelegt ist, welche Arten von Inhalten verboten sind und daher von der Plattform entfernt werden, wenn sie gemeldet oder anderweitig identifiziert werden. Dazu gehöre ein Verbot von Inhalten, die Suizid und Selbstverletzung zeigen, fördern oder Anleitungen dazu geben, sowie damit zusammenhängende Herausforderungen, Mutproben und Spiele, die "Suizid- und Selbstverletzungshandlungen zeigen oder fördern" und "Pläne für Suizid und Selbstverletzung teilen".
TikTok erklärte außerdem, dass ein Prozess eingeleitet wurde, um einen "unternehmensweiten Prozess der menschenrechtlichen Sorgfaltspflicht zu entwickeln, der die Durchführung regelmäßiger Bewertungen der Auswirkungen auf die Menschenrechte beinhaltet", hieß es in der Aussendung von Amnesty. Das Soziale Netzwerk machte jedoch keine Angaben dazu, welche spezifischen Risiken für die Menschenrechte von Minderjährigen sowie jungen Nutzerinnen und Nutzern es identifiziert hat. Dass TikTok derzeit keine unternehmensweite menschenrechtliche Sorgfaltsprüfung durchführt, sei ein klares Versäumnis des Unternehmens, seine Verantwortung für die Achtung der Menschenrechte wahrzunehmen, kritisierte Amnesty.
Sie sind in einer verzweifelten Lebenssituation und brauchen Hilfe? Sprechen Sie mit anderen Menschen darüber. Hilfsangebote für Personen mit Suizidgedanken und deren Angehörige bietet das Suizidpräventionsportal des Gesundheitsministeriums. Unter www.suizid-praevention.gv.at finden sich Kontaktdaten von Hilfseinrichtungen in Österreich.