Das enorme Ausmaß der Moderation von Inhalten: Einblicke in einen einzigen Tag in Europa

08.06.2024|Christian Kreutz

Gemäß der Gesetzgebung des Digital Services Act (DSA) sind sehr große Online-Plattformen (VLOPs) und zwei Suchmaschinen (VLOSEs) mit über 45 Millionen Nutzern verpflichtet, täglich Berichte über ihre Entscheidungen zur Content-Moderation einzureichen. Die Universität Bremen nutzte diese Gelegenheit, um eine umfassende Analyse eines eintägigen Datendumps durchzuführen.

Der komplette Datensatz eines Tages, der am 5. November 2023 heruntergeladen wurde, umfasste 7.143.981 Entscheidungen. Der finale Datensatz, der sich ausschließlich auf soziale Medien konzentrierte, beinhaltete 2.195.906 Content-Moderationsentscheidungen über 37 Variablen hinweg.

Diese erstaunliche Zahl unterstreicht die unglaubliche Herausforderung der Content-Moderation sowohl für Plattformen als auch für Strafverfolgungsbehörden. Mit über 2 Millionen Entscheidungen in nur 24 Stunden wird deutlich, dass es unmöglich ist, sich ausschließlich auf manuelle Arbeit zu verlassen, da dies nicht nur verheerende psychologische Folgen für Content-Moderatoren hat, sondern auch algorithmische Herausforderungen bei der genauen Programmierung von Entscheidungsmodellen zur Bewältigung der enormen Vielfalt an Fällen mit sich bringt. Hochpräzise Algorithmen für die Content-Moderation sind praktisch unmöglich, insbesondere unter Berücksichtigung der unterschiedlichen Gesetze in verschiedenen Ländern und der vielfältigen Perspektiven darauf, was einen Verstoß darstellt, wie z.B. im Falle künstlerischer Ausdrucksformen.

Interessanterweise setzen Plattformen unterschiedliche Strategien ein, um dem Ausmaß der zu moderierenden Inhalte entgegenzuwirken. TikTok setzt stark auf automatisierte Content-Moderation, während Twitter behauptet, die Moderation vollständig manuell durchzuführen. YouTube hingegen verfolgt einen gemischten Ansatz (siehe Bild unten).

PlattformGesamt
Facebook903.183
Pinterest634.666
TikTok414.744
Instagram111.379
YouTube114.713
Snapchat11.505
X5.384
LinkedIn332

Die Unterschiede gehen über die Anzahl der Entscheidungen hinaus, die jede Plattform trifft. LinkedIn traf an einem einzigen Tag nur 332 Entscheidungen, was im Vergleich zur wahrscheinlich tatsächlichen Anzahl der Verstöße bemerkenswert niedrig erscheint.

Das Problem bleibt bestehen: Es gibt keinen Maßstab, um zu bewerten, welches soziale Netzwerk am effektivsten bei der Verringerung von Desinformation ist. Solange die Daten weitgehend geschlossen bleiben, können wir nur spekulieren. Der Digital Services Act (DSA) ist ein guter erster Schritt in Richtung für mehr Transparenz, aber es ist wichtig zu erkennen, dass diese Social-Media-Plattformen von Anfang an falsch konzipiert wurden. Wir müssen ganz neue Modelle von sozialen Netzwerken und öffentlichen Orten im Internet entwerfen.