Kinderpornografie, Hassrede oder Terrorpropaganda: Mehr als 960 Millionen solcher oder anderer fragwürdiger Inhalte haben Amazon, Facebook, YouTube, Instagram, Pinterest, TikTok und X (vormals Twitter) im vergangenen halben Jahr gelöscht oder eingeschränkt. Das geht aus einer EU-Datenbank hervor, die von der EU-Kommission geschaffen wurde.
Hintergrund ist ein EU-Gesetz über digitale Dienste (Digital Service Act, DSA), wonach große Online-Plattformen und Suchmaschinen solche Inhalte schneller löschen und die Gründe dafür transparent machen müssen.
Konkret geben die Plattformen in der Datenbank an, welche Inhalte sie aus welchem Grund gelöscht oder in der Sichtbarkeit eingeschränkt haben. Die Daten können nach Kategorien wie Hassrede, Gewalt oder Pornografie gefiltert und ausgewertet werden. Insgesamt waren im April mehr als 16 Milliarden Einträge von 16 großen Plattformen in der Datenbank zu finden. Neben großen sozialen Netzwerken müssen auch Anbieter wie Zalando, Booking.com sowie verschiedene Google-Dienste gelöschte oder eingeschränkte Inhalte melden.
Plattformen melden sehr unterschiedlich
Dabei zeigt sich ein stark unterschiedliches Meldeverhalten der einzelnen Plattformen. So entfallen mit mehr als 14 Milliarden Meldungen mit Abstand die meisten auf Google Shopping. Das sind knapp 94 Prozent aller seit Ende September gemeldeten Beiträge. Bei der Suchmaschine werde sehr umfassend gemeldet, sagt Kommunikationsforscher Jakob Ohme vom Weizenbaum Institut, der umfassend zu Desinformation forscht. «Die Kommission hat schon gesagt, dass sie diesen Überhang korrigieren will.»
Aber auch sonst zeigen sich Differenzen. Bei der Social-Media-Plattform TikTok wurden seit der Einführung der Meldepflicht knapp 508 Millionen Beiträge gemeldet und mehr als 348 Millionen Beiträge gelöscht. Das sind fast 70 Prozent aller von TikTok gemeldeten Inhalte. Instagram meldete im ersten halben Jahr rund 19 Millionen Beiträge. Komplett gelöscht wurden davon etwas mehr als 6,6 Millionen, knapp 35 Prozent. Bei der Online-Plattform X wurden im gleichen Zeitraum laut Datenbank lediglich etwas mehr als 832.000 Inhalte gemeldet. Gelöscht wurden davon – Stand Anfang April – nur 24 Beiträge.
Spielraum bei Meldungen für Plattformen
Für Ohme hat das abweichende Meldeverhalten der Netzwerke mehrere Gründe: «Erstens: Plattformen sind unterschiedlich aktiv bei der Inhaltsmoderation. Zweitens: Plattformen nehmen die Meldepflicht unterschiedlich ernst.» So befinde sich die Plattform X gerade in einem Umbruch und sei «nicht dafür bekannt, sich an Regulierungen zu halten, die nicht auch strikt durchgesetzt werden». TikTok wiederum versuche «eine gute Figur zu machen».
Verbesserungsbedarf sieht auch Digitalisierung-Expertin Julia Kloiber, die für das Tech-Think-Tank Superrr Lab arbeitet: «Aktuell gibt es einiges an Spielraum, was Umfang, Genauigkeit und die Interpretation der Vorgaben angeht.» Dieser Spielraum erschwere die Vergleiche zwischen den Diensten. Zudem basiere die Datensammlung nur auf Selbstauskünften der Plattformen. «Die Unternehmen können in ihren Transparenzberichten viel behaupten. Wichtig ist, dass es auch eine gründliche Prüfung der Angaben gibt.»
EU-Kommission untersucht Einhaltung
Die gibt es laut EU-Kommission. Es liege zwar in der Verantwortung der Plattformen, alle Entscheidungen zur Inhaltsmoderation unverzüglich zu übermitteln. Die EU-Kommission könne bei dem Verdacht eines Verstoßes aber Zugang zu Daten beantragen, um die Einhaltung der Transparenzvorschriften zu überprüfen, hieß es auf Nachfrage von der Brüsseler Behörde. Schwankungen bei gemeldeten Inhalten lägen an verschiedenen Strategien und unterschiedlichen Inhalten auf den Plattformen.
Grundsätzlich laufen auf Grundlage des DSA bereits Untersuchungen, ob sich unter anderem X und Tiktok an die DSA-Vorschriften halten und genug gegen die Verbreitung illegaler Inhalte tun. Eine Entscheidung und damit auch mögliche Strafen gibt es aber bisher nicht. Sollte die Kommission zu dem endgültigen Schluss kommen, dass Anbieter gegen den DSA verstoßen, können Geldbußen von bis zu sechs Prozent des weltweiten Jahresumsatzes verhängt werden.
Wichtige Entscheidungen für Demokratie und Gesellschaft
Kloiber bewertet die Datenbank insgesamt als «wichtigen Meilenstein», der «Licht in die Black Box der online Dienste» bringt. «Wir haben in den letzten Jahren gesehen, welche Auswirkungen die Moderation von Inhalten auf unsere Demokratie und Gesellschaft hat – im Vorfeld von Wahlen muss sichergestellt werden, dass Desinformation und gemeldete Inhalte gut und schnell moderiert werden», fordert Kloiber. Auch bei der anstehenden Europawahl vom 6. bis 9. Juni 2024 ist die Beeinflussung auf Online-Plattformen eine Gefahr, wie das Europäische Parlament bereits im vergangenen Jahr warnte.
Kloiber wünscht sich, «dass durch die Transparenz ein Wetteifern zwischen den Plattformen beginnt, welche Plattform die höchsten Standards und die beste Qualität bei der Moderation von Inhalten hat.» Ohme hofft, «dass in einem Jahr schon eine genauere und auch besser durchgesetzte Datenlage existiert, die weitere Analysen und Aussagen erlaubt».
Klar ist, dass die Datenmenge künftig weiter wachsen wird. Seit 17. Februar müssen alle Anbieter von Online-Plattformen, Suchmaschinen und Online-Diensten mit Ausnahme kleiner Unternehmen Daten über ihre Entscheidungen zur Inhaltsmoderation vorlegen. Noch fließen diese Daten nicht in die Transparenzdatenbank. Doch auch diese sollen nach den Plänen der EU-Kommission künftig auf der Website der DSA-Transparenzdatenbank verfügbar sein, wenn die technischen Voraussetzungen geschaffen seien, sagte ein Kommissionssprecher.
Ähnliche Beiträge
Bundesregierung will Stromtrassen schneller ausbauen
Handwerkspräsident: Zutrauen zur Ampel-Koalition fehlt
Nebenkostenprivileg beendet – Mieter müssen bei TV umplanen