Deutscher Gewerkschaftsbund

27.08.2019

Studie: Rechte Radikalisierung durch YouTube?

Befördert YouTube die Verbreitung politisch extremer Positionen? Eine neue großzahlige Studie legt nahe, dass sich YouTube-Nutzer:innen tatsächlich im Zeitverlauf radikalisieren. Und dass YouTubes Empfehlungsalgorithmen einen Beitrag dazu leisten.

Mann Medien Fernsehen

Ein Beitrag von Leonard Dobusch.

Dass Empfehlungsalgorithmen großer Plattformen wie Facebook und YouTube politische extremeren Perspektiven zu mehr Aufmerksamkeit verhelfen, ist keine neue These. Techniksoziologin Zeynep Tufekci bezeichnete bereits vor über einem Jahr YouTube als „den großen Radikalisierer“,  sie stützte sich dabei aber vor allem auf Einzelbeispiele.

Ein Team um den brasilianischen Informatiker Manoel Ribeiro hat sich jetzt noch einmal des Themas auf Basis eines großen Datensatzes von über 300.000 Videos, zwei Millionen Empfehlungen und 79 Millionen Kommentaren angenommen. In ihrem am Portal arXiv.org frei verfügbaren – allerdings noch nicht begutachteten – Beitrag „Auditing Radicalization Pathways on YouTube“ versuchen sie Radikalisierungspfade auf YouTube nachzuzeichnen. Ihr Fazit (S. 2; Übersetzung Dobusch): "Wir liefern starke Belege für Radikalisierung unter YouTube-Nutzern sowie dafür, dass YouTubes Empfehlungssystem das Entdecken von rechtsextremen Kanälen unterstützt, und das sogar in einem Szenario ohne Personalisierung."

Digitale Tipps und Trends für GewerkschafterInnen und Beschäftigte

Zu diesem Ergebnis gelangen die Autoren auf Basis einer Analyse von kommentierenden Nutzer:innen. Diese sortieren sie zunächst in drei Kategorien unterschiedlicher Radikalität:

  • Mit Eric Ross Weinsteins Begriff des „Intellectual Dark Web“ (I.D.W.) werden rechte Anti-Mainstream-Kanäle bezeichnet, die sich durch Kritik an politischer Korrektheit, Feminismus sowie politischem Islam profilieren.
  • Als „Alt-Lite“ wiederum werden Videos und Kanäle bezeichnet, die offen nationalistische und latent rassistische Positionen einnehmen.
  • In der dritten und extremsten Gruppe der „Alt-Right“ werden offen Thesen rassistischer Überlegenheit („White Supremacy“) vertreten. Grenz- und Zweifelsfälle bei der Zuordnung von Kanälen zu den drei Clustern seien, so die Autoren, in die jeweils weniger radikale Kategorie einsortiert worden.

Diese drei Gruppen werden mit einer Kontrollgruppe von traditionellen Medienkanälen auf Youtube verglichen. Eine historische Analyse von Videos, Views und Kommentare der letzten zehn Jahre zeigt dabei ein starkes Wachstum in allen drei rechten Kategorien im Vergleich zur Kontrollgruppe (siehe Abbildung 1). Dabei nehmen vor allem auch Interaktionsraten zu, je radikaler ein Kanal ist.

Pfade der Radikalisierung

Zur Untersuchung der Frage nach „Radikalisierungspfaden“, also ob YouTubes Empfehlungsalgorithmen einen wesentlichen Beitrag zum Wachstum extremerer Kanäle leisten, fokussieren die Autoren in den weiteren Analyseschritten auf Kommentare. Auf Basis verschiedener statistischer Ähnlichkeits- und Überlappungsmaße zeigt sich hierbei im Zeitverlauf eine Angleichung zwischen den drei Kategorien I.D.W., Alt-Lite und Alt-Right.

Um zu zeigen, wie genau diese Angleichung passiert ist, verfolgen die Autoren schließlich Kommentaraktivitäten von Nutzer:innen, die zunächst nicht unter Alt-Right-Videos kommentieren. Verglichen mit der Kontrollgruppe steigt der Anteil unter I.D.W.- und Alt-Lite-Nutzer:innen, die in der Folge verstärkt auch unter Alt-Right-Videos kommentieren, stärker an. Darauf, dass es sich bei den Kommentaren nicht um Kritik sondern tendenziell eher um zustimmende Kommentare handeln dürfte, deutet wiederum die quasi „händische“ Untersuchung von 900 zufällig ausgewählten Kommentaren hin.

Nutzervideos und YouTubes Beitrag

Im letzten Teil der Untersuchung widmen sich Ribeiro und Kollegen schließlich YouTubes Empfehlungsalgorithmus und legen nahe, dass auch 2019 noch ein relevanter Teil der Nutzer:innen über YouTubes Empfehlungsalgorithmen zu rechtsextremen Inhalten gelangt. Hier kämpfen die Forscher jedoch damit, dass Empfehlungseffekte besonders stark von Personalisierungsalgorithmen beeinflusst sind, die sich mit der gewählten Methode nicht erfassen lassen (so auch bei einer ähnlichen Analyse des Guardians bzw. das Projekt algotransparency.org). Auch der Untersuchungszeitraum ist kürzer, weil eine historische Erhebung von Empfehlungen schwierig bis unmöglich ist. Zu den interessantesten Ergebnissen der vorhandenen Daten zählt dabei, dass mehr Kanalempfehlungen aus der Kontrollgruppe zu Alt-Lite und I.D.W.-Kanälen führten als umgekehrt.

Zusammengefasst befeuern die Ergebnisse der Studie von Ribeiro und Kollegen Diskussionen über unbeabsichtigte Effekte von Empfehlungsalgorithmen auf großen Online-Plattformen. Hinzu kommt, dass die Effekte bei Berücksichtigung von Empfehlungspersonalisierung eher noch stärker ausfallen dürften. Umso wichtiger ist deshalb die Frage, wie alternative Empfehlungsmechanismen gestaltet werden könnten, egal ob man diese dann als „demokratische Algorithmen“ bezeichnen möchte oder nicht.

Der Text ist erschienen auf netzpolitik.org unter der Lizenz: Creative Commons BY-NC-SA 4.0


Leonhard Dobusch, Betriebswirt und Jurist, forscht als Universitätsprofessor für Organisation an der Universität Innsbruck u.a. zum Management digitaler Gemeinschaften und transnationaler Urheberrechtsregulierung. Er twittert als @leonidobusch und bloggt privat als Leonido sowie gemeinsam mit anderen bei governance across borders bzw. am OS ConJunction Blog und ist Mitgründer und wissenschaftlicher Leiter der Momentum-Kongressreihe. Mail: leonhard@netzpolitik.org


Nach oben

News: Tipps für ArbeitnehmerDie

Subscribe to RSS feed
Digitale Tipps und Tricks für deinen Arbeitsalltag. Wie schütze ich und meine Daten? Wie organisiere ich meinen Berufsalltag digital?