URI:
       # taz.de -- Verschwörungstheorien auf YouTube: Mit jedem Klick weiter nach rechts
       
       > Vielen Forschern gilt YouTube als Radikalisierer, der Nutzer auf kurzen
       > Wegen zu Rassismus und Verschwörungstheorien lenkt. Stimmt das?
       
   IMG Bild: Über YouTube radikalisiert? Rechte Demonstranten in Chemnitz
       
       Gerade einmal zwei Klicks brauchte es, um auf YouTube knietief irgendwo
       zwischen AfD und rechten Verschwörungstheorien zu landen. Wenige Tage nach
       [1][den Hetzjagden von Chemnitz] war es, als Ray Serrato das herausfand. Er
       sei von diesem Ergebnis seiner Datenanalyse schon „etwas schockiert“
       gewesen, sagt er.
       
       Der in Berlin lebende Datenanalyst war über den Onkel seiner Frau auf ein
       YouTube-Video gestoßen, in dem zwei Männer so ziemlich jede
       Falschinformation austauschen, die rund um den Tod von Daniel H. damals
       kursierten. Binnen weniger Tage kam das Video auf über eine halbe Million
       Klicks – das sind ungewöhnlich viele für einen Clip des Leipziger
       YouTube-Kanals NuoViso. Ähnlich erfolgreich laufen dort nur Videos darüber,
       wie Stanley Kubrick die Mondlandung fingierte oder was mit den Türmen des
       World Trade Centers tatsächlich geschah.
       
       Serratos Analysen sagen, dass die meisten YouTube-Videos zu Chemnitz, die
       in den Tagen nach den Ausschreitungen populär waren, stramm rechts waren.
       Und dass in der Empfehlungsspalte, die auf YouTube rechts neben dem Video
       auftaucht, auch dann schnell Verschwörungstheoretisches und Rechtsextremes
       vorgeschlagen wurde, wenn man eigentlich nur nach Nachrichten zu Chemnitz
       gesucht hat.
       
       Überraschend kommt das nicht. Mehrere US-Forscher haben darauf hingewiesen,
       dass YouTubes Empfehlungen seine Nutzer zu immer extremeren Inhalten
       führen. Vor allem: politisch immer weiter nach rechts.
       
       ## Intime Beziehung
       
       Die US-Techniksoziologin Zeynep Tufekci von der University of North
       Carolina bemerkte, dass YouTube ihr nach Trump-Videos immer radikalere
       Inhalte vorschlug. Videos von linken US-Politikern wie Sanders und Clinton
       führten sie zu linken Verschwörungstheorien. Videos über Jogging zu
       Ultra-Marathons.
       
       Die drittpopulärste Seite der Welt, die seine Nutzer ständig in Extreme
       führt. YouTube könne „eines der mächtigsten Radikalisierungswerkzeuge des
       21. Jahrhunderts“ werden, analysierte Tufekci. Besonders gefährlich sei
       das, weil viele junge Menschen dort nach Informationen suchten.
       
       YouTube, das sind knapp 2 Milliarden Nutzer in mehr als 190 Ländern. Es
       wächst doppelt so schnell wie Facebook und wird von der großen Mehrheit
       junger Menschen in Deutschland mehrmals täglich genutzt. [2][YouTube-Stars
       haben es perfektioniert, mit direkter Ansprache] eine scheinbar direkte,
       intime Beziehung mit ihren ZuschauerInnen zu führen. Läuft es gut, folgen
       ihnen ergebene Fans zu Tausenden, werden sie Wortführer in einem
       Mikrokosmos, während die breite Öffentlichkeit nicht mal ihre Namen kennt
       
       Viel Geld gibt es da zu verdienen, aber eben auch Einfluss – in einem
       Universum, in dem jede Minute 400 Stunden Videomaterial hinzugefügt werden.
       
       ## Lügende Populisten
       
       Fast jeder kennt doch den Sog, den YouTube entfalten kann: ein Video, noch
       eins, noch eins. Und 90 Minuten später erwacht man wie aus einer Hypnose,
       überrascht, wohin man nun schon wieder abgedriftet ist. YouTubes
       Algorithmen machen das möglich, verführen uns mit Auto-Play und
       Empfehlungen, so lange wie irgend möglich auf der Seite zu bleiben. Denn so
       verdient YouTube Geld, indem es unsere Aufmerksamkeit verkauft. An
       Werbekunden.
       
       YouTube, das sind für viele noch immer Musikvideos, das ist Unterhaltung:
       jungerwachsene Gamer und Schminkspezialistinnen. YouTube, das sind aber
       auch Videos, in denen Populisten lügen, Hetzer schreien und Menschen
       sterben. [3][Wird über Hass und Hetze und Falschinformationen im Netz
       gesprochen,] geht es dennoch meist um Facebook.
       
       Vielleicht noch um Twitter, weil Forscher deren Daten so schön auswerten
       können. YouTube wird, wenn überhaupt, nur am Rande mitbesprochen.
       Gigantisch und doch merkwürdig unterbelichtet. Ein Fehler?
       
       Jonas Kaiser widerspricht Tufekcis Rede von YouTube als großem
       Radikalisierer. „Für diese These gibt es keine belastbare Forschung“, sagt
       er. „Meines Erachtens schießt sie über das Ziel hinaus.“ Auch er erforscht,
       was YouTube seinen Nutzern empfiehlt – am von Google anschubfinanzierten
       Humboldt Institut für Internet und Gesellschaft in Berlin und derzeit am
       Berkman Center in Harvard.
       
       ## Rechte Filterblasen
       
       Wie Tufekcis Experimente stützten sich auch viele andere Analysen auf
       anekdotische Beweise, kritisiert er. „Es ist nicht verwunderlich, dass auf
       YouTube viele rechte und verschwörungstheoretische Inhalte empfohlen werden
       – weil es davon einfach besonders viel Content gibt“, sagt er.
       
       Hinzu kommt: Wer Nazivideos anschaut, wird natürlich nicht automatisch
       Nazi. Jonas Kaiser sagt, man müsse hinterfragen, wer diese Videos suche und
       anschaue. Denn: Selbst wenn die Zahl der Aufrufe eines Videos hoch sei,
       sage das doch wenig darüber aus, wie diese Videos wahrgenommen würden.
       Extremisten würden die wenigsten, weil sie sich ein paar Videos auf YouTube
       angesehen hätten. Das funktioniere eher über persönliche Kontakte, Chats.
       
       Auch Kaisers gemeinsam mit einem Kollegen erarbeitete Analysen haben
       ergeben, dass YouTube bei Suchen zu Politik rechte Kanäle bevorzugt
       empfehle. Dass der [4][Weg etwa von AfD zu Identitären kurz sei,] Nutzer
       schnell in rechte Filterblasen rutschten. „Wir wissen aber nicht, was ist
       die Henne und was das Ei“, sagt er und meint damit: ob dieser Effekt auf
       YouTubes Algorithmen zurückgeht oder auf die Klicks der Nutzer.
       
       YouTubes Algorithmen analysieren, was in der Vergangenheit die Nutzer
       möglichst lange auf den Seiten gehalten hat. Wer Eulen-Videos schaut,
       klickt auch Igel-Content? Merken! [5][Verschwörungstheoretisches über den
       11. September läuft gut?] Häufiger anbieten. Die Erklärung für den
       Rechtsdrall in den Empfehlungen könnte also ganz einfach sein: YouTubes
       lernende Maschinen bieten immer radikalere Videos feil, weil das bei diesem
       Nutzer oder bei vielen anderen, ihm ähnlichen Nutzern zieht.
       
       ## Große Macht
       
       Nur: Worauf genau YouTubes Algorithmen anspringen, was ihre Auswahl
       beeinflusst, lässt das Unternehmen weitgehend im Unklaren. „Das Ziel
       unserer Empfehlungen ist es, den Menschen Videos anzubieten, die sie mit
       der Erfahrung auf YouTube zufrieden machen“, ist YouTubes
       Standardreaktion auf Vorwürfe zu ihren Empfehlungsalgorithmen. „Milliarden
       Signale“ würden eine Rolle dabei spielen, was einem Nutzer angeboten werde,
       schreibt YouTube in einem Pressestatement weiter: Likes und Dislikes würden
       eine Rolle spielen, das Teilen des Videos oder andere Interaktionen mit den
       Inhalten.
       
       Konkreter wird’s nicht, weil: Das Wirken ihrer Algorithmen ist, wie bei den
       anderen Tech-Plattformen auch, Geschäftsgeheimnis. „Wir legen das aus einem
       guten Grund nicht offen“, sagt der deutsche YouTube-Sprecher Henning
       Dorstewitz. „Weil manche Leute sofort anfangen würden, das auszutricksen.“
       
       Datenanalysten wie Ray Serrato probieren, Diensten wie YouTube trotzdem
       unter die Motorhaube zu blicken. Für die Vereinten Nationen hat er
       analysiert, wie Hassrede bei Facebook Völkermord und Vertreibung der
       Rohingya in Myanmar befeuerte. „Auch wenn Facebook das nicht so designt
       hat, ist es doch verantwortlich dafür, wie seine Plattform genutzt wurde.
       Und bei YouTube ist es genauso: Auch hier gibt es eine Verantwortung dafür,
       Leute in Richtung von extremistischem Content zu stupsen.“
       
       Spätestens seit der US-Wahl 2016 wird über diese Verantwortung von
       Social-Media-Plattformen gestritten. Was sie auffindbar machen, findet den
       Weg zu Nutzern. Darin wohnt große Macht und damit große Verantwortung.
       YouTube, Facebook und wie sie alle heißen, haben sich lange gesträubt,
       diese anzunehmen. Öffentlicher Druck erzeugt jetzt zumindest minimale
       Bewegungen.
       
       ## Nachrichten sortieren
       
       „Heute geht es uns primär darum, die Qualität des Nutzerlebnisses zu
       verbessern“, sagt YouTube-Sprecher Dorstewitz, „und nicht darum, immer noch
       schockierendere Inhalte anzuzeigen.“ Doch ob ein Inhalt gemäßigt oder
       extrem sei, das könne ein Algorithmus noch nicht erkennen.
       
       Seit dem 11. September dieses Jahres hat YouTube auch in Deutschland zwei
       Funktionen eingeführt, die die Empfehlungen bei Nachrichtenthemen
       beeinflussen. „Breaking News“ soll dabei helfen, Falschmeldungen und
       unseriöse Nachrichtenquellen bei aktuellen Großereignissen weniger
       prominent anzuzeigen, „Top News“ sortieren nach der gleichen Logik
       Nachrichten auch dann noch, wenn die Aktualität etwas abgeebbt ist.
       
       In beiden Fällen gelten als seriöse Quellen, was auch bei Google News
       gelistet ist – gehören doch YouTube und Google zum Alphabet-Konzern. Als
       Nachrichtenereignis werden Themen laut Dorstewitz automatisch ausgewählt –
       etwa, wenn auf Google News auffällig viele Texte in kurzer Zeit zum Thema
       erscheinen. In den USA ist das Feature bereits seit Juli aktiv.
       
       Sucht man heute auf YouTube nach Chemnitz, erscheinen Videos von Medien wie
       Welt, Bild, „Tagesschau“ und MDR – und auch ein Klick weiter triggert keine
       Empfehlungen aus dem scharf rechten Spektrum.
       
       ## Nur Flickschusterei?
       
       „Das ist ein großartiger Schritt von YouTube“, sagt Chemnitz-Datenanalyst
       Serrato – wobei natürlich diskutiert werden wird, was eine seriöse Quelle
       ist, Forscher und Gesellschaft die Veränderungen genau beobachten müssten.
       Forscher Jonas Kaiser ist skeptischer. „Das ändert erst einmal nichts an
       den rechten Blasen auf YouTube“, sagt er. Man müsse schauen, ob das
       wirklich dazu führt, dass rechtsextreme und verschwörungstheoretische
       Videos weniger geschaut werden.
       
       Genügt dieser Eingriff von YouTube? Ist er mehr als Flickschusterei an
       einem System aus Empfehlungsalgorithmen, das seinen riesigen Anforderungen
       nicht mehr gewachsen ist?
       
       Die neuen Features funktionieren bei Nachrichtenereignissen. Forscher
       Kaiser weist allerdings auch darauf hin, dass die Abrufzahlen, auf die
       Let’s-Play- oder Fitness-YouTuber kommen, die Abrufzahlen der meisten
       Videos zu politischen Ereignissen deutlich in den Schatten stellen.
       Nachrichten suchten gerade einmal 10 Prozent aller YouTube-Nutzer in
       Deutschland, sagt Kaiser: „Da kann man schon darüber streiten, wie relevant
       das tatsächlich ist.“
       
       13 Oct 2018
       
       ## LINKS
       
   DIR [1] /Faktenlage-nach-Maassens-Behauptung/!5531208
   DIR [2] /Kampagne-gegen-Hate-Speech/!5506991
   DIR [3] /Dokumentation-ueber-Hater-und-Trolle/!5502269
   DIR [4] /Identitaeren-Kader-als-AfD-Mitarbeiter/!5498788
   DIR [5] /Essay-ueber-die-Folgen-von-9/11/!5532897
       
       ## AUTOREN
       
   DIR Meike Laaff
       
       ## TAGS
       
   DIR Youtube
   DIR Hassrede
   DIR Verschwörungsmythen und Corona
   DIR Filterblase
   DIR Algorithmus
   DIR Chemnitz
   DIR Internetnutzung
   DIR Computerspiel
   DIR Donald Trump
   DIR Social Media
   DIR Youtube
   DIR Lesestück Interview
   DIR Hate Speech
   DIR Hate Speech
       
       ## ARTIKEL ZUM THEMA
       
   DIR YouTube-Nutzung bei Jugendlichen: Erklär's mir auf YouTube
       
       Die Hälfte der Jugendlichen nutzt die Videoplattform zum Lernen und
       Recherchieren, ergibt eine Befragung. Schlimm ist das nur, wenn man's
       ignoriert.
       
   DIR Sexismus bei Computerspielern: Rache des Gamer-Stars
       
       Frauen zu diskriminieren ist in der Computerspielszene Alltag. Wer darauf
       hinweist, wird schnell zum Ziel von Hasskampagnen.
       
   DIR Trump-Hetze gegen Medien: Immer häufiger wird zugeschlagen
       
       US-Präsident Donald Trump attackiert bevorzugt Medien. Inzwischen bekommen
       oft Lokaljournalisten die angefachte Wut zu spüren.
       
   DIR Nicht-lineare Shows für Streamingportale: Eventfernsehen auf Abruf
       
       Auch auf Streamingportalen werden bald Show- und Entertainmentformate zu
       sehen sein. Nähern sie sich immer mehr den klassischen Sendern an?
       
   DIR Löschvorgänge bei YouTube: Mit Filtern gegen Kinderpornos
       
       Vor gut einem Jahr wurde das NetzDG eingeführt. Für Youtube hat sich wenig
       geändert. Dort löscht man Videos vor allem aus einem Grund.
       
   DIR Fake-News-Kampagnen von Rechts: „Das sind gezielte Angriffe“
       
       Extremismusforscherin Julia Ebner untersucht, wie Rechtsextreme
       Falschinformationen im Netz verbreiten. Ein Gespräch über Chemnitz, Köthen
       und #meTwo.
       
   DIR Dokumentation über Hater und Trolle: Hass im Netz ist militärisch organisiert
       
       Trolle und rechte Hetzer sind im Netz gut aufgestellt. Eine neue Doku zeigt
       militärische Strukturen und Böhmermann gründet eine Gegenoffensive.
       
   DIR Yahoo kämpft gegen Hate Speech: „… sie erschießen …“
       
       Yahoo will Hasskommentare löschen, ohne dabei unverfängliche Posts zu
       erwischen. Noch hat die Technik aber Grenzen.