URI:
       # taz.de -- Extremistische Gruppen auf Facebook: Wenn der Nazi moderiert
       
       > Facebookgruppen, die mehrfach gegen die Regeln verstoßen, sollen von
       > Freiwilligen betreut werden. Der Konzern wälzt seine Verantwortung ab.
       
   IMG Bild: Facebook bekommt seine Probleme mit Hassreden und Falschinformationen nicht in den Griff
       
       „Stop the Steal“, „Trump is our President“, „Stop the leftist insanity“:
       Bereits eine kurze Suche auf Facebook zeigt, dass radikalisierte Gruppen
       für das Unternehmen immer noch ein großes Problem sind. Zwar geht Facebook
       seit ein paar Monaten konsequenter gegen gegen [1][Fake News und Hassrede
       auf seiner Plattform vor], besonders in Bezug auf die US-Wahl. Doch es
       bekommt das Problem offenbar nicht in den Griff.
       
       Nachdem der Tech-Konzern bereits im August sämtliche Gruppen [2][der
       Verschwörungsideologie QAnon] gelöscht hat, geht das Unternehmen nun einen
       Schritt weiter, [3][wie die Washington Post berichtet]. Künftig sollen
       Gruppen, die innerhalb eines bestimmten Zeitraums mehrfach gegen die
       Gemeinschaftsstandards von Facebook verstoßen – dazu zählen etwa Hassrede
       oder gezielte Falschinformationen zur [4][US-Wahl] oder [5][Covid-19] –,
       auf „Bewährung“ gesetzt werden.
       
       2019 hat Facebook eigenen Angaben zufolge 13,5 Millionen Beiträge gelöscht,
       die entweder Hassrede oder organisierte Hetze enthielten. Rund 87 Prozent
       der Hassrede seien dem Unternehmen zufolge „proaktiv“ entfernt worden, also
       bevor User*innen sie überhaupt sehen konnten. Dafür nutzt der Konzern
       [6][eine Kombination von automatisierten Tools und rund 35.000 bezahlten
       Mitarbeiter*innen, auch über Drittfirmen, weltweit], die sich um jene
       Beiträge kümmern, die durch das KI-Netz rutschen.
       
       Während Postings in offenen und geschlossenen Gruppen bislang direkt
       veröffentlicht werden, sollen Moderator*innen künftig alle Beiträge erst
       lesen und dann freischalten oder ablehnen. Diese Beobachtung gelte laut
       Facebook für einen Zeitraum von zwei Monaten. Stellen die Moderator*innen
       in dieser Zeit zu viele Verstöße fest, soll die Gruppe gelöscht werden.
       Innerhalb der nächsten Wochen will Facebook einzelnen Mitgliedern in den
       beobachteten Gruppen Adminrechte geben, die sich dann um die Postings
       kümmern sollen. Erst mal sollen nur US-Gruppen untersucht werden.
       
       ## Facebook wälzt seine Verantwortung ab
       
       Auf den ersten Blick wirkt Facebooks Idee vernünftig. Denn das soziale
       Netzwerk steckt in einem Dilemma. Einerseits steht es seit der
       US-Präsidentschaftswahl von 2016 unter massivem öffentlichen Druck, gegen
       Fake News vorzugehen. Deshalb hat das Unternehmen [7][bei Gruppen wie QAnon
       im August so hart durchgegriffen].
       
       Auf der anderen Seite betont Facebookgründer Mark Zuckerberg immer wieder
       aufs Neue die Meinungsfreiheit. So sind Gruppen eines der Kernelemente des
       sozialen Netzwerks. Für Zuckerberg erscheint es daher logisch, kein
       Overblocking zu betreiben und Gruppen lieber die Möglichkeit zur
       „Besserung“ zu geben.
       
       Doch das ist naiv und auf mehreren Ebenen problematisch. Wie sollen sich
       verschwörungsideologische Gruppen selbst moderieren? Und wie sollen meist
       ungeschulte und unbezahlte Moderator*innen die Flut von Beiträgen lesen?
       Sie sollen nun darüber entscheiden, wann die Meinungsfreiheit endet und ab
       wann Inhalte anstößig sind.
       
       Es geht um ein Feld, in dem sich selbst Jurist*innen häufig uneinig sind
       und für das Facebook extra ein mehrköpfiges Gremium zusammengestellt hat.
       Schon in der Vergangenheit [8][berichteten freiwillige Moderator*innen von
       Burnout-Erscheinungen]. Facebook darf seine Verantwortung nicht abwälzen
       und muss mehr bezahlte Moderator*innen einstellen, die unabhängig sind und
       kritisch einordnen.
       
       ## Verschwörungsideologische Codes
       
       Denn verschwörungsideologische Akteure begreifen schnell, [9][wie sie
       Regeln umgehen und Codes verwenden], die Algorithmen und Moderator*innen
       nicht erkennen. Zwar könnten Postings nun nicht mehr kurz gepostet und dann
       wieder zurückgenommen werden, um so trotzdem viele Leute zu erreichen. Aber
       ungeschulte Moderator*innen könnten auf rechte Ideolog*innen hereinfallen
       und im schlimmsten Fall sogar mit ihnen zusammenarbeiten.
       
       Auch das befürchtete Overblocking passiert bereits. So wurde etwa eine
       Gruppe aus Aberdeen im US-Staat Washington mit völlig normalen Inhalten auf
       Moderation gesetzt. Die Moderator*innen überlegen aus Zeitmangel, die
       Gruppe zu schließen. Eine Gruppe, die in der Nachbarschaftshilfe betrieben
       wird und in der sich normale Leute miteinander austauschen. Facebook
       torpediert hier eines seiner Kernfeatures: Leute zusammenzubringen.
       
       In der Gruppe „Stop the Steal“ drohen User*innen wegen angeblicher „Zensur“
       indes damit, sich von Facebook zurückzuziehen und ihre Aktivitäten auf das
       2018 gegründete und von vielen rechten Ideolog*innen genutzte [10][Netzwerk
       „Parler“ zu wechseln]. Das liegt auch an der konsequenteren Durchsetzung
       von Facebooks Hausrecht. Dafür muss das Unternehmen allerdings in Kauf
       nehmen, Nutzer*innen zu verlieren.
       
       13 Nov 2020
       
       ## LINKS
       
   DIR [1] /Populisten-Hochburg-Facebook/!5719912/
   DIR [2] /Antisemitismusbeauftragter-ueber-Corona-Leugner/!5712778/
   DIR [3] https://www.washingtonpost.com/technology/2020/11/07/facebook-groups-election/
   DIR [4] /Schwerpunkt-US-Praesidentschaftswahl-2020/!t5575916/
   DIR [5] /Schwerpunkt-Coronavirus/!t5660746/
   DIR [6] https://about.fb.com/news/2020/08/how-we-review-content/
   DIR [7] https://about.fb.com/news/2020/08/addressing-movements-and-organizations-tied-to-violence/
   DIR [8] https://www.washingtonpost.com/technology/2020/08/25/volunteer-moderators-2020/
   DIR [9] /Facebook-verbannt-QAnon-Gruppen/!5716259/
   DIR [10] /Digitales-US-Netzwerk-Parler/!5723963&s=denis+giessler/
       
       ## AUTOREN
       
   DIR Denis Giessler
       
       ## TAGS
       
   DIR Schwerpunkt Meta
   DIR Fake News
   DIR QAnon
   DIR Rechtsextremismus
   DIR Schwerpunkt Meta
   DIR China
   DIR Schwerpunkt Meta
   DIR Lesestück Recherche und Reportage
   DIR Schwerpunkt Meta
       
       ## ARTIKEL ZUM THEMA
       
   DIR Europäischer Aktionsplan für Demokratie: Werbung via Desinformation
       
       Die EU-Kommission will mit einem Aktionsplan gegen Desinformation auf
       Tech-Plattformen vorgehen. Besser wäre ein neues Geschäftsmodell.
       
   DIR Nach Kritik an Regierung: Salomonen wollen Facebook verbieten
       
       Im Südpazifikstaat will sich die Regierung Kritik entziehen. Die hat
       zugenommen, seit die Staatsführung diplomatisch von Taiwan zu China
       gewechselt ist.
       
   DIR Digitales US-Netzwerk „Parler“: Hetzer suchen neues Zuhause
       
       Das digitale Netzwerk Parler präsentiert sich als Alternative zu Twitter.
       Vertreten sind dort vor allem rechte Verschwörungsideolog*innen.
       
   DIR Populisten-Hochburg Facebook: Teile und herrsche
       
       Facebook behauptet, die Welt näher zusammenzubringen. Doch immer mehr zeigt
       sich, wie das Netzwerk Menschen auseinandertreibt – und Populisten stärkt.
       
   DIR Facebook verbannt QAnon-Gruppen: Das Hausrecht zu spät genutzt
       
       Facebook will in Zukunft stärker gegen Anhänger*innen der
       QAnon-Verschwörungsbewegung vorgehen. Das wird nicht ausreichen.