Es fühlt sich an, als würden wir viel zu oft Nachrichten sehen, dass die eine oder andere ungeheuerliche Straftat auf der einen oder anderen Social-Media-Site begangen wurde, einschließlich illegaler Posts oder des Live-Streamings von gewalttätigen Inhalten. Man kann sich leicht fragen, wie solche Dinge in diesem technologisch fortgeschrittenen Zeitalter durch die Ritzen rutschen können.
Tatsache ist jedoch, dass es praktisch unmöglich ist, Social-Media-Sites effektiv zu moderieren. Warum? Es gibt ein paar Gründe.
Einige Social-Media-Sites sind noch in den Kinderschuhen oder eher Nischen. Große Social-Media-Websites haben jedoch eine große Benutzerbasis. Die größten Websites haben zwischen Hunderten von Millionen und Milliarden von Nutzern. Natürlich ist jede so große Plattform schwer zu überwachen.
Die meisten großen sozialen Netzwerke verwalten dies durch eine Kombination aus Community-Berichten, Algorithmen, die (unvollkommen) darauf trainiert sind, schädliche Inhalte zu erkennen, und einigen menschlichen Moderatoren. Während ein Community-Mitglied oder eine KI schädliche Informationen erkennen und melden kann, hat ein Mensch (oder eine Gruppe von Menschen) das letzte Wort. Und viele Websites bieten ein Beschwerdeverfahren an.
Social-Media-Sites sind nicht nur in Bezug auf ihre Nutzerbasis riesig. Verschiedene Staaten und verschiedene Länder haben unterschiedliche Gesetze in Bezug darauf, welche Art von Inhalten gemeldet werden müssen und wie.
Daher müssen Social-Media-Unternehmen, die in verschiedenen geografischen Gebieten tätig sind, oft unterschiedliche Richtlinien für verschiedene Benutzer haben. Dazu gehören verschiedene Richtlinien für Fehlinformationen und Datenschutz. In der Tat, Twitter musste bestimmten Bedingungen zustimmen, um in Nigeria entbannt zu werden.
Darüber hinaus sind soziale Medien ein globales Phänomen, aber es geschieht nicht immer in den „globalen“ Sprachen. Dies kann dazu führen, dass Social-Media-Unternehmen sich bemühen, Inhaltsmoderatoren zu finden, die regionale Sprachen sprechen, um Dienste weltweit bereitzustellen, ohne diese Benutzer anfällig für schlechte Akteure zu machen.
Ein gutes Beispiel ist das von Facebook-Besitzer Meta. Das Unternehmen wurde vor kurzem verklagt von einem ehemaligen Inhaltsmoderator in Nairobi der behauptet, dass Inhaltsmoderatoren in dem Bereich dazu verleitet werden, die Rolle zu übernehmen.
3. Moderatoren balancieren auf einem Drahtseil
Die meisten Social-Media-Nutzer wollen zwei Dinge: Sie wollen sich sicher fühlen und sie wollen sich frei fühlen. Eine Balance zwischen diesen beiden Wünschen zu finden, ist die knifflige Aufgabe des Inhaltsmoderators.
Weichen Sie zu weit von einer Seite aus, fühlen sich die Benutzer überwacht. Gehen Sie zu weit auf die andere Seite, fühlen sich die Benutzer im Stich gelassen. Eine Möglichkeit, wie einige Social-Media-Sites dies umgehen, sind Community-Moderatoren.
Community-Moderatoren helfen dabei, auszudrücken, dass Moderation aus Leidenschaft für die Förderung erfolgt konstruktiver Diskurs, ohne schädliche Inhalte zuzulassen und nicht aus Kontroll- oder Unterdrückungswillen Benutzer. Dieses Modell ist im Maßstab eine Herausforderung, obwohl verschiedene Plattformen dafür sorgen, dass es auf unterschiedliche Weise funktioniert.
Parler kam wieder online nach Anpassung seiner Moderationsrichtlinie an die Richtlinien von Drittanbietern. Sie haben so etwas wie ein Community-Jury-System, das mehr oder weniger erst ins Spiel kommt, nachdem ein potenziell problematischer Beitrag bereits gemeldet wurde. Die Priorisierung von Benutzerberichten ist eine weitere Möglichkeit, mit der Parler dazu beiträgt, die Belastung seiner Moderatoren zu verringern.
4. Moderatoren müssen eine dynamische Linie verfolgen
Inhaltsmoderatoren arbeiten auch in einer moralischen Grauzone. Sogar Plattformen mit einer freieren Auffassung von Moderation haben Regeln gegen potenziell schädliche oder gewalttätige Inhalte. Einige Beiträge sind offensichtlich schädlich oder gewalttätig, während andere einigen Benutzern (oder Moderatoren) als schädlich oder gefährlich erscheinen, anderen jedoch nicht.
Viele Plattformen haben auch Regeln gegen andere Aktivitäten wie den Verkauf von Produkten oder Dienstleistungen. Dies kann ein noch schwieriger zu navigierender Bereich sein, insbesondere angesichts der Größe und des Umfangs einiger Websites.
In Betracht ziehen was Reddit-Community-Moderatoren tun. Wenn Benutzer einer neuen Community beitreten, werden ihnen sofort die Regeln für diese Community zugesendet. Diese Regeln werden auch auf der Seite jeder Community-Seite veröffentlicht. Dadurch kann jede Community eine Teilmenge von Regeln haben, die auf sie zugeschnitten sind, anstatt pauschale Regeln für die gesamte Site.
Die Idee der Subreddits hilft Reddit auch dabei, Community-Moderatoren in großem Umfang einzusetzen. Moderatoren haben die Aufgabe, ihren Subreddit zu moderieren, anstatt zu versuchen, die gesamte Website zu patrouillieren.
Schließlich bewegen sich die sozialen Medien wirklich schnell. Wenn Sie von einem problematischen Beitrag hören, kann es sein, dass der ursprüngliche Verfasser ihn schon lange entfernt hat. Für den Fall, dass der Beitrag nicht gemeldet wurde, während er online war, kann es schwierig sein, nachträglich darauf zu antworten.
In einem Fall im Jahr 2015 wurde ein Beitrag auf der Social-Media-Website YikYak der Polizei gemeldet, wobei eine geänderte Version des ursprünglichen Beitrags verwendet wurde, der bereits entfernt worden war. Was intern von Online-Content-Moderatoren hätte gelöst werden können, wurde zu einem langwierigen Rechtsdrama, das eine ganze Community verärgerte.
Viele Social-Media-Sites, einschließlich Facebook, haben Richtlinien zur Aufbewahrung verdächtiger Posts für den Fall, dass in sich entwickelnden Situationen auf sie verwiesen werden muss, einschließlich durch Strafverfolgungsbehörden.
Aber Funktionen wie Livestreaming bedeuten, dass Inhalte so hochgehen, wie sie passieren, was Algorithmen übersehen können, bis es zu spät ist.
Werfen Sie Ihrem Moderator eine Münze zu
Wenn Sie online etwas sehen, das Sie beunruhigt, gehen Sie über die bereitgestellten Kanäle, um es zu melden. Vermeiden Sie es, sich aufzuregen oder misstrauisch zu werden, da das Moderieren von sozialen Medien schwierig ist. Gleiches gilt, wenn Sie oder ein Beitrag gemeldet wird. Es ist wahrscheinlich ein gut gemeinter Schritt, um die Nutzer von Social Media zu schützen.