Soziale Netzwerke wie Facebook, X, Instagram und Co. leben von den Inhalten, welche die eigenen User*innen auf die Plattform einbringen. Plattformen müssen sich an gesetzliche Vorgaben halten und dürfen bspw. in Deutschland keine Inhalte mit Volksverhetzung verbreiten. Zudem haben die meisten Anbieter individuelle Regeln formuliert, welche Inhalte auf der eigenen Seite erwünscht und welche verboten sind. Doch wie wird die Einhaltung dieser Regeln und Gesetze überwacht? Wie wird Inhalt gefiltert und der Content auf Plattformen moderiert? Kann eine KI bspw. den kulturellen Kontext eines Bildes erfassen oder zwischen einer echten Hinrichtung und einer Theater-Inszenierung unterscheiden?
In diesem Vortrag erfahren wir, warum und wie Plattformen ihren Content moderieren und welche Akteure neben Algorithmen daran beteiligt sind. Sogenannte „Cleaners“ aus Billiglohnländern verbringen den ganzen Tag damit, sich unzählige Bilder und Videos anzusehen, um dann zu entscheiden zwischen „okay“ und „delete“. Aufgrund des heftigen Contents werden die Cleaner bei ihrer Arbeit oftmals stark traumatisiert. Zudem widmen wir uns der Frage, inwieweit eine Content-Moderation auch zur Zensur verwendet wird oder wie im Fall von Elon Musks X politisch instrumentalisiert werden kann. [CONTENT NOTE: In Fotos wird Nacktheit, Gewaltverherrlichung und Tod gezeigt.]
Referent Elias Raatz ist u.a. als freier Journalist sowie als Medienwissenschaftler an der Uni Tübingen tätig. Er beschäftigte sich im Rahmen einer Projektarbeit mit dem Thema „Content-Moderation“, worüber er bspw. im Rahmen der Ringvorlesung „Medienkonvergenz & soziale Plattformen“ am Institut für Medienwissenschaften referierte.