Am Mittwoch veröffentlichte das Oversight Board seine ersten Entscheidungen zu elf Fällen, die auf Metas umstrittene Richtlinienänderungen vom Jahresanfang zurückgehen. Gleichzeitig forderte das Gremium das Unternehmen auf, dringend die menschenrechtlichen Folgen seiner neuen Politik zu prüfen.
Mehr „Meinungsfreiheit“, weniger Kontrolle?
Im Januar hatte Meta umfassende Änderungen angekündigt: Einschränkungen zu kontroversen politischen Themen wie Migration wurden gelockert, Inhalte werden nicht mehr von unabhängigen Faktenprüfern bewertet, sondern durch eine neue Funktion à la „Community Notes“ – bekannt von X (ehemals Twitter). CEO Mark Zuckerberg sagte in einem Video, man sei „an einem Punkt angelangt, an dem es einfach zu viele Fehler und zu viel Zensur gibt“, und verwies auf die Bedeutung von Meinungsfreiheit nach den letzten Wahlen.
Doch das Oversight Board zeigt sich alarmiert. In seiner Erklärung kritisiert es, dass Meta keinerlei öffentliche Informationen darüber bereitgestellt habe, ob überhaupt eine menschenrechtliche Folgenabschätzung vor den Änderungen stattgefunden hat. Besonders schutzbedürftige Gruppen wie LGBTQ+-Personen, Minderjährige und Migrant*innen könnten nun stärker gefährdet sein, so das Gremium.
Bedenkliche Inhalte und fragwürdige Entscheidungen
Die elf Fälle, die das Board überprüfte, spiegeln genau diese Sorgen wider. In mehreren Situationen widersprach das Gremium der Unternehmenslinie – etwa bei Beiträgen über die britischen Unruhen im Sommer 2023. Diese hätten laut Einschätzung des Boards eine erhebliche Wahrscheinlichkeit gehabt, „weitere und unmittelbare Gewalt“ auszulösen, und sollten daher entfernt werden. Ähnlich fiel die Bewertung rassistischer und hetzerischer Beiträge gegen Migrant*innen sowie behinderte Menschen aus. Metas Systeme hatten diese Inhalte nicht erkannt – ein klares Versagen.
Allerdings stimmte das Board Meta auch in einigen Punkten zu. Zwei besonders umstrittene Beiträge über trans Personen und deren Zugang zu Toiletten und Sportwettkämpfen durften online bleiben. Zwar seien sie „provozierend formuliert“, so das Gremium, doch behandelten sie gesellschaftlich relevante Themen und erfüllten nicht die Kriterien für „unmittelbare Gewaltandrohung oder Diskriminierung“.
Meta in der Krise – auf mehreren Ebenen
Die Kritik kommt zu einem denkbar schlechten Zeitpunkt für Meta. Nur einen Tag zuvor sagte Kevin Systrom, Mitgründer von Instagram, im laufenden Verfahren der US-Wettbewerbsbehörde gegen Meta aus. Er behauptete, sein Unternehmen habe „null Dollar“ von den Sicherheitsinvestitionen erhalten, die Zuckerberg nach dem Cambridge-Analytica-Skandal öffentlich zugesichert hatte.
Zudem sorgt ein kürzlich erschienenes Buch der ehemaligen Facebook-Mitarbeiterin Sarah Wynn-Williams für Aufsehen. Darin beschreibt sie, wie Zuckerberg immer wieder weitreichende Entscheidungen allein traf – ohne Absprache oder Rücksicht auf mögliche Schäden.
Von Myanmar bis Palästina: Eine beunruhigende Bilanz
Dass Metas Plattformen reale Gefahren bergen, ist längst dokumentiert. Die Rolle von Facebook im Völkermord an den Rohingya in Myanmar ist gut belegt. Auch die systematische Löschung palästinensischer Inhalte hat für internationale Empörung gesorgt. Menschenrechtsorganisationen wie Amnesty International warnen, dass die jüngsten Änderungen das Risiko für Hassgewalt und sogar weitere Völkermorde erhöhen könnten.
Die Human Rights Campaign kritisierte, dass die neuen Richtlinien „anti-LGBTQ+-Desinformation normalisieren“ und Hass gezielt befeuern. Und tatsächlich: Interne Schulungsmaterialien enthalten mittlerweile Beispiele wie „Immigranten sind schmutzige, ekelhafte Miststücke“, „Schwarze sind gewalttätiger als Weiße“ oder „Transmenschen sind psychisch krank“ – als „zulässige“ Aussagen im neuen Rahmen.
Absicht oder „Oversight“?
Das Oversight Board will nun, dass Meta diese Entwicklungen überprüft – doch viele bezweifeln, dass das etwas bewirkt. Die Bedenken gegen Metas Kurs sind tiefgreifend und strukturell. Immer mehr Beobachter*innen fragen sich: Sind diese toxischen Richtlinien wirklich bloß ein Versehen? Oder ist das System inzwischen so kaputt, dass es gezielt Schaden in Kauf nimmt?