Digital
Facebook

Facebook macht erstmals Löschkriterien öffentlich

Digital

Facebook macht erstmals Löschkriterien öffentlich

24.04.2018, 07:1324.04.2018, 13:13
Mehr «Digital»

Facebook wird Nutzern erstmals die Möglichkeit geben, der Löschung ihrer Beiträge durch das Online-Netzwerk zu widersprechen. Die Funktion soll bis Jahresende weltweit eingeführt werden.

Zugleich legte Facebook am Dienstag erstmals die Richtlinien für seine Löschaktionen offen. Das Unternehmen räumte aber ein: 

"Unsere Richtlinien sind nur so gut wie ihre Durchsetzung – und die ist nicht perfekt."
"Die Standards basieren auf Feedback von unserer Community sowie von Experten aus Bereichen wie Technologie und öffentliche Sicherheit", heißt es in der Handreichung.

Die Erklärung gliedert sich in sechs Abschnitte. 

  • Gewalt und kriminelles Verhalten
  • Sicherheit 
  • Anstößiger Inhalt
  • Integrität und Authentizität
  • Achtung vor geistigem Eigentum
  • Inhaltsbezogene Anfragen

Facebook war für seine geheime Löschaktionen heftig kritisiert worden. Nun stellte das Unternehmen klar:

"Unsere Standards entwickeln sich kontinuierlich weiter – basierend auf diesem Feedback sowie den Veränderungen sozialer Normen und in der Sprache. Was sich jedoch nicht geändert hat – und sich nicht ändern wird – sind die den Standards zugrunde liegenden Prinzipien von Sicherheit, Mitspracherecht und Fairness."

Die neuen Gemeinschaftsstandards spiegeln die Regeln der 7600 Moderatoren wider, die fragwürdige Inhalte überprüfen und dann entscheiden, ob sie gelöscht werden. Die Standards haben sich nicht geändert, doch die Regeln sind nun detaillierter und offengelegt.

Ferner geht Facebook nach eigenen Angaben härter denn je gegen extremistische Inhalte auf seiner Plattform vor: Im ersten Quartal 2018 löschte das weltgrößte Online-Netzwerk hunderttausende Beiträge mit Bezug zu den Terrororganisationen Islamischer Staat (IS) und Al-Qaida.

  • Insgesamt seien 1.9 Millionen Beiträge entfernt oder mit Warnhinweisen versehen worden - doppelt so viele wie im vorangehenden Quartal.
  • 99 Prozent davon wurden demnach nicht von Benutzern gemeldet, sondern von automatisierter Software und eigenen Prüfern entdeckt.
  • Im Durchschnitt seien solche Beiträge für weniger als eine Minute auf der Plattform verfügbar, hieß es.

Zugleich stellte das Unternehmen auch seine offizielle Definition von Terrorismus vor:

So definiert Facebook Terrorismus

"Jede Nichtregierungsorganisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum begeht, um eine zivile Bevölkerung, Regierung oder internationale Organisation einzuschüchtern, um ein politisches, religiöses oder ideologisches Ziel zu erreichen."

Regierungen hingegen dürften unter bestimmten Umständen rechtmäßig Gewalt anwenden, so das Unternehmen. Mit dem Aufspüren extremistischer Beiträge befasst sich ein auf Terror-Inhalte spezialisiertes Team.

Laut Facebook ist die Gruppe seit Juni vergangenen Jahres von 150 auf 200 Mitarbeiter angewachsen, weitere sollen hinzukommen. Anfang März hatte die Europäische Kommission neue Richtlinien zur Entfernung terroristischer und anderer illegaler Inhalte auf Facebook und anderen Online-Plattformen erlassen, um den Druck auf die Anbieter zu erhöhen.

(pb/dpa)