Im Januar 2018 sagten die führenden Politiker von YouTube, Facebook und Twitter in einer Anhörung des Senats über Terrorismus und soziale Medien aus und priesen den Einsatz künstlicher Intelligenz in ihren Unternehmen, um terroristische Inhalte von Gruppen wie ISIS und Al-Qaida zu entdecken und zu entfernen. Nach der Anhörung teilte Muslim Advocates, eine Bürgerrechtsgruppe, die seit fünf oder sechs Jahren mit Technologiefirmen zusammenarbeitet, den Führungskräften in einem offenen Brief mit, dass es alarmiert sei, zu hören, „dass die weißen Supremacisten so gut wie nichts über gewaltsame Aktionen gesagt hätten“Auslassung "besonders auffällig" angesichts des Mordes an Heather Heyer bei einer weißen Rassisten-Kundgebung in Charlottesville, Virginia, und ähnlichen Ereignissen.
Mehr als ein Jahr später haben muslimische Anwälte noch keine formelle Antwort auf ihren Brief erhalten. Aber die Besorgnis, dass Big Tech mehr Anstrengungen unternimmt, um die Verbreitung von terroristischen Inhalten bekannter ausländischer Gruppen einzudämmen, während weniger Ressourcen und weniger Dringlichkeit für terroristische Inhalte von weißen Supremacisten eingesetzt werden, ist letzte Woche nach den Schüssen auf zwei Moscheen in Christchurch, Neuseeland, wieder aufgetaucht, die Premierministerin Jacinda Ardern "die schlimmste terroristische Handlung an unseren Ufern" nannte.
In den USA behaupten einige Kritiker, dass die Strafverfolgung bei der Bekämpfung weißer Supremacisten durch unzureichende Instrumente, wie das Fehlen eines inländischen Terrorismusgesetzes, behindert wird. Aber die großen Technologieunternehmen sind private Unternehmen, die daran gewöhnt sind, die globale öffentliche Politik zu ihren Gunsten zu gestalten. Für sie ist das Versäumnis, terroristische Inhalte von weißen Supremacisten zu überwachen, eine geschäftliche Entscheidung, die vom politischen Druck geprägt ist und keine rechtliche Einschränkung.
Technologiefirmen sagen, dass es aufgrund des Informationsaustauschs mit Strafverfolgungsbehörden und branchenweiten Bemühungen, wie dem Global Internet Forum zur Terrorismusbekämpfung, einer Gruppe von, einfacher ist, Inhalte zu identifizieren, die sich auf bekannte ausländische Terrororganisationen wie ISIS und Al-Qaida beziehen YouTube, Facebook, Microsoft und Twitter im Jahr 2017.
Am Montag teilte YouTube beispielsweise in seinem Twitter-Account mit, dass es für das Unternehmen schwieriger sei, das Video der Dreharbeiten in Christchurch zu stoppen, als urheberrechtlich geschützten Inhalt oder ISIS-bezogenen Inhalt zu entfernen, da die Tools von YouTube zur Inhaltsmoderation auf „Referenzdateien“beruhen effektiv arbeiten. “Filmstudios und Plattenlabels stellen im Voraus Referenzdateien bereit, und„ viele gewalttätige extremistische Gruppen wie ISIS verwenden allgemeines Filmmaterial und Bildmaterial “, schrieb YouTube.
Als freiwillige Organisation kann das Global Internet Forum jedoch eigene Prioritäten setzen und auch Inhalte von weißen Nationalisten sammeln. Facebook stellte fest, dass Mitgliedsunternehmen "mehr als 800 visuell unterschiedliche Videos" im Zusammenhang mit den Christchurch-Angriffen in die Datenbank der Gruppe gestellt haben, "zusammen mit URLs und dem Kontext zu unseren Durchsetzungsansätzen".
Rechtsprofessorin Hannah Bloch-Wehba hat keine Beweise dafür gesehen, dass Technologie ISIS-bezogene Inhalte von Natur aus besser identifiziert als rechtsextremistische Inhalte. Sie sagt vielmehr, dass Tech-Plattformen diese Tools auf Druck der Aufsichtsbehörden entwickelt und entwickelt haben, um einer bestimmten Art von terroristischer Bedrohung entgegenzuwirken.
"Wir haben einfach keinen vergleichbaren Druck für Plattformen gesehen, der nach weißer Gewalt strebt", und wenn dies der Fall ist, sehen sich Unternehmen mit einem "politischen Rückschlag von rechts" konfrontiert, sagt Bloch-Wehba. "Es speist sich in eine Erzählung darüber ein, wer Terroristen sind, wer als Bedrohung angesehen wird und welche Arten von gewalttätigen Inhalten als riskant gelten."
Laut Bloch-Wehba sind die Definitionen von Terrorismus durch Technologieunternehmen eher vage, doch ISIS und Al-Qaida sind typischerweise die einzigen Gruppen, die in ihren Transparenzberichten genannt werden, was ihre Prioritäten offenbart.
Der Zyklus verstärkt sich selbst: Die Unternehmen sammeln mehr Daten darüber, wie ISIS-Inhalte aussehen, basierend auf den kurzsichtigen und unzureichenden Ansichten der Strafverfolgungsbehörden, und dann werden diese verzerrten Daten in Überwachungssysteme eingespeist, sagt sie. In der Zwischenzeit hätten die Verbraucher nicht genügend Transparenz, um zu wissen, ob diese Tools der Bedrohung angemessen sind, ob sie zu viele Inhalte filtern oder ob sie bestimmte Gruppen diskriminieren.
Wenn es Plattformen jetzt schwerer fällt, den Prozess der Identifizierung von Inhalten weißer Nationalisten oder weißer Supremacisten zu automatisieren, „wird es für sie schwierig, Aufholjagd zu machen“, sagt Bloch-Wehba.
Madihha Ahussain, Sonderbeauftragter für anti-muslimische Bigotterie für muslimische Anwälte, sagt, es gehe nicht nur darum, die Richtlinien für terroristische Inhalte zu erweitern. Tech-Unternehmen können etablierte Community-Standards nicht durchsetzen. "Wir glauben, dass eine Menge von Inhalten von weißen nationalistischen Gruppen im Allgemeinen gegen die Richtlinien der Technologieplattform verstoßen würde, aber" es ist eine Menge von Interessengruppen erforderlich, um Maßnahmen zu sehen."
Jahrelang betrachteten muslimische Anwälte dies als ein gutes Zeichen dafür, dass sich technische Führungskräfte mit der Gruppe treffen und ansprechbar erscheinen würden. "Aber dann haben wir gemerkt, dass sich eigentlich nichts geändert hat", sagt Ahussain.
In einer Erklärung zu WIRED sagte ein YouTube-Sprecher: „In den letzten Jahren haben wir stark in menschliche Überprüfungsteams und intelligente Technologien investiert, mit denen wir diese Art von Inhalten schnell erkennen, überprüfen und entfernen können. Wir haben Tausende von Menschen auf der ganzen Welt, die den Missbrauch unserer Plattformen überprüfen und bekämpfen, und wir ermutigen die Nutzer, alle Videos zu markieren, von denen sie glauben, dass sie gegen unsere Richtlinien verstoßen. “
Laut YouTube beschränken sich die Richtlinien zum Verbot von gewalttätigen oder grafischen Inhalten, die Gewalt auslösen, nicht nur auf ausländische Terrororganisationen und gehen über ISIS und Al-Qaida hinaus. Das Unternehmen schätzt, dass das Global Internet Forum Ende 2018 100.000 Hashes mit bekannten terroristischen Inhalten enthielt.
Laut YouTube werden Videos, die von Nutzern mit kontroversen religiösen oder supremassistischen Inhalten gekennzeichnet werden, strenger behandelt, auch wenn sie nicht gegen die Richtlinien des Unternehmens verstoßen. In solchen Fällen lässt YouTube nicht zu, dass die Videos Anzeigen enthalten. Außerdem werden die Videos aus den Empfehlungsalgorithmen entfernt und Features wie Kommentare, vorgeschlagene Videos und Likes entfernt.
In einer Erklärung sagte ein Sprecher von Twitter: „Gemäß unserer Hateful Conduct Policy verbieten wir Verhaltensweisen, die auf Personen mit geschützten Kategorien wie Rasse, ethnischer Herkunft, nationaler Herkunft oder religiöser Zugehörigkeit abzielen. Dies schließt Hinweise auf gewalttätige Ereignisse ein, bei denen geschützte Gruppen die Hauptziele oder -opfer waren. “
Facebook wies am Montag auf einen Blogeintrag des Unternehmens hin, in dem es um die Reaktion auf die Tragödie in Neuseeland ging. Das Unternehmen teilte mit, dass das ursprüngliche Facebook Live-Video entfernt und "gehasht" wurde, damit andere Freigaben, die dem Video visuell ähnlich sind, erkannt und automatisch von Facebook und Instagram entfernt werden. Da Varianten von Bildschirmaufzeichnungen des Streams schwer zu erkennen waren, wurde Facebook verwendete Audiotechnologie, um zusätzliche Kopien zu erkennen.