In den letzten Monaten gab es eine Zunahme von Geschichten, in denen ein Anhänger radikaler Verschwörungen ihre Aktionen vom Internet in die Welt verlagert.
Im Juni startete ein Anhänger der QAnon-Verschwörung einen Ein-Mann-Konflikt am Hoover-Staudamm in Nevada. Ein anderer QAnon-Anhänger wurde im nächsten Monat in einer Cemex-Zementfabrik festgenommen und behauptet, er habe Kenntnis davon, dass Cemex heimlich beim Kinderhandel mitgewirkt habe - eine Theorie, die in Facebook-Gruppen diskutiert wurde, um sie in die Trendthemen von Twitter zu integrieren.

Renee DiResta (@noUpside) ist ein Ideengeber für WIRED, den Forschungsdirektor von New Knowledge, und ein Mozilla-Mitarbeiter für Medien, Fehlinformationen und Vertrauen. Sie ist mit dem Berkman-Klein Center in Harvard und dem Data Science Institute an der Columbia University verbunden.
WhatsApp-Verschwörungstheorien über Pädophile in Indien führten zu Morden. Untersuchungen von Cesar Sayoc, genannt "Magabomber", zeigten seine Teilnahme an verschwörerischen Facebook-Gruppen. Es gibt den Synagogen-Shooter "Tree of Life". Der Kometen-Ping-Pong-Shooter „Pizzagate“. Es gibt leider viele Beispiele.
Natürlich wird erwartet, dass Menschen, die aggressive Handlungen begehen, auch soziale Medienprofile haben. Und die meisten Menschen, die an eine Verschwörung glauben, sind nicht anfällig für Gewalt. Diese Social-Media-Profile haben jedoch einen weiteren roten Faden: Beweise dafür, dass die Radikalisierung der Täter innerhalb einer Online-Verschwörungsgruppe stattgefunden hat.
Früher haben wir uns um Filterblasen gekümmert, die Benutzer versehentlich in einem bestimmten Informationsbereich einschließen. Im Zeitalter der sozialen Netzwerke hat sich die Blase erweitert: Menschen können leicht in Online-Communities verstrickt werden, die mit ihren eigenen Medien, Fakten und Normen operieren, in denen Stimmen von außen aktiv diskreditiert werden. Professor C. Thi Nguyen von der Utah Valley University bezeichnet diese Orte als Echokammern. "Eine epistemische Blase ist, wenn man keine Leute von der anderen Seite hört", schreibt er. "Eine Echokammer ist das, was passiert, wenn man Leuten von der anderen Seite nicht vertraut."
Es gibt einige häufige Wege, über die von Menschen berichtet wird, die in diese Gemeinschaften fallen und sie dann verlassen. Sie berichten in der Regel, dass ihre anfängliche Bekanntmachung mit einer Frage begann und dass eine Suchmaschine sie zu Inhalten führte, die sie als überzeugend empfanden. Sie beschäftigten sich mit dem Inhalt und fanden dann mehr. Sie schlossen sich einigen Gruppen an und bald schickte ihnen eine Empfehlungsmaschine andere. Sie entfremdeten alte Freunde, schlossen aber neue in den Gruppen, plauderten regelmäßig über ihre Forschungen, bauten Gemeinschaften auf und rekrutierten schließlich andere Leute.
„Als du einen unwissenden Ungläubigen getroffen hast, hast du ihnen YouTube-Videos mit übermäßig langen Kondensstreifen geschickt und ihnen Dinge erzählt wie:‚ Schau in den Himmel! Es ist offensichtlich! “Stephanie Wittis, eine selbstbeschriebene ehemalige Chemtrails- und Illuminati-Verschwörungsgläubige, sagte gegenüber Vice:„ Sie gehen nicht einmal detailliert auf die Angelegenheit oder die technischen Inkonsistenzen ein, sondern geben ihnen nur eine Erklärung, die vernünftig und zusammenhängend klingt und informiert - mit einem Wort, wissenschaftlich. Und dann geben Sie ihnen die Zeit, darüber nachzudenken."
Dieses Verhalten ähnelt einem anderen, älteren Phänomen: Es ähnelt auffallend der Rekrutierungstaktik der Zeit vor dem Internet, in der Rekruten gezielt und dann zunehmend von der nicht-kultischen Welt isoliert werden. "Der einfachste Weg, jemanden zu radikalisieren, besteht darin, seine Sicht auf die Realität permanent zu verändern", sagt Mike Caulfield, Leiter der Initiative zur digitalen Polarisierung der amerikanischen Vereinigung der staatlichen Hochschulen und Universitäten. „Es ist nicht nur ein Bestätigungsfehler. Wir sehen, wie sich die Menschen Schritt für Schritt in alternative Realitäten hineinbewegen. Sie fangen an zu befragen und werden dann den Weg entlang geführt. “
Der Weg führt sie in geschlossene Online-Communities, in denen Mitglieder wahrscheinlich keine realen Verbindungen haben, aber an gemeinsame Überzeugungen gebunden sind. Einige dieser Gruppen, wie zum Beispiel die QAnon-Gemeinschaften, zählen Zehntausende. "Was eine Bewegung wie QAnon für sich hat und warum sie sich wie ein Lauffeuer bemerkbar macht, ist, dass die Menschen sich mit etwas Wichtigem verbunden fühlen, von dem andere noch nichts wissen", sagt die Kult-Expertin Rachel Bernstein, die sich darauf spezialisiert hat in der Erholungstherapie. "Alle Kulte werden dieses Gefühl vermitteln, etwas Besonderes zu sein."
Die Idee, dass „mehr Sprache“diesen Ideen entgegenwirkt, missversteht die Dynamik dieser Online-Bereiche grundlegend: Jeder andere in der Gruppe ist auch Teil der Community der wahren Gläubigen. Informationen müssen nicht sehr weit verbreitet sein, um jedes Mitglied der Gruppe zu erreichen. Was geteilt wird, entspricht der Ausrichtung aller Mitglieder, was das Weltbild der Gruppe stärkt. Innerhalb von Cult 2.0 wird Dissens wahrscheinlich mit Feindseligkeit, Doxing und Belästigung konfrontiert. Es gibt keine Gegenrede. Es gibt niemanden, der den Trust- und Safety-Mods über Radikalisierung berichten wird.
Die Online-Radikalisierung ist heute ein Faktor für viele destruktive und ungeheure Verbrechen, und das Bedürfnis, sie zu verstehen, gewinnt an Dringlichkeit. Digitalforscher und Produktdesigner haben viel zu lernen, wenn sie sich mit der Deprogrammierungs- und Gegenradikalisierungsarbeit von Psychologen befassen. „Wenn Menschen gemeinsam in eine Bewegung involviert sind, wollen sie miteinander verbunden sein“, fügt Bernstein hinzu. „Sie möchten exklusiven Zugang zu geheimen Informationen haben, die andere Menschen nicht haben. Informationen, von denen sie glauben, dass sie von den Massen ferngehalten werden, weil sie sich dadurch geschützt und gestärkt fühlen. Sie sind denen in der Gesellschaft einen Schritt voraus, die vorsätzlich blind bleiben. Dies erzeugt ein drogenähnliches Gefühl - es ist sein eigenes Hoch. “
Diese Überzeugung veranlasst die Mitglieder größtenteils zur Korrektur. Dies ist ein Problem für die Initiativen zur Überprüfung von Fakten, auf die sich die Plattformen konzentrieren. Als Facebook versuchte, Fehlinformationen durch Fakten zu überprüfen, stellten die Forscher intuitiv fest, dass sich die Leute verdoppelten und den Artikel mehr teilten, als er umstritten war. Sie wollen nicht, dass Sie es wissen, behaupteten die Leser, dass Facebook versucht habe, umstrittenes Wissen zu zensieren.
YouTube versucht es immer noch. Es wurde kürzlich damit begonnen, Links zu Wikipedia-Einträgen hinzuzufügen, die Videos entlarven, die populäre Verschwörungstheorien vorantreiben. Im März berichtete Susan Wojcicki, CEO von YouTube, WIRED, dass die Website Einträge zu den Internet-Verschwörungen enthielt, die am aktivsten diskutiert wurden. (Vielleicht geht sie davon aus, dass die Anhänger einer riesigen globalistischen Verschwörung den Wikipedia-Artikel über den Holocaust einfach nicht gelesen haben.) Die sozialen Plattformen verhalten sich trotz der Tatsache, dass Forscher die Dynamik nicht verstehen, immer noch so erklären sie seit Jahren.
Also, was funktioniert? Eins-zu-eins-Interventionen und Nachrichten von Personen in diesen vertrauenswürdigen Netzwerken. Diese haben durchweg den größten Einfluss auf die Deradikalisierung. Da dies online nur sehr schwer skalierbar ist, versuchen Experten zu verhindern, dass Menschen radikalisiert werden, indem sie entweder Gemeinschaften impfen oder versuchen, so früh wie möglich in den Radikalisierungsprozess einzugreifen. Dies erfordert jedoch, dass Unternehmen ihren Empfehlungsprozess grundlegend ändern und bestimmte Benutzer von dem abbringen, was sie sehen möchten. Die Plattformen müssen ihre eigenen Suchmaschinen herausfordern - und möglicherweise eine Beurteilung des potenziellen Schadens vornehmen, der von bestimmten Arten von Inhalten ausgeht.