Social Media sind Weltuntergangsmaschinen. Sie lenken ab, teilen sich und sind verrückt; wir können uns nicht mehr hören, nicht mehr kohärent sprechen oder gar denken. Infolgedessen lösen sich unsere sozialen, bürgerlichen und politischen Liganden auf.
Überall konsultieren die Menschen ihre Bildschirme, um zu bestätigen, was sie bereits denken, und wiederholen, was Gleichgesinnte bereits gesagt haben. Sie lassen sich überwachen und begrüßen algorithmische Manipulationen. Sie glauben an Absurditäten und begehen Ungerechtigkeiten. Einige verlieren den Verstand. Wir haben eine Nummer an uns gemacht. Das weiß jeder, auch die Technikverkäufer. Tim Cook, der Geschäftsführer von Apple, sagte im vergangenen Oktober auf einer Datenschutzkonferenz reumütig, dass Plattformen und Algorithmen, von denen viele hofften, sie würden das Beste der Menschheit vergrößern, das Schlimmste ausgelöst hätten.

Jason Pontin (@jason_pontin) ist ein Ideengeber für WIRED. Zuvor war er Chefredakteur und Herausgeber von MIT Technology Review. Davor war er Herausgeber von Red Herring. Jetzt ist er Senior Partner bei Flagship Pioneering, einem Unternehmen in Boston, das Unternehmen finanziert, die Probleme in den Bereichen Gesundheit, Ernährung und Nachhaltigkeit lösen. Pontin schreibt weder über die Portfoliounternehmen von Flagship noch über deren Wettbewerber.
Ich weiß es jetzt auch. Ich sehe die Lügen und Selbstliebe, Grausamkeit und Leichtgläubigkeit und kann ihre Ursachen verfolgen. Aber ich war lange Zeit ein Maximalist der Redefreiheit - jemand, der glaubte, die Menschheit brauche so viel Redefreiheit, wie sie ertragen könnte. Ich glaubte an einen Marktplatz der Ideen, auf dem schlechte Ideen besiegt und gute Ideen verfeinert würden. In dieser Hinsicht war ich konventionell liberal. Meine Inspiration war John Stuart Mill und sein „philosophisches Lehrbuch einer einzigen Wahrheit“On Liberty (1859). Diese Wahrheit, die jetzt einfach als „Mills-Schadens-Prinzip“bezeichnet wird, besagt: „Der einzige Zweck, zu dem Macht über ein Mitglied einer zivilisierten Gemeinschaft rechtmäßig ausgeübt werden kann, ist, anderen Schaden zuzufügen.“
Ich habe einmal den Geist von Mill in einem Aufsatz "Redefreiheit in der Ära ihrer technologischen Erweiterung" angerufen, um zu argumentieren, dass das Schadensprinzip nicht nur die gesetzlichen Grenzen für das Sprechen in Nationen definieren könnte, die die freie Meinungsäußerung schützen (kurz: das amerikanische Recht schützt Befürwortung illegaler Handlungen bis zu dem Punkt, an dem eine schwere Straftat "unmittelbar bevorsteht" und "wahrscheinlich" ist), aber auch Richtlinien für die Nutzungsbedingungen von Internetunternehmen, die jede von ihnen gewählte Rede zensieren können. Ich bin zuversichtlich, dass Schaden der einzige Standard sein sollte, den Internetunternehmen verwenden, um zu entscheiden, was zu verbieten ist, wobei „Schaden“physische und einige gewerbliche Verletzungen bedeutet, aber persönliche, religiöse oder ideologische Straftaten ausschließt. Ich hab mich geirrt.
Ich dachte, es könnte nichts Schlimmes passieren, wenn Männer und Frauen sagen, was sie wollen. Das kann man heute kaum glauben. In einem Katalog, der es leid war, sich zu erzählen, erfuhren wir in nur 72 Stunden im letzten Monat, dass Cesar Sayoc auf Facebook radikalisiert und anderen auf Twitter gedroht wurde, bevor er Pfeifenbomben an mehr als ein Dutzend Kritiker von Präsident Trump sandte. Robert Bowers teilte mit Gab Verschwörungstheorien und antisemitische Botschaften, bevor er angeblich elf Menschen tötete und sechs weitere verletzte. und dass Jair Bolsonaro, ein rechter brasilianischer Politiker, der am besten für seinen Hass bekannt ist (gegen Homosexuelle, Afro-Brasilianer, Frauen - Pluralismus selbst), eine Desinformationskampagne über WhatsApp führte, bevor er die Wahl zum Präsidenten gewann. Vielleicht waren alle drei, sogar Bolsonaro, verrückt nach Social Media; Aber soziale Medien haben ihre Böswilligkeit auf unterschiedliche Weise lizenziert.
Die Empörung des letzten Monats vertiefte die allgemeine Bestürzung über die Mechanismen und den Einfluss der sozialen Medien. Niemand ist stolz auf seine Online-Sucht, aber diese Sucht scheint nun konsequent zu sein. Die Forschung unterstützt zunehmend die Intuition, dass hasserfüllte Sprache zu hasserfüllten Handlungen führt. Als Reaktion darauf haben einige derjenigen, die Social Media am besten kennen, die liberale Tradition abgelehnt und schlagen vor, dass Unternehmen, die schlechtes Verhalten anstacheln und belohnen, besser reguliert werden sollten, da wir unser Verhalten nicht regulieren können.
Als Zeynep Tufekci, ein Sozialwissenschaftler, der die Auswirkungen aufkommender Technologien untersucht, im Januar letzten Jahres im WIRED-Magazin schrieb, stellte er fest, dass „John Stuart Mills Vorstellung, dass ein„ Marktplatz der Ideen “die Wahrheit in die Höhe treiben wird, durch die Viralität gefälschter Nachrichten völlig widerlegt wird“forderte "politische Entscheidungen" mit "großen Kompromissen". Meine Kollegin bei WIRED Ideas, Renee DiResta, die Forschungsdirektorin bei New Knowledge, die Unternehmen vor Angriffen auf Desinformation in sozialen Medien schützt, erinnerte "Experten und Politiker, die über Zensur heulten", dass " Redefreiheit bedeutet nicht freie Reichweite. Wir haben darauf bestanden, dass wir Technologieunternehmen zur Rechenschaft ziehen und Transparenz darüber verlangen, wie ihre Algorithmen und Moderation funktionieren.
Die Internetunternehmen sind nicht begeistert von der Regulierung und haben als Reaktion auf die Forderung ihrer Kunden nach mehr genialen Online-Erlebnissen versprochen, sich zu ändern. Im Januar letzten Jahres hat Facebook einen freiwilligen „Verhaltenskodex“mit der Europäischen Union vereinbart, in dem innerhalb von 24 Stunden „Hassreden“beseitigt werden. Weltweit entfernte das soziale Netzwerk 280.000 Posts, die gegen seine Hassreden-Standards verstießen, für jeden Monat des Jahres 2017. Twitter verzichtete seinerseits auf den Anspruch, "der redefreie Flügel der redefreien Partei" zu sein. Zu Beginn dieses Jahres sprach es mit britischen Parlamentariern Sinead McSweeney, Vice President of Public Policy für Europa, den Nahen Osten und Afrika des Unternehmens, sagte aus, dass eine „John Stuart Mill-Philosophie“der Zeit nicht angemessen sei: „Es ist nicht mehr möglich, sich für alle Reden einzusetzen in der hoffnung wird die gesellschaft zu einem besseren ort, weil rassismus herausgefordert wird oder homophobie… oder extremismus herausgefordert wird. Wir müssen Schritte unternehmen, um die Sichtbarkeit von hasserfüllten Symbolen einzuschränken und Menschen von der Plattform zu verbannen, die sich gewalttätigen Gruppen anschließen. “Im September hat Twitter neue Richtlinien verabschiedet, die die Entmenschlichung von Sprache verbieten. Die Maxime lautet jetzt:„ Sei süß, wenn du Tweet."
Im Oktober wurde ich Teil der Debatte über Reden, als Breitbart News ein durchgesickertes Google-Memo veröffentlichte, in dem ich als erster unter den "führenden Denkern in diesem Bereich" genannt wurde. Die rechtsextreme Site bot das 85-seitige Dokument als Beweis für Googles Algorithmen unterdrückten konservative Stimmen, ein häufiger Verdacht auf der rechten Seite. (Trump hat getwittert: "Google und andere … verstecken Informationen und Nachrichten, die gut sind. Sie kontrollieren, was wir sehen und was nicht.") Das Leck wurde von anderen rechtsgerichteten Sites und russischen staatlichen Medien aufgegriffen: "Google spielt jetzt "Guter Zensor", um der Höflichkeit willen, bestätigt durchgesickertes internes Briefing ", schrillte RT.com.
In Wirklichkeit war meine Beteiligung gering: Ein britisches Forschungsunternehmen, das von Google eingestellt wurde, hat mich vor einem Jahr interviewt. Zu einer Zeit, in der der Suchriese mit dem Start einer stark zensierten Suchmaschine und Nachrichtenseite in China kämpfte, mit dem Codenamen Dragonfly, inmitten interner Meinungsverschiedenheiten und des Rücktritts und der Vorwürfe eines hochrangigen Forschers, als er sich bemühte, die Videos und Kommentare zu moderieren Auf YouTube half ich dem Unternehmen zu überlegen, wie seine Algorithmen das Gesagte und Gehörte verstärkten oder stumm schalteten. Wenn Mills Vision eines Marktplatzes für Ideen utopisch war, wollte Google nicht, dass sein Code zu einer digitalen Dystopie in China oder anderswo beiträgt.
Die acht Empfehlungen des Memos waren rational und bescheiden (obwohl Google schnell klarstellte, dass es sich nicht um eine Unternehmenspolitik handelt, und fügte hinzu: "Google ist der freien Meinungsäußerung verpflichtet - die Unterstützung des freien Ideenflusses ist der Kern unserer Mission.") Das Unternehmen sollte mehr sein Konsequent: „Keine Partei ergreifen“, „Polizei-Ton statt Inhalt“. Transparenter: „Standards und Richtlinien klar durchsetzen“, „Technologie erläutern“. Reaktionsschneller: „Kommunikation verbessern“, „Probleme ernst nehmen“. Und Es sollte mehr "Befähigung" geben: "Positive Richtlinien" und "bessere Wegweiser".
Ich konnte die Vorschläge freudig unterstützen, weil sie die Unparteilichkeit förderten. Sie spiegeln größtenteils den sich abzeichnenden Konsens über die Sprache der Internetunternehmen wider. Aber wie ein Viktorianer ohne seinen Gott fühlte ich mich leer und ängstlich ohne ein vernünftiges Prinzip: Alles, was ich hören konnte, war das melancholische, lange, sich zurückziehende Brüllen des Liberalismus. Ich habe ein neues Prinzip im Schreiben des Philosophen Justin Khoo, eines jungen Professors am MIT, gefunden. Er empfiehlt, was er als „diskursive Intoleranz“bezeichnet, um Mills Marktplatz der Ideen zu retten, wenn der Markt von Schurken überschwemmt wird, die falsche Waren verkaufen und entwertet werden verändern sich, und Anarchisten arbeiten in Kellern an Bomben, die den Markt vollständig explodieren lassen.
Khoo schreibt: „Wir müssen herausfinden, wie wir trotz unserer Meinungsverschiedenheiten miteinander auskommen können.“(Ein Thema, über das ich letzten Mai geschrieben habe: „Vier Regeln für das Lernen, wie man wieder miteinander spricht.“) Insbesondere fragt er, ob und wie sehr wir Ansichten tolerieren sollten, die wir nicht mögen. Bei der Beantwortung dieser Frage beruft sich Khoo auch auf Mill: „Angesichts unserer Fehlbarkeit war Mill der Ansicht, dass ein gut funktionierender diskursiver Marktplatz für Ideen - das heißt ein öffentliches Forum, in dem eine Vielfalt von Ansichten auf der Grundlage von Vernunft und Beweisen bewertet wird - unsere Aufgabe war beste Chance für Wissen und Erfolg. “Doch Khoo hält Mill wie ich auf subtile Weise für falsch: Toleranz sei nicht immer der beste Weg, um einen diskursiven Markt zu sichern. In der realen Welt müssen wir manchmal die Verbreitung von Meinungen behindern, „ohne rational mit ihnen umzugehen“.
Zur Erklärung liefert Khoo ein Beispiel, das es wert ist, ausführlich zitiert zu werden: „Nehmen wir an, es gibt eine allgemein anerkannte Ansicht, nennen wir es X, die besagt, dass Mitglieder bestimmter Gruppen (die X-Angezielten) minderwertig, nicht wissenswert, nicht vertrauenswürdig oder in bestimmten Bereichen voreingenommen sind Probleme. Nehmen wir weiter an, dass der Glaube an X so tief verwurzelt ist, dass rationale Argumente gegen X aus Gründen scheitern, die nichts mit den epistemischen Vorzügen von X selbst zu tun haben. In einem solchen Fall bedroht die Verbreitung von X-Annahmen in der Community den diskursiven Markt: Die Stimmen der X-Zielgruppe werden effektiv zum Schweigen gebracht… und ihre Ansichten werden nicht nach ihren Vorzügen bewertet. In diesem Fall haben wir angesichts des Ziels, einen gut funktionierenden Marktplatz für Ideen zu schaffen, Grund, X- und X-Gläubigen gegenüber diskursiv intolerant zu sein. Man könnte versuchen, praktische Anreize zu schaffen, um X nicht zu befürworten. “
Es gibt Probleme mit diskursiver Intoleranz. Im Gespräch listet Khoo glücklich die Schwierigkeiten auf. Seine Idee ist zweideutig: Wenn „Ausdrücke erster Ordnung“eines Glaubens unerträglich sind, können wir dann Debatten zweiter Ordnung darüber zulassen, ob ein Glaube so schrecklich ist, dass er überhaupt nicht diskutiert werden kann? Es ist riskant: Wenn Gläubige in einer sehr weit verbreiteten Sichtweise diskursive Intoleranz erleben, rebellieren sie dann nicht, indem sie möglicherweise eine Gemeinschaft vollständig verlassen? Vor allem ist seine Idee kein sehr zuverlässiger Ratgeber. Wie können fehlbare Menschen feststellen, ob diskursive Intoleranz die angemessene Antwort auf eine Meinungsverschiedenheit ist, außer indem sie "Schaden" so ausweiten, dass der sehr abstrakte Begriff des Marktplatzes der Ideen selbst beschädigt wird? "Schaden" bedeutet, wenn es nicht in eine kleine, luftlose Schachtel gelegt wird, etwas, das den Interessen der Mächtigen zuwiderläuft. "Ich habe keine ausgeklügelte Sicht", gibt Khoo zu. „Wir können niemals zu 100% sicher sein. Es gibt keine neutrale Position. “
Diskursive Intoleranz ist in der zeitgenössischen Szene eher ein generelles Problem. Internetplattformen wurden nicht als Wahrheitsmaschinen konzipiert, und es gibt keine Beweise dafür, dass Benutzer diese Funktion ausführen sollen. Bei allen Problemen, die mit Bedacht auftreten, kann diskursive Intoleranz die Verantwortung von Online-Unternehmen gegenüber ihren Nutzern, Aktionären und der Gesellschaft insgesamt bestimmen. So wie die einzige politische Organisation, die Demokratien nicht tolerieren können, antidemokratische Parteien sind, sind die einzigen Reden, die in den sozialen Medien nicht akzeptabel sind, möglicherweise Redewendungen, die die Grundfunktionen der Plattformen selbst untergraben sollen, einschließlich Hassreden, die andere Benutzer vertreiben sollen. Interessanterweise nahm Mill selbst einen Aspekt von Khoos Argumentation vorweg: Er hielt Unaufrichtigkeit - Trolling - für eine unethische Redeweise, die niemand respektieren musste.