Logo mybusinessculture.com

Die Rückkehr Gefälschter Nachrichten - Und Lehren Aus Spam

Die Rückkehr Gefälschter Nachrichten - Und Lehren Aus Spam
Die Rückkehr Gefälschter Nachrichten - Und Lehren Aus Spam

Video: Die Rückkehr Gefälschter Nachrichten - Und Lehren Aus Spam

Video: Die Rückkehr Gefälschter Nachrichten - Und Lehren Aus Spam
Video: Gefälschte Impfpässe im Internet zu kaufen | SWR Aktuell 2023, Dezember
Anonim

Das Informationsökosystem ist kaputt. Unsere politischen Gespräche finden über eine Infrastruktur statt - Facebook, YouTube, Twitter - die auf virale Werbung ausgelegt ist. Die Geschwindigkeit des sozialen Teilens, die Kraft der Empfehlungsalgorithmen, die Größe der sozialen Netzwerke und die Zugänglichkeit der Medienmanipulationstechnologie haben eine Umgebung geschaffen, in der Pseudoereignisse, Halbwahrheiten und völlige Erfindungen gedeihen. Edward Murrow wurde von Alex Jones an sich gerissen.

Image
Image

Renee DiResta (@noUpside) ist ein Ideengeber für WIRED, den Forschungsdirektor von New Knowledge, und ein Mozilla-Mitarbeiter für Medien, Fehlinformationen und Vertrauen. Sie ist mit dem Berkman-Klein Center in Harvard und dem Data Science Institute an der Columbia University verbunden.

Aber das wissen wir schon eine Weile. In den letzten zwei Jahren haben Journalisten und Forscher ein ganzes Lexikon zusammengestellt, um diese Probleme zu beschreiben: Fehlinformation, Desinformation, rechnerische Propaganda. Wir haben Kongressanhörungen darüber begonnen, wie Algorithmen die Gesellschaft verändern. Und wir haben oft über Filterblasen bei Google, Konversations-Gesundheitsdaten bei Twitter, Radikalisierung bei YouTube und „koordinierte unechte Aktivitäten“bei Facebook gesprochen.

In dieser Zeit verschob sich die öffentliche Meinung. Die Leute begannen zu spüren, dass Technologieunternehmen nicht nur neutrale Gastgeber waren. Sie trugen eine gewisse Verantwortung für die Verbreitung ihrer Algorithmen. Die Aufsichtsbehörden begannen mit der Diskussion über Lösungen, von der Offenlegung von Anzeigen über die algorithmische Prüfung bis hin zum Kartellrecht. Tatsächlich haben wir wesentliche Fortschritte bei der Aufdeckung und Streichung langfristiger staatlich geförderter Einflüsse erzielt. Und das liegt in gewisser Weise daran, dass diese Operationen die niedrig hängenden Früchte waren: Die Rechte der Amerikaner auf freie Meinungsäußerung wurden durch die Abschaffung russischer Trollseiten nicht beeinträchtigt.

Aber jetzt, da ein Video von Sprecherin Nancy Pelosi - bearbeitet, um sie betrunken oder desorientiert erscheinen zu lassen - Millionen von Menschen erreicht hat, die zum Teil durch Zehntausende von Aktien auf Facebook verbreitet wurden, sprechen wir wieder über das ursprüngliche Problem, das eklatant war Bei den Wahlen 2016 wurde deutlich, dass es sich um „falsche Nachrichten“handelt. Dort haben wir kaum Fortschritte erzielt.

Viele Leute sind gekommen, um gefälschte Nachrichten mit den Einflüssen Russlands in Verbindung zu bringen. Dies ist in erster Linie darauf zurückzuführen, dass diese beiden Aspekte der Informationsstörung nach der Präsidentschaftskampagne 2016 fast gleichzeitig in der Öffentlichkeit bekannt wurden. Die Probleme sind jedoch unterschiedlich. Bei der russischen Operation handelte es sich um eine staatlich geförderte Desinformationskampagne: Fälschungen, bei denen soziale Plattformen genutzt wurden, um stark polarisierende Propaganda zu verbreiten (mit zahlreichen Memes aus einheimischen amerikanischen überparteilichen Medien). Ein Teil des Inhalts war falsch, ein Großteil jedoch nicht.

"Gefälschte Nachrichten" waren tatsächlich falsche Nachrichten: Geschichten, die offenkundig von Menschen in den USA erfunden, geschrieben und geteilt wurden, die wirtschaftlich oder politisch motiviert waren. Oder in einigen Fällen von Mazedoniern, die einen Gehaltsscheck suchen. Während die Motive variieren können, ist das Produkt das gleiche: fiktive Geschichten.

Forscher debattieren immer noch über das Ausmaß der Auswirkungen auf die Wahlen 2016. Aber die Reichweite ist unbestreitbar. "Der Schöpfer von gefälschten Facebook-Nachrichten behauptet, er habe Trump in das Weiße Haus versetzt", heißt es in einer Schlagzeile von CBS News im November 2016, in der die Arbeit des amerikanischen Schöpfers von gefälschten Inhalten, Paul Horner, beschrieben wird. Vielleicht eine Äußerung des Rauschens - Horner rühmte sich regelmäßig seiner Reichweite -, aber seine „Hoaxes“(ein zunehmend unangemessener Begriff) fanden auf sozialen Plattformen breite Beachtung, wurden von prominenten Politikern retweetet, als echte Nachrichten von der Google-Suche falsch eingestuft und gelegentlich erhalten Berichterstattung in der Mainstream-Presse. Und während Facebook-Chef Mark Zuckerberg die Idee, dass gefälschte Nachrichten einen Einfluss auf die Wahl haben könnten, als "verrückt" bezeichnete, hat er sie seitdem widerrufen.

Also: Das ist nicht neu. Aber warum bleibt das Problem bestehen? Um die Herausforderungen und den Kontext von „gefälschten Nachrichten“wirklich zu verstehen, ist es wichtig, auf die wegweisenden Ereignisse des Jahres 2016 zurückzukommen - und auf eines, bei dem Facebook genau die falsche Wahl getroffen hat, die in Desinformationsforscherkreisen umgangssprachlich als Conservativegate oder Trending Topicsgate bezeichnet wird.

Trending Topicsgate war ein Sturm, der im Mai 2016 stattfand, als ein Content-Moderator, der für die Funktion Trending Topics von Facebook arbeitete, sich selbst als Hinweisgeber bezeichnete, sich Gizmodo öffnete und mitteilte, dass Facebook-Mitarbeiter konservative Nachrichten unterdrückten.

Politiker und Experten sprangen darauf und Facebook reagierte sofort. Tom Stocky, der für Trending Topics zuständige Produktmanager, erläuterte die Funktionsweise des Features und bestritt den Vorwurf mit den Worten: „Wir haben keine Beweise dafür gefunden, dass die anonymen Behauptungen wahr sind.“Das Unternehmen lud prompt prominente konservative Medienpersönlichkeiten zu sich ein Menlo Park Campus, um die Situation zu diskutieren. Glenn Beck war Teil der Delegation und veröffentlichte am nächsten Tag einen Medium-Post, in dem er sagte, er sei "überzeugt, dass Facebook sich angemessen verhält und versucht, das Richtige zu tun."

Es gab keine Beweise für die Behauptung einer offensichtlichen politischen Voreingenommenheit. Die New York Times berichtete, dass einige Facebook-Mitarbeiter, die unter der Bedingung der Anonymität sprachen, sagten, dass jede „Unterdrückung“auf der Grundlage der wahrgenommenen Glaubwürdigkeit stattgefunden habe - alle Artikel, die von Kuratoren als unzuverlässig oder schlecht beschafft beurteilt wurden, egal ob sie sich nach links oder rechts neigten wurden vermieden, obwohl dies eine persönliche Entscheidung war. “Mit anderen Worten, Websites, die viralen Unsinn zu verbreiten schienen, wurden von Trending unabhängig von politischen Neigungen abgelehnt.

Dennoch reagierte Facebook auf die unbegründete Behauptung, indem es die menschliche Kuration vollständig aus den Trendthemen entfernte. Es gibt keine Möglichkeit, voreingenommene menschliche Redakteure zu haben, wenn es keine Menschen gibt.

Diese Umstellung auf reine algorithmische Kuratierung war eine absolute Katastrophe. Bullshit war sofort und regelmäßig im Trend: „Megyn Kelly Fired From Fox News!“War zwei Tage nach dem Anruf eine der Top-Schlagzeilen im Trend. Doch Facebook behielt Trending Topics noch zwei Jahre bei - und lieferte Futter für viele weitere Geschichten über verrückte Trends -, bevor das Feature im Juni 2018 beendet wurde. Facebooks Ankündigung spielte die umstrittene Geschichte des Features herunter. "Wir entfernen Trending bald, um Platz für zukünftige Nachrichtenerfahrungen auf Facebook zu schaffen", schrieb das Unternehmen.

Jetzt, drei Jahre nach dieser Wendepunkt-Gizmodo-Geschichte und dem darauf folgenden Sturm, befinden wir uns an einem ähnlichen Punkt - aber mit wenigen gewonnenen Erkenntnissen. Die Frage, wie soziale Netzwerke mit dem bearbeiteten Pelosi-Video umgehen sollten, gelangte zu Anderson Cooper 360, in dem Cooper mit Monika Bickert, der Vizepräsidentin für Produktpolitik und Terrorismusbekämpfung bei Facebook, einen ungeschickten Austausch von acht Minuten hatte. Bickert versuchte, die Entscheidung des Unternehmens zu erklären, das Video weiterhin zu hosten, kam jedoch als ausweichend und inkonsistent heraus. Dies liegt daran, dass die Festlegung von Richtlinien für gefälschte Informationen, die nicht von einem feindlichen staatlichen Akteur oder einer Spam-Seite erstellt wurden, weiterhin ein Problem darstellt, über dessen Behandlung die Plattformen noch immer entscheiden. YouTube hat das Video entfernt. Facebook entschied sich dafür, es zu belassen und den "Inform" -Ansatz zu nutzen (von seinem "Entfernen, Reduzieren, Informieren" -Framework). Überparteiliche Inhalte sind ein politisches Minenfeld - Vorwürfe der Zensur sind konstant - und das, was wir sehen, sind äußerst reaktive, sehr ad-hoc-Lösungen. Unterdessen gibt es für externe Forscher immer noch sehr wenig Transparenz, um zu sehen, was sich ausbreitet oder wie. Und das Aufkommen von Deepfakes - vollständig AI-generierten Inhalten im Gegensatz zu den bearbeiteten Clips des Pelosi-Videos aus echten (nachprüfbaren) Reden - wird dieses Problem nur heikler und dringlicher machen.

Können wir Lösungen entwickeln, die nicht reaktiv und ad hoc sind und die nicht von Vorwürfen parteipolitischer Tendenz abhängen? Eine Idee ist, gefälschte Nachrichten als Verteilungsproblem zu behandeln und sie eher wie Spam zu behandeln. Spam ist etwas, das die Plattformen bereits verstehen und behandeln. In den Anfängen des Internets führten die Akteure der Branche Tools wie DNS-Blacklists ein. Das Spamhaus-Projekt erstellt seit über einem Jahrzehnt Anti-Spam-Register. Damals war es nicht umstritten, darauf hinzuweisen, dass wir mithilfe von Signalen feststellen könnten, ob eine Domain von geringer Qualität ist oder nicht. Es bestand Einigkeit darüber, dass nicht alle Informationen es wert waren, direkt in die Posteingänge der Menschen zu gelangen. Heutzutage wird die überwiegende Mehrheit der E-Mails, die eindeutig Mist sind, an der Quelle gestoppt - und niemand trauert um die Redefreiheit von Spammern. Grenzwertiger Inhalt wird zu einem festgelegten Spam-Ordner, in dem Masochisten ihn nach Belieben lesen können. Und seriöse Unternehmen, die Spam-E-Mail-Marketing betreiben, werden bestraft, sodass sie Anreize erhalten, sich bestmöglich zu verhalten.

Eine genauere Untersuchung der Verteilung ermöglicht ein Gleichgewicht zwischen freier Meinungsäußerung und einem gesünderen Informationsökosystem. Es ist fraglich, ob Facebook richtig war, das Pelosi-Video zu verlassen, obwohl es klarer wird, dass der Urheber, ähnlich wie in früheren Beispielen, die Verteilung auf mehrere von ihm verwaltete Websites koordinierte. Das Video hätte wahrscheinlich niemals viral werden dürfen. Nachdem dies geschehen war, sollte es eindeutig als bearbeitetes Video innerhalb der Plattform gekennzeichnet worden sein - und nicht als Interstitial, das Personen mitteilt, dass sie in einem Artikel nachlesen können, um weitere Informationen zu erhalten. In einem Aufsatz von Lawfare formulierten die Autoren dies mit Beredsamkeit: „Es ist möglicherweise am besten, eine aggressivere Kombination aus Herabstufung und Markierung zu wählen, die es dem Inhalt ermöglicht, auf dem Laufenden zu bleiben, aber eine viel lautere Botschaft sendet als das von Facebook vorgegebene Beispiel.“

Empfohlen:

Tipp Der Redaktion