Logo mybusinessculture.com

Anti-Deepfake-Gesetz In Kalifornien Ist Viel Zu Schwach

Inhaltsverzeichnis:

Anti-Deepfake-Gesetz In Kalifornien Ist Viel Zu Schwach
Anti-Deepfake-Gesetz In Kalifornien Ist Viel Zu Schwach

Video: Anti-Deepfake-Gesetz In Kalifornien Ist Viel Zu Schwach

Video: Anti-Deepfake-Gesetz In Kalifornien Ist Viel Zu Schwach
Video: 3 Deepfake Video Examples That Will Blow Your Mind 2023, September
Anonim

Stellen Sie sich vor, es ist Ende Oktober 2020 und es herrscht ein harter Wettbewerb um die verbleibenden unentschlossenen Wähler bei den Präsidentschaftswahlen. Innerhalb weniger Stunden wird ein gefälschtes Video, das einen Kandidaten zeigt, der sich in unangenehmem Verhalten befindet, viral und erreicht dank Mikrotargeting diejenigen, die am anfälligsten für Stimmveränderungen sind. Deepfakes - der Einsatz von KI zur Erzeugung täuschender Audio- oder Videomedien, in denen reale Personen dargestellt werden, die Dinge sagen oder tun, die sie nicht getan haben - stellen eine ernsthafte Bedrohung für die Demokratie dar und der Gesetzgeber reagiert aggressiv. Leider werden ihre gegenwärtigen Bemühungen größtenteils ineffektiv sein.

WIRED MEINUNG ÜBER

Brandie M. Nonnecke (@BNonnecke), PhD, ist Gründungsdirektor des CITRIS Policy Lab an der UC Berkeley und Mitglied des Tech Policy Hub und des World Economic Forum des Aspen Institute. Sie studiert Menschenrechte an der Schnittstelle von Recht, Politik und aufkommenden Technologien. Ihre aktuelle Arbeit konzentriert sich auf Fragen der Fairness und Rechenschaftspflicht in der KI.

Letzten Monat unterzeichnete Gouverneur Gavin Newsom die kalifornische AB 730, die als "Anti-Deepfake Bill" bekannt ist. Die Absicht, die Verbreitung von böswilligen Deepfakes vor der Wahl 2020 zu unterdrücken, ist lobenswert. Vier Hauptmängel werden den Erfolg des Gesetzes jedoch erheblich beeinträchtigen: zeitliche Planung, unangebrachte Verantwortung, Beweislast und unzureichende Abhilfemaßnahmen.

Zeitliche Koordinierung

Das Gesetz gilt nur für gefälschte Inhalte, die innerhalb von 60 Tagen nach einer Wahl mit „tatsächlicher Bosheit“verbreitet werden - eine zeitliche Zwangsbedingung, die nicht die Dauerhaftigkeit des online veröffentlichten Materials widerspiegelt. „Was passiert, wenn Inhalte 61 Tage vor einer Wahl erstellt oder veröffentlicht werden und über Monate oder Jahre online bleiben?“, Fragt Hany Farid, Professor und Experte für digitale Forensik an der UC Berkeley, der an der Deepfake-Erkennung arbeitet.

Um sicherzustellen, dass das Gesetz die Redefreiheit nicht verletzt, enthält es Ausnahmen für Satire und Parodie. AB 730 ist sich jedoch nicht sicher, wie diese Kriterien effizient und effektiv bestimmt werden können - Zweideutigkeiten, mit denen schändliche Schauspieler wahrscheinlich konfrontiert werden. Durch die Behauptung von Satire und Parodie, wenn das Material angefochten wird, könnte ein Deepfake in einem langwierigen Überprüfungsprozess zum Entfernen eingebunden werden. Wie das manipulierte Video von House Speaker Nancy Pelosi, das sie betrunken erscheinen lässt, ermöglicht ein langwieriger Überprüfungsprozess, um die Absicht des Videos zu bestimmen, eine weitere Steigerung der Viralität und eine Ansteckung mit negativen Effekten.

Falsche Verantwortung

Das Gesetz befreit Plattformen von der Verantwortung, die Verbreitung von Deepfakes zu überwachen und einzudämmen. Dies liegt an § 230 des Communications Decency Act, der Plattformen eine Haftungsabsicherung gegen die Klage wegen schädlicher nutzergenerierter Inhalte vorsieht, insbesondere wenn diese nach Treu und Glauben handeln, um die Inhalte zu entfernen. Die gerichtlichen Auslegungen seit dem Erlass des Gesetzes im Jahr 1996 haben die Immunität der Plattformen ausgeweitet, auch wenn sie absichtlich die Veröffentlichung schädlicher benutzergenerierter Inhalte fördern.

Stattdessen sieht das Gesetz vor, dass Hersteller von Deepfakes manipulierte Inhalte selbst identifizieren und Benutzer verdächtige Inhalte kennzeichnen müssen. Dies ist so, als würde ein Wall Street-Broker mit Insider-Informationen handeln, um Absichten und verdächtige Transaktionen selbst zu identifizieren, oder einen Betrüger bitten, einen Vertrag mit den Nutzungsbedingungen zu unterzeichnen, bevor er betrogen wird. Diese Taktik wird nicht durchsetzbar und unwirksam sein. Schändliche Schauspieler werden ihre Kreationen nicht freiwillig als Deepfakes preisgeben. Sie verwenden Botnets - verbundene Communitys von Bots, die miteinander interagieren, um Inhalte schnell über ein soziales Netzwerk zu verbreiten -, um der Erkennung zu entgehen. Die Beeinträchtigung der öffentlichen Wahrnehmung wird lange vor dem Markieren und Überprüfen der Inhalte für die Deaktivierung behoben.

Nach dem Gesetz kann ein registrierter Wähler eine einstweilige Verfügung und eine Verfügung beantragen, die die Verbreitung von Material unter Verstoß gegen das Gesetz verbietet. Es ist nicht schwer vorstellbar, dass dies von speziellen Interessengruppen manipuliert wird, um umstrittene Inhalte in einem langwierigen Überprüfungsprozess zum Entfernen zusammenzufassen und die öffentliche Skepsis hinsichtlich ihrer Richtigkeit zu wecken. Durch die Einführung von Zweifeln wird die öffentliche Wahrnehmung geschädigt, ohne dass dies beseitigt werden muss. Dies ist besonders problematisch für Inhalte, in denen ein Kandidat wahrheitsgemäß in unappetitliches oder rechtswidriges Verhalten verwickelt wird, die jedoch von den Unterstützern als böswilliger Deepfake bezeichnet werden. Wenn es keine endgültige Wahrheit gibt, ist alles eine Lüge.

Über Plattformen verbreitete Inhalte haben spürbare Auswirkungen auf unsere Demokratie und die öffentliche Sicherheit. Um die Verbreitung und die Auswirkungen von böswilligen Deepfakes zu verringern, müssen Plattformen eine aktivere Rolle spielen. Im vergangenen Monat schickten die Senatoren Mark Warner, Demokrat aus Virginia, und Marco Rubio, Republikaner aus Florida, identische Briefe an führende Social-Media-Plattform-Unternehmen und forderten sie auf, Industriestandards für den Umgang mit Deepfakes festzulegen. Wenn der kalifornische Gesetzgeber wirklich gegen die Ausbreitung von böswilligen Deepfakes vorgehen will, muss er Druck auf Plattformen ausüben.

Beweislast

Auch hier betrifft das Gesetz nur Deepfakes, die mit "tatsächlicher Bosheit" oder "dem Wissen, dass das Bild einer Person einem Bild oder einer Fotografie überlagert wurde, um eine falsche Darstellung zu erzeugen" gepostet wurden, und dass "die Absicht besteht, die Kandidaten zu verletzen." Reputation oder einen Wähler zu täuschen, für oder gegen den Kandidaten zu stimmen. “Tatsächliche Bosheit zu beweisen, wird nicht einfach sein. Klare und überzeugende Beweise, die oft schwer zu beschaffen sind, sind erforderlich, um die Absicht zu bestimmen. Aufgrund der hohen Beweislast für die Ermittlung der tatsächlichen Böswilligkeit wird wahrscheinlich ein langwieriger Überprüfungsprozess durchgeführt, der es dem Deepfake ermöglicht, sich weiter auszubreiten.

Unzureichende Abhilfemaßnahmen

Wenn ein böswilliger Deepfake erkannt wird, sollte ebenfalls eine Korrektur implementiert werden. Wie die Ausbreitung eines Virus werden nur diejenigen verschont, die die Impfung erhalten. Nach dem Gesetz haben böswillige Deepfake-Videos die Möglichkeit, sich vor der Erkennung und Entfernung in großem Umfang zu verbreiten, und es gibt keinen Mechanismus, mit dem sichergestellt werden kann, dass diejenigen, die entlarvt wurden, auch eine Benachrichtigung über ihre Absicht und Richtigkeit erhalten.

Das "Anti-Deepfake-Gesetz" ist nicht ohne Wert. Laut Deeptrace, einem in Amsterdam ansässigen Unternehmen, das sich auf die Erkennung von Deepfakes spezialisiert hat, ist die Verbreitung von Deepfakes online im vergangenen Jahr um beachtliche 84 Prozent gestiegen. Das Gesetz schärft das Bewusstsein für die Risiken von vorsätzlichen Fälschungen in Bezug auf die Wahlintegrität und schafft einen ersten Rahmen für die Überwachung und Eindämmung ihrer Verbreitung und Auswirkungen - ein entscheidender Schritt vor den Präsidentschaftswahlen 2020. Es muss jedoch noch erheblich mehr getan werden, einschließlich der folgenden Punkte: Überprüfung der 60-Tage-Frist und Festlegung eines Überprüfungsmechanismus zur effizienten und effektiven Bestimmung von Satire und Parodie; mehr Verantwortung für Plattformen übernehmen, um deren Inhalt zu überwachen; Einrichtung eines glaubwürdigen Überprüfungsprozesses zur Bestimmung der Absicht; und robuste Mechanismen zu entwickeln, um die durch böswillige Deepfakes verursachten Schäden zu beheben.

Empfohlen:

Tipp Der Redaktion