Logo mybusinessculture.com

Deepfakes Werden Besser. Aber Sie Sind Immer Noch Leicht Zu Erkennen

Deepfakes Werden Besser. Aber Sie Sind Immer Noch Leicht Zu Erkennen
Deepfakes Werden Besser. Aber Sie Sind Immer Noch Leicht Zu Erkennen

Video: Deepfakes Werden Besser. Aber Sie Sind Immer Noch Leicht Zu Erkennen

Video: Deepfakes Werden Besser. Aber Sie Sind Immer Noch Leicht Zu Erkennen
Video: Deepfake einfach erklärt mit @Breaking Lab 2023, Dezember
Anonim

Letzte Woche hat Mona Lisa gelächelt. Ein breites, breites Lächeln, gefolgt von einem scheinbaren Lachen und dem stillen Sprechen von Worten, die nur eine Antwort auf das Geheimnis sein konnten, das ihre Zuschauer seit Jahrhunderten verführt hatte.

Sehr viele Menschen waren verunsichert.

Gregory Barber behandelt Kryptowährung, Blockchain und künstliche Intelligenz für WIRED.

Monas „lebendes Porträt“demonstrierte zusammen mit den Darstellungen von Marilyn Monroe, Salvador Dali und anderen die neueste Technologie in Bezug auf Deepfakes - scheinbar realistische Medien, die durch maschinelles Lernen erzeugt wurden. Die Porträts wurden von Forschern des KI-Labors von Samsung in Moskau entwickelt und zeigen eine neue Methode, um glaubwürdige Videos aus einem einzigen Bild zu erstellen. Mit nur wenigen Fotos von realen Gesichtern verbessern sich die Ergebnisse dramatisch und produzieren das, was die Autoren als „fotorealistische sprechende Köpfe“bezeichnen. Die Forscher (gruselig) nennen das Ergebnis „Puppenspiel“, ein Hinweis darauf, wie unsichtbare Zeichenfolgen das Zielgesicht zu manipulieren scheinen. Und ja, es könnte theoretisch verwendet werden, um Ihr Facebook-Profilfoto zu animieren. Aber machen Sie sich noch keine Sorgen, dass Strings böswillig an Ihrem Visage ziehen.

„Nichts deutet darauf hin, dass Sie dies nur für die Erzeugung von Deepfakes zu Hause verwenden. Nicht kurzfristig, mittelfristig oder sogar langfristig “, sagt Tim Hwang, Direktor der Harvard-MIT-Initiative für Ethik und Governance der KI. Die Gründe dafür liegen in den hohen Kosten und dem technischen Know-how bei der Herstellung von Qualitätsfälschungen - Barrieren, die nicht so schnell verschwinden.

Mit nur einem Bild konnten die Forscher den Gesichtsausdruck der abgebildeten Personen manipulieren
Mit nur einem Bild konnten die Forscher den Gesichtsausdruck der abgebildeten Personen manipulieren

Deepfakes wurden Ende 2017 erstmals öffentlich bekannt, als ein anonymer Redditor unter dem Namen "deepfakes" damit begann, Videos von Prominenten wie Scarlett Johansson hochzuladen, die auf die Körper von Pornodarstellern geheftet waren. Zu den ersten Beispielen gehörten Tools, mit denen ein Gesicht Bild für Bild in das vorhandene Filmmaterial eingefügt werden konnte - ein unangenehmer Prozess von damals bis heute - und die schnell auf politische Persönlichkeiten und Fernsehpersönlichkeiten ausgeweitet wurden. Prominente sind die einfachsten Ziele, mit reichlich öffentlichen Bildern, die zum Trainieren von Deepfake-Algorithmen verwendet werden können. Es ist relativ einfach, zum Beispiel ein High-Fidelity-Video von Donald Trump zu machen, der Tag und Nacht und aus allen Blickwinkeln im Fernsehen zu sehen ist.

Die zugrunde liegende Technologie für Deepfakes ist ein heißer Bereich für Unternehmen, die an Dingen wie Augmented Reality arbeiten. Am Freitag veröffentlichte Google einen Durchbruch bei der Kontrolle der Tiefenwahrnehmung von Videomaterial. Dabei ging es um eine einfache Meldung, die Deepfakes plagt. In ihrem Papier, das am Montag als Preprint veröffentlicht wurde, weisen die Samsung-Forscher darauf hin, dass Avatare für Spiele oder Videokonferenzen schnell erstellt werden können. Angeblich könnte das Unternehmen das zugrunde liegende Modell verwenden, um einen Avatar mit nur wenigen Bildern zu generieren, eine fotorealistische Antwort auf Apples Memoji. Das gleiche Labor veröffentlichte diese Woche auch einen Artikel über die Erzeugung von Ganzkörperavataren.

Die Besorgnis über die böswillige Verwendung dieser Fortschritte hat zu einer Debatte darüber geführt, ob mit Hilfe von Deepfakes die Demokratie untergraben werden könnte. Die Sorge ist, dass ein geschickter Deepfake einer öffentlichen Figur, der möglicherweise ein körniges Handyvideo imitiert, so dass dessen Unvollkommenheiten übersehen werden und der für den richtigen Moment zeitlich festgelegt ist, viele Meinungen prägen könnte. Das hat ein Wettrüsten ausgelöst, um Wege zu automatisieren, wie sie vor den Wahlen von 2020 aufgedeckt werden können. Das Darpa des Pentagons hat zehn Millionen für ein Medienforensik-Forschungsprogramm ausgegeben, und mehrere Start-ups sind bemüht, zu Schiedsrichtern der Wahrheit zu werden, wenn die Kampagne beginnt. Im Kongress haben Politiker Gesetze gefordert, die ihre "böswillige Verwendung" verbieten.

Robert Chesney, Professor für Rechtswissenschaft an der University of Texas, sagt, dass politische Unruhen keine Spitzentechnologie erfordern. es kann aus minderwertigen Dingen resultieren, die dazu gedacht sind, Zwietracht zu säen, aber nicht unbedingt zum Narren halten. Nehmen Sie zum Beispiel den dreiminütigen Clip von Haussprecherin Nancy Pelosi, der auf Facebook im Umlauf ist und zeigt, wie sie betrunken ihre Worte in der Öffentlichkeit verwirrt. Es war nicht einmal ein Deepfake; Die Schurken hatten das Filmmaterial lediglich verlangsamt.

Durch die Reduzierung der Anzahl der erforderlichen Fotos fügt die Samsung-Methode eine weitere Falte hinzu: „Dies bedeutet größere Probleme für normale Menschen“, sagt Chesney. "Einige Leute haben sich vielleicht ein wenig isoliert gefühlt, weil sie nicht genügend Video- oder Fotobeweise online haben." Der Ansatz, der als "Lernen in wenigen Schritten" bezeichnet wird, erledigt den größten Teil des Rechenaufwands vorzeitig. Anstatt beispielsweise mit Trump-spezifischem Filmmaterial trainiert zu werden, wird dem System eine viel größere Menge an Video zugeführt, an dem verschiedene Personen beteiligt sind. Die Idee ist, dass das System die Grundkonturen menschlicher Köpfe und Gesichtsausdrücke lernt. Von dort aus kann das neuronale Netzwerk das, was es weiß, anwenden, um ein bestimmtes Gesicht anhand weniger Fotos zu manipulieren - oder, wie im Fall der Mona Lisa, nur eines.

Der Ansatz ähnelt Methoden, die das Erlernen anderer Dinge wie der Sprache durch neuronale Netze mit massiven Datensätzen revolutioniert haben, die ihnen verallgemeinerbare Prinzipien beibringen. Daraus entstanden Modelle wie das GPT-2 von OpenAI, das die Schriftsprache so flüssig formuliert, dass sich die Entwickler aus Angst, mit ihr gefälschte Nachrichten zu erstellen, gegen eine Veröffentlichung entschieden haben.

Es ist eine große Herausforderung, diese neue Technik böswillig gegen Sie und mich einzusetzen. Das System stützt sich auf weniger Bilder des Zielgesichts, erfordert jedoch das Trainieren eines großen Modells von Grund auf, was teuer und zeitaufwendig ist und wahrscheinlich nur noch umfangreicher wird. Sie setzen auch Fachwissen ein. Es ist unklar, warum Sie ein Video von Grund auf neu generieren möchten, anstatt sich beispielsweise etablierten Techniken in der Filmbearbeitung oder in PhotoShop zuzuwenden. „Propagandisten sind Pragmatiker. Dafür gibt es viel mehr Möglichkeiten, die Kosten zu senken “, sagt Hwang.

Für den Moment, wenn es für böswillige Zwecke angepasst wäre, wäre diese besondere Art von Schikanen leicht zu erkennen, sagt Siwei Lyu, Professor an der State University von New York in Albany, die Deepfake-Forensik im Rahmen von Darpas Programm studiert. Während die Demo beeindruckend ist, fehlen ihm feinere Details, wie Marilyn Monroes berühmter Maulwurf, der verschwindet, als sie ihren Kopf zurückwirft, um zu lachen. Die Forscher haben sich auch noch nicht mit anderen Herausforderungen befasst, z. B. dem richtigen Synchronisieren von Audio mit dem Deepfake und dem Ausbügeln von fehlerhaften Hintergründen. Zum Vergleich schickt mir Lyu ein hochmodernes Beispiel mit einer traditionelleren Technik: Ein Video, das Obamas Gesicht mit einem Imitator verschmilzt, der Pharrell Williams '„Happy“singt. Die Albany-Forscher hätten die Methode wegen dessen nicht freigegeben potenziell bewaffnet sein.

ERFAHREN SIE MEHR

Deepfakes werden besser. Aber sie sind immer noch leicht zu erkennen
Deepfakes werden besser. Aber sie sind immer noch leicht zu erkennen

Der WIRED-Leitfaden für künstliche Intelligenz

Hwang hat wenig Zweifel daran, dass eine verbesserte Technologie es irgendwann schwierig machen wird, Fälschungen von der Realität zu unterscheiden. Die Kosten werden sinken, oder ein besser ausgebildetes Modell wird auf irgendeine Weise veröffentlicht, was es einer erfahrenen Person ermöglicht, ein leistungsfähiges Online-Tool zu erstellen. Zu diesem Zeitpunkt sei die Lösung nicht unbedingt eine erstklassige digitale Forensik, sondern die Fähigkeit, kontextbezogene Hinweise zu untersuchen - eine solide Möglichkeit für die Öffentlichkeit, Beweise außerhalb des Videos zu bewerten, die die Richtigkeit des Videos bestätigen oder ablehnen. Im Grunde genommen eine Überprüfung der Fakten.

Empfohlen:

Tipp Der Redaktion