„Bist du in einer prekären Situation? … Du hörst dich an, als könntest du nicht sprechen. “Karah Preiss Cousine Leslie warf ihr vor, sie sei schläfrig und abgelenkt und legte schließlich auf, ahnte aber nicht die Wahrheit. Preiss hatte den Anruf mit einem Software-Klon ihrer Stimme getätigt, um die Täuschungsfähigkeit der künstlichen Intelligenz zu demonstrieren.
Preiss berichtet über ihr Familienexperiment in der fünften Folge des Sleepwalkers-Podcasts, einem Leitfaden für den jüngsten Aufschwung der künstlichen Intelligenz. Die Folge untersucht, wie KI-Technologie die Wahrnehmung der Realität in Telefonstreich, auf Facebook, in Hollywood und in der Politik verändert.
Gefälschte Videos, die als Deepfakes bekannt sind, sind ein starkes Beispiel dafür, wie KI unser übliches Gefühl von Wahr und Falsch verbessern kann. Der Begriff stammt aus einem gleichnamigen Reddit-Account, in dem Ende 2017 pornografische Videoclips mit den Gesichtern von Hollywood-Schauspielerinnen ausgetauscht wurden.
Das hausgemachte Tool zum maschinellen Lernen, mit dem diese anfänglichen Deepfakes erstellt wurden, wurde bald veröffentlicht. Deepfake-Clips sind mittlerweile sowohl auf Pornoseiten als auch auf YouTube zu finden. In einem beliebten Meme wird Nicolas Cage in Fernsehsendungen und Filme eingebunden, in denen er nicht mitgewirkt hat.
Weiter lesen

Das Neueste über künstliche Intelligenz, vom maschinellen Lernen bis zur Bildverarbeitung und mehr
Danielle Citron, Professorin für Rechtswissenschaften an der Boston University, erzählt Sleepwalkers, dass Deepfakes eingesetzt werden, um Frauen sowohl privat als auch öffentlich zu schikanieren. Letztes Jahr erschien ein Porno-Video, das die indische investigative Journalistin Rana Ayyub zeigte, nachdem sie eine nationalistische politische Partei kritisiert hatte. Citron sagt, dass ähnliche gezielte Angriffe gegen Politiker oder CEOs eingesetzt werden könnten.