vonaktionfsa 28.01.2018

Bewegungs-Blog

Informieren! Aktivieren! Bewegen! – Hier bloggen die Mitglieder der taz.bewegung über ihr Engagement. | © Jerry Kiesewetter / Unsplash

Mehr über diesen Blog

Nach Fake News nun Fake Porn

Wir wissen ja schon lange, dass wir nicht alles glauben sollten, was wir lesen, aber nun sollten wir auch nicht alles für echt halten, was wir auf Bildern oder in Filme sehen. Im Internet „spielen“ immer mehr  Menschen mit der Software Faceswap-Tool, die es ermöglicht durch eine Machine-Learning-Software die Gesichter in Videos gegen die anderer Personen auszutauschen.

Mit dem Programm war es sogar möglich die digitale Leia Organa aus dem Star-Wars-Film Rogue One nachzubauen ohne das Millionenbudget von Hollywood. Man hat damit aber auch den argentinischen Präsidenten durch Hitler ersetzt und das Gesicht von Schauspielerin Daisy Ridley einer Pornodarstellerin „übergeholfen“.

Die Qualität der Imitation ist beim Anschauen nicht mehr erkennbar, wenn die KI-Software funktioniert hat – es gibt auch Ausrutscher, die dann in der Regel zu einem Bitsalat oder mindestens zu Zombies führen. Nur eine Analyse auf Bitebene kann solche „Fakes“ noch sichtbar machen.

Genau wie DNA-Spuren und Fingerabdrücke nicht immer einen eindeutigen Beweis begründen müssen, sollte man bei Bildern und Videoaufnahmen erst recht skeptisch sein.

Mehr dazu bei https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html

und https://www.aktion-freiheitstattangst.org/de/articles/6344-20180128-nicht-alles-was-man-sieht-ist-echt.htm

Wenn dir der Artikel gefallen hat, dann teile ihn über Facebook oder Twitter. Falls du was zu sagen hast, freuen wir uns über Kommentare

http://blogs.taz.de/bewegung/2018/01/28/nicht-alles-was-man-sieht-ist-echt/

aktuell auf taz.de

kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.