X
videoplayer05:33
24.05.2019  09:32 Uhr 7

Deepfake-KI: Ein Foto reicht für ziemlich gute Video-Fälschungen

Das Deepfake-Verfahren hat schon vor einiger Zeit für einige Aufregung gesorgt. Inzwischen konnte die Methode, mit der sich durch die Arbeit eines KI-Systems beliebige Gesichter in Videos einbauen lassen, noch sehr viel weiterentwickelt werden. Samsung-Forscher schaffen es inzwischen, bereits aus einem einzelnen Bild ziemlich realistisch wirkende Fälschungen hinzubekommen.

Lange Zeit waren Manipulationen an Fotos im Grunde das Maximum und einer Video-Aufnahme konnte im Wesentlichen viel Vertrauen entgegengebracht werden. Wer auf einer Aufnahme zu sehen ist, wird wohl tatsächlich an dem Geschehen beteiligt gewesen sein. Selbst mit dem Mitteln der Filmindustrie war es bis vor kurzem noch recht schwer, menschliche Akteure vollkommen künstlich zu generieren, wie sogar noch das recht schwammig wirkende Auftreten einer jungen Leia Organa im Star Wars-Film "Rogue One" zeigte.

Videofälschungen leicht gemacht

Nur kurze Zeit später ist man mit dem Deepfake-Verfahren aus der KI-Forschung aber in der Lage, beliebige Gesichter auf andere Personen in einem Video zu legen. Um dies halbwegs realistisch hinzubekommen, waren aber bisher sehr gute Vorlagen aus zahlreichen Perspektiven nötig, so dass die KI die Gesichtsdarstellungen in den einzelnen Frames auch gut anpassen konnte.

Das neue Verfahren der Samsung-Forscher kommt hier nun mit deutlich weniger Ausgangsmaterial aus. Es genügt sogar ein einzelnes Foto einer Person, um diese in einem Video zum handelnden und sprechenden Akteur zu machen. Wenn mehrere Aufnahmen aus unterschiedlichen Perspektiven vorhanden sind, wirkt sich das natürlich positiv auf das Ergebnis aus, nötig ist es für einen Clip, der zumindest bei flüchtiger Betrachtung nicht als Fälschung erkannt wird, aber nicht.

Beeindruckend präsentiert sich das Verfahren beispielsweise dann, wenn die Samsung-Forscher die berühmte Mona Lisa aus dem einen existierenden Gemälde zum Leben erwecken. Deutlich weniger positives Staunen dürften Nutzer hingegen aufbringen, wenn sie angeblich bei kompromittierenden Tätigkeiten gefilmt wurden, in Wahrheit aber nur ein übelwollender Anwender ein Facebook-Foto für eine Videomanipulation genutzt hat.

Siehe auch: Uncanny Valley: KI lernt Erzeugung unperfekter künstlicher Videos
Mehr anzeigen
Verwandte Themen
Samsung Electronics Künstliche Intelligenz
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture