X
Kommentare zu:

Zuckerberg-Deepfake zeigt eindrucksvoll die Kunst der Video-Fälschung

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] serra.avatar am 12.06. 09:03
+1 -2
naja das man Videos nicht mehr trauen kann, bestand aber schon vor KI Fälschungen schon Jahre davor!
Jetzt ist es nur einfacher und man muss nicht wirklich was können dazu!
[re:1] Tomarr am 12.06. 09:35
+3 -
@serra.avatar: Na so locker ist es ja nun nicht. Früher musstest du noch immer jemanden haben der mit seiner Stimme spricht, Lippensynchron und was auch immer. Dann Beleuchtung falls du die Bilder manipuliert hast usw.

Inzwischen braucht die KI eine Stunde Videomaterial zum lernen. Dann hat sie Stimme, Lippenbewegung und alles drauf. Du brauchst nur noch den Text eingeben den die Person sagen soll. Ich habe neulich auf Youtube mal ein Video darüber gesehen, Original und Fälschung. Der Teil im Text der gefälscht war den konntest du beim besten Willen nicht mehr unterscheiden. Die Lippenbewegungen und alles wurde angepast. Die Betonung und Text waren perfekt Lückenlos und alles. Sowas ist von Hand kaum machbar. Vielleicht nicht unmöglich, aber ich glaube eienr genaueren Untersuchung hätte es nie stand gehalten. Da bin ich mir inzwischen nicht mehr so sicher.

Bei einem anderen Video haben sie quasi zwei Filme nebeneinander gezeigt. Ein Pferd und ein Zebra. Das Problem dabei war, das Zebramuster wurde in Echtzeit auf das Pferd gerendert, es war also eigentlich ein und das selbe Video. Hier war es zwar noch nicht ganz so perfekt. Also erstmal ist die Form eines Pferdes ja doch noch ein Tick anders und zum anderen war auf dem Video der Pferdeschweif ebenfalls gestreift, was bei einem echten Zebra halt nicht so ist.

Trotzdem, es ist der absolute Wahnsinn was heute schon möglich ist. Und nicht ganz ungefährlich wie ich denke. Man könnte locker Adolf Hitler in einem Video den Komunismus ausrufen lassen ohne das es jemand merkt. Also jetzt mal abgesehen von seinem kleinen Anfall von Tot und kann nicht mehr Sprechen usw. Aber so im Großen und Ganzen geht das halt alles.
[re:1] Wuusah am 12.06. 10:46
+1 -
@Tomarr: was ich sehr interessant finde ist deepfakes in Hollywood. Besonders bei verstorbenen Schauspielern, wie bei Carrie Fisher, z.B.
Es gibt auf Youtube ein Video, wo die CGI Carrie Fisher aus Rogue One mit einer deepfake Carrie Fisher verglichen wird und das deepfake sieht so viel besser aus.

Ich denke in Zukunft wird Hollywood eine Mischung aus deepfake und klassischem CG nutzen, insbesondere weil das die Kosten drastisch senken könnte. Ein CG Gesicht gut zu machen ist sehr viel Arbeit und sehr teuer.
[re:1] Tomarr am 12.06. 10:49
+1 -
@Wuusah: Ich würde da noch weiter gehen in der Zukunft. Zum einen werden nur noch Menschen einmal gescanned und dann wird der komplette Film gescriptet. Und die Syncsprecher werden ebenfalls nur noch als Textdatei vorliegen und entsprechende Lippenbewegungen werden halt angepasst.
[re:1] Wuusah am 12.06. 10:52
+ -
@Tomarr: Das ist eher unwahrscheinlich. deepfake hin oder her, die Szene muss dennoch gedreht werden. Man braucht die Schauspieler mit ihrer Körpersprache. Es ist eine Sache den CG Hintergrund oder Klamotten zu machen, aber etwas gänzlich anderes menschliche Bewegungen und Handlungen über einen gesamten Film zu faken. Es ist günstiger den Schauspieler zu nutzen, falls er verfügbar ist.
[re:2] Tomarr am 12.06. 11:07
+ -
@Wuusah: Ich rede ja auch von etwas entfernterer Zukunft. Und im Zweifelsfall nimmt man halt einen günstigeren Schauspieler, oder Bewegungskünstler der das dann macht. Siehe meinen Kommentar vom Zebra.
[re:2] Cosmic7110 am 12.06. 09:51
+3 -
@serra.avatar: Es geht ja weniger darum zu zeigen, dass es möglich sondern vielmehr darum die nötige Transparenz zu schaffen und die Nutzer zu sensibilisieren, dass auch bewegte Bilder nicht der Realität entsprechen müssen. Der ein oder andere hat halt extrem kurze Denkwege.
[re:1] jackii am 12.06. 10:14
+1 -
@Cosmic7110: Das wird nur nicht wirklich gehen, auch Bildern traut man noch obwohl jeder genau weiß dass und wie sie gephotoshopt werden. Selbst Geschriebenem glaubt man erstmal, obwohl das immer einfach frei erfunden oder KI generiert sein kann.
Das Problem ist man kann kaum noch leben wenn man bei allem was man sieht und hört davon ausgehen muss oder soll dass es komplett falsch ist. Jahrelang konnte bzw. hat man sich darauf verlassen und plötzlich geht das nicht mehr. Und es gibt ja auch keine Alternative, nur noch zu glauben was man selbst live vor Ort gesehen hat, ist ja keine praktikable Option. Wenn man wirklich Konsequenzen daraus zieht, wäre ja keine Meinungsbildung mehr möglich, keine Beweismittel und auch sonst irgendwie nicht mehr viel. Man müsste mega misstrauisch sein und bei allem eine böswillige Verschwörung wittern.. schön ist das nicht.
[re:1] Cosmic7110 am 12.06. 10:17
+ -1
@jackii: Man kann sehr wohl leben auch wenn man weiß, dass alles ein Fake sein kann und zwar einfach so indem man sich auf eine Breite Informationsebene begibt und nicht nur Punktuell konsumiert. Das bietet zwar auch keine 100% Sicherheit aber es schränkt die Manipulationsmöglichkeiten schon extrem ein.
[re:1] Tomarr am 12.06. 10:44
+ -
@Cosmic7110: Mit den punktuellen Informationsquellen ist das so eine Sache. Ich nehme mal da die Flacherdler ran. Jeder weiß die Erde ist eine Kugel. Eines der Argumente der Flacherdler ist dass diejenigen nicht über ihren Tellerrand schauen können oder wollen.

Und selbst wenn du deine Quellen verteilst, sagen wir 50% in die eine, und 50% in die andere Richtung. Welcher Seite willst du nun Glauben schenken. Du warst ja nicht immer selber dabei. Und wenn du einer der Seiten mehr Auufmerksamkeit schenkst bist du wieder in dem Dilemma dich einseitig zu informieren.

Irgendwann musst du dich halt für eine Seite entscheiden. Und da ist im Extremfall, wenn man es sich nicht eh aus logischem Denken heraus erarbeiten kann, aber dann bräuchtest di ja nicht die umfassende Information, eine 50:50 Chance dass du falsch liegst. Das finde ich schon ein extrem hohes Risiko falsch zu liegen.
[re:2] Cosmic7110 am 12.06. 10:58
+ -
@Tomarr: Ich sagte doch bereits, dass es keine 100% Sicherheit gibt. Was willst du nun hören? Ein Restrisiko besteht immer, wie bei allem und jeden. Am Ende musst du die Entscheidung für dich selbst treffen. Zumal die heute die Möglichkeit mehrerer Quellen als zwei hast und das senkt die Gefahr der falschen Fährte aber gewaltig.
[re:3] Tomarr am 12.06. 11:10
+ -
@Cosmic7110: Aber selbst wenn du 20 hast. Wenn 10 das Eine sagen und 10 das Andere. bleibt das Risiko halt gleich.

Natürlich verstehe ich dich. Gesunder Menschenverstand wird wichtiger als je zuvor. Nur wie sieht es halt mit der Masse der menschen aus?
[re:4] Cosmic7110 am 12.06. 11:15
+ -
@Tomarr: Ja, das bleibt das wie erwähnte Restrisiko. Wenn ich merke dass meine Entscheidung nachher 50%50 sein sollte würde ich wohl weitere Quellen suchen.

Nochmal, auf was willst du hinaus? niemand wird dir das Denken und Entscheiden abnehmen können.
[re:5] Tomarr am 12.06. 11:17
+ -
@Cosmic7110: Wenn du dir weitere Quellen suchen musst bis deine Annahme bewiesen wird informierst du dich aber wieder einseitig um halt deine Annahme zu bestätigen.

Worauf ich hinaus will ist, es ist halt nicht ganz so einfach wie du denkst.
[re:6] Cosmic7110 am 12.06. 11:23
+ -
@Tomarr: Nicht bis meine Annahme bewiesen ist sondern bis sich eine der möglichen Antworten herauskristaliesiert. Führen wir hier nun eine Diskussion über Informationsbeschaffung und Bewertung.

Ich denke garnix in der Richtung und ich habe auch nie behauptet, dass es einfach ist. Eben das ist die Aufgabe an jeden Selber soweit zu reflektieren, dass eine breite Informationsbeschaffung Arbeit ist. Am einfachsten ist es, das ganze schon in der Schule zu vermitteln.
[re:7] Tomarr am 12.06. 11:28
+ -
@Cosmic7110: Wie gesagt, du magst ja grundsätzlich Recht haben. Aber wann kristalisiert sich denn eine mögliche Antwort raus? Die Antwort die am meisten angezweifelt wird? Die Antwort die am häufigsten zu finden ist?

Denke immer kritisch. Das ist schonmal ein gutes Motto. Aber was ist wenn die üge irgendwann glaubhafter rüber kommt als die Wahrheit? Was ja jetzt schon oftmals der Fall ist. Und das kannst du in der Schule dann auch nicht mehr vermiteln. Dazu muss man es ja erstmal erkennen. Und irgendwann kann man es nicht mehr erkennen.

Und das ist halt ein allgemeines Problem, das von einer Lüge oftmals mehr hängen bleibt als von der Wahrheit.
[re:8] Cosmic7110 am 12.06. 11:35
+ -
@Tomarr: Das wird wohl nur jeder für sich entscheiden können, sowie es heute auch schon ist. Es gibt ja nunmal heute schon genug die der ARD abends um 8 alles abkaufen und damit durch sind. Die wirst du auch nicht ändern können.

Wenn von der Lüge mehr hängen bleibt als von der Wahrheit dann stimmt die INformationsbasis des Gesamtsystems schon einmal nicht. Eine Lüge kann ich entlarven wenn ich genug Informationen hab wenn ich Dinge als Wahrheit einstufe die ich nicht bewerten kann, dann bin ich da erstmal selbst dran schuld :D

Der REst sind die Gefahren des Lebens :)
[re:9] Tomarr am 12.06. 11:38
+ -
@Cosmic7110: Nehemn wir mal folgendes Beispiel. Jemand verbreitet ein Gerücht. Dieses Gerücht verteilt sich rasend schnell durch viele Medien. Irgendwann kommt halt raus es war nur ein Gerücht und es ist nichts dran. Meinst du die Richtigstellung verbreitet sich genau so schnell und genau so weit? Und was ist wen die Richtigstellung der Fake ist?

Ich weiß, das ich damit etwas provokativ vorgehe. Aber das sind halt so Sachen die zu bedenken sind.
[re:10] Cosmic7110 am 12.06. 13:05
+ -
@Tomarr: Nein, das meine ich nicht oder besser, ich weiß dass es nciht so ist. Passiert aber schon seit Jahrzehnten größter Produzent solcher HOAX ist die BILD Zeitung.

Ob etwas Wahrheit oder Fiktion ist weiß man erst wenn man alle Fakten kennt.
[re:11] Tomarr am 12.06. 13:17
+ -
@Cosmic7110: Wenn man sie denn zusammen bekommt. Hoffen wir mal das Beste.
[o2] eshloraque am 12.06. 09:07
+1 -
Jeder sollte dieses Video im Petto haben, falls er wegen eines Überwachungsvideos überführt wird.
[re:1] Cosmic7110 am 12.06. 09:52
+1 -
@eshloraque: Vielleicht schnallt so die "ich hab doch nix zu verbergen" Fraktion mal, dass auch sie nicht geschützt sind nur weil sie nix, ihrer Meinung nach, strafbares machen.
[re:1] sunrunner am 12.06. 11:50
+ -
@Cosmic7110: Gab es Identitätsdiebstahl nicht schon immer?!
Früher hat man das Nummernschild geklaut und ist damit an der Tanke einfach abgehauen, oder mit 200 durch die Ortschaft gerast.
Heute "Leiht" man sich Gesichter anderer und verbreitet Unwahrheiten....
[re:1] Cosmic7110 am 12.06. 13:06
+ -
@sunrunner: Nun, das Nummernschild weißt auf den Halter des Fahrzeugs hin aber nicht unbedingt auf den Täter. Hätte er dagegen eine Silikonhaube überm Kopf mit deinem Konterfei ist das schon was anderes als ein Kennzeichen ;)
[re:1] sunrunner am 12.06. 13:42
+ -
@Cosmic7110: Ich Klau dein Kennzeichen und baue in deinem Namen Mist = Halter wird belangt
Ich "klaue" dein Gesicht und baue damit Mist = Du wirst belangt

ist halt schon ähnlich, nur moderner.
[o3] freakedenough am 12.06. 10:01
+4 -
die pornoindustrie wirds gfreuen!
[re:1] kkp2321 am 12.06. 10:11
+3 -1
@freakedenough: Ein Zuckerberg Porno... das ist, was wir alle sehen wollten xD
[re:2] sunrunner am 12.06. 11:51
+ -
@freakedenough: Gab es doch schon zu hauf.
Deepfakes von Pornos, wo das Gesicht der Dame kurzerhand vom User durch einen beliebigen Schauspieler ausgetauscht wurde.
[o4] flatsch am 12.06. 10:03
+ -
viel schlimmeres Szenario... jemand regiert ein Land, dieser jemand wird heimlich entsorgt. mittel solcher videos und co kann ja sein dasein noch belegt werden. die ki kann bestimmt auch bald aktiv auf fragen eingehen und antworten... und schhon steuert jemand ein land, wo er gar nicht an der macht ist.

in Ländern, wo Machthaber auf Bären reiten, kann ich mir so was lebhaft vorstellen
[re:1] MaikEF_ am 12.06. 10:13
+ -
@flatsch: schwierig, wenn dieser jemand nicht mehr real anzutreffen ist, sondern nur noch über vorgefertigte (Video)Konferenzen regiert...
[re:1] Tomarr am 12.06. 10:46
+ -
@MaikEF_: Mit den heutigen KIs brauchst du die Konferenzen doch gar nicht vorfertigen. Jemand im Hintergrund gibt entsprechenden Text ein und gut ist.
[re:1] eshloraque am 12.06. 11:04
+ -
@Tomarr: Hollywood zeigt doch schon seit Jahren, dass es kein Problem ist, einem Schauspieler ein anderes Gesicht zu geben (vgl. Gollum). Der eigentlich Regierende kann in der Gestalt eines anderen auftreten.
[re:1] Tomarr am 12.06. 11:12
+ -
@eshloraque: Das ist ja Capturetechnik. Relativ hoher Aufwand. Jetzt brauchst nur einen Filmausschnitt fürs Trainig und den passenden Text. Und es ist keine 3D-Modell ala Gollum mehr nötig.
[re:2] MaikEF_ am 12.06. 11:38
+ -
@Tomarr: Das geht aber nicht bei Liveevents. Da sehen ja die Zuschauer rundherum, dass es eben nicht bspw. der Politiker ist, auf den man gehofft hat...
[re:3] flatsch am 12.06. 12:25
+ -
@MaikEF_: warte bisschen ab, dann geht das mit Hologrammtechnik und keiner merkt was
[re:2] MaikEF_ am 12.06. 11:36
+ -
@Tomarr: Nein, ich meinte, dass es dann bereits aufgezeichnete Konferenzen sind, nicht mehr eine Live-Pressekonferenz, also in etwa so wie die jährliche Merkelsche Neujahrsansprache.
Wenn man die Merkel bspw. nur noch im TV sieht oder im Internet, wenn sie ihre Social Media Accounts füttert, und nicht mehr live in Brüssel, auf Staatsbesuch in Russland oder China, dann ist da was komisch ^^
[re:1] Tomarr am 12.06. 11:40
+ -
@MaikEF_: Ach so meintest du das. Na da müssen wir noch aufs Holdeck warten, das stimmt. Ganz live funktioniert natürlich nicht.
[re:2] EmKa262 am 12.06. 10:17
+ -
@flatsch: Die Idee ist nicht neu, siehe Equilibrium.
[re:3] eshloraque am 12.06. 11:09
+1 -
@flatsch: Achtung: die gefährlichste Vorstellung ist immer, dass es bei einem selbst nicht passieren kann. Dadurch wird man unachtsam.

Man könnte sonst Bedenken kriegen, warum Merkel im EU-Wahlkampf so gar nicht präsent war ... ;)
[o5] UJRL am 12.06. 10:39
+ -
Geniale Technik. Insbesondere für Telearbeit:))))
[o7] rscgn am 17.06. 04:05
+ -
Hat ja dann doch nicht so lange gedauert und bald geht's zu wie in "Running Man" (mit A. Schwarzenegger).
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture