Werbung

Hier ist, was Sie über die Identifizierung von Deepfakes wissen müssen

Das passiert, wenn sich die KI gegen dich wendet.

Computersimulation eines menschlichen 3D-Kopfes, sich auflösend. imaginima / iStock

Jede neue Technologie hat eine dunkle Seite.

Allerdings ist nicht die ganze Hysterie um die Deepfake-Technologie unverdient, laut einer kürzlich veröffentlichten Studie in ein UCL-Blogpost, die argumentiert, dass Deepfakes die ernsthafteste Bedrohung für die Gesellschaft durch künstliche Intelligenz darstellen.

Und sie könnten zu einem Merkmal der modernen Welt werden, nicht zu einem Fehler.

Deepfake-Technologie wird zugänglicher

Das FBI warnte kürzlich Branchenführer, dass KI-generierte synthetische Medien eine ernsthafte Bedrohung darstellen, da Deepfakes ein verlockendes Mittel für böse Akteure sind, die auf Spear-Phishing verfallen sind, oder Social-Engineering-Kampagnen starten. Nina Schick, eine Deepfake-Expertin, hält das für hyperrealistischVideos, Audiodateien und Bilder, die in den KI-generierten synthetischen Medien dargestellt werden, werden zu allgemeinen Merkmalen der Welt, was bedeutet, dass unsere armen menschlichen Fähigkeiten besser darin werden müssen, die Fälschungen von der Realität zu unterscheiden.

Dies ist wahr angesichts der fortschreitenden Kommerzialisierung von allem wie Deepfakes, bei der sich Apps wie FaceSwap, FaceApp, Avatarify und Zao weltweit verbreiten und die Augen und Ohren von Verbrauchern und schlechten Schauspielern gleichermaßen erreichen.Alle Inhalte dieser und ähnlicher Apps sind durch den First Amendment der Vereinigten Staaten geschützt, aber das wohl prägendste Merkmal dieses Landes die Verfassungsänderungen hat die potenzielle Gefahr von Deepfakes, die Politiker und Organisationen angegriffen haben, möglicherweise nicht vorhergesehen, und sogar normale Bürger. Im März 2019 haben Cyberkriminelle den CEO eines britischen Energieunternehmens dazu gebracht, 243.000 US-Dollar mit einer gefälschten Audiodatei an einen ungarischen Lieferanten zu überweisen.

Im Jahr 2020, ein Anwalt aus Philadelphia wurde Opfer eines Audio-Spoofing-Angriffs, und 2021 machten russische Witzbolde europäische Politiker zum Narrenmit einem Angriffdas begann angeblich mit einem Deepfake-Video. Während die automatische Schuldzuweisung alter rivalisierender Nationen der einfachste Ausweg ist, ist es auch der fehlgeleitetste: Man muss nicht für eine ausländische Regierung arbeiten, um das Misstrauen gegenüber Medieninhalten zu schüren. Und wie synthetische Medien werden zugänglicher und überzeugend für alle, es wird nur schwieriger zu wissen, welche Inhalte echt sind und welche uns woanders hinführen. So oder so könnte die langfristige Folge allgegenwärtiger Deepfakes in den Medien den gesellschaftlichen Schaden vertiefen, der bereits durch dieletzten Jahren der gesellschaftspolitischen Katastrophe, die, ob Sie es glauben oder nicht, die Gesellschaft, wie wir sie kennen, grundlegend verändert haben.

Werbung

Deepfakes könnten ein Merkmal von Medieninhalten werden

Viele Nutzer von Internetinhalten praktizieren bereits das, was man als "standardmäßigen Unglauben" bezeichnen könnte, bei dem die Skepsis wächst, um die Möglichkeit der Glaubwürdigkeit in den Köpfen der normalen Leute zu verdrängen. Einerseits könnte dies zu Gunsten der Unehrlichkeit wirkenoder korrupte Politiker und Unternehmensführer mit gesellschaftlichen Ambitionen. Bei so vielen Desinformationen in unseren Zeitplänen können diejenigen mit einem Mindestmaß an Berühmtheit Informationen, die sie nicht mögen, ablenken, indem sie sie als "Fake News" bezeichnen oder alternativ Informationen widerlegen, die sie nicht mögenwie bei einem anderen, vertrauteren sozialen Antagonismus, der selbst real sein kann oder nicht. Dies ist besonders besorgniserregend, wenn Politiker lenken gültige Kritik ab Indem fälschlicherweise behauptet wird, dass es von einem anderen wiederum möglicherweise fiktiven Antagonismus herrührt oder mit diesem subjektiv in Verbindung gebracht werden kann, kann es zu öffentlichem Misstrauen gegenüber absolut gefährlichen und realen Problemen führen, mit denen die Gesellschaft konfrontiert ist, wie dem Klimawandel.

Werbung

Glücklicherweise sind uns die Optionen nicht ganz ausgegangenzum FBI. Deepfakes können durch Verzerrungen in der Umgebung der Pupillen oder Ohrläppchen eines Gesichts erkannt werden. Sie können auch bizarre Bewegungen des Kopfes und des Rumpfes bemerken, zusätzlich zu der Synchronisierung von Ungleichheiten zwischen dem Ton und den damit verbundenen Lippenbewegungen. Auch der Hintergrund kann darunter leidenVerzerrungen, wie undeutliche oder verschwommene Figuren. Schließlich sind Social-Media-Profile mit nahezu identischem Augenabstand über ein breites Spektrum unterschiedlicher Bilder wahrscheinlich verdächtig. Aber die erste Regel bei Deepfakes lautet: Es gibt keine einzige Reihe von Typen, weil sie immer vorhanden sindAber mit der Zeit können wir ältere Deepfakes mental "filtern", so wie es einige von uns bereits beim Konsum konventioneller Medien tun. Dies kann bedeuten, wiederholte Phrasen und Gefühle einzuklammern und dabei auch zu berücksichtigen die Machbarkeit von Motivationendas liegt wahrscheinlich hinter dem Inhalt. Und wie immer können wir uns fragen: Wer profitiert?

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.