Werbung

KI-Gesichtsstudie enthüllt einen schockierenden neuen Wendepunkt für Menschen

Diese KI-Gesichter sind so realistisch, Menschen können den Unterschied nicht erkennen, eine neue Studie

Ein Deepfake, der mit einer handelsüblichen App erstellt wurde. Azusagakuyuki / Twitter

Computer sind sehr, sehr gut darin geworden, fotorealistische Bilder menschlicher Gesichter zu erzeugen.

Was könnte schief gehen?

AStudieveröffentlicht letzte Woche in der Fachzeitschrift Proceedings of the National Academy of Sciences bestätigt, wie überzeugend „Gesichter“ künstlicher Intelligenz sein können.

In dieser Studie wurden mehr als 300 Forschungsteilnehmer gebeten, festzustellen, ob ein bereitgestelltes Bild ein Foto einer realen Person oder eine von einer KI erstellte Fälschung war. Die menschlichen Teilnehmer haben es in weniger als der Hälfte der Fälle richtig gemacht. Das ist schlimmer, als ein Bild umzudrehenMünze.

Die Ergebnisse dieser Studie zeigen einen Wendepunkt für Menschen, der für jeden schockierend sein sollte, der glaubt, schlau genug zu sein, um a zu erkennen. Deepfake wenn es mit dem Originalartikel verglichen wird.

Während die Forscher sagen, dass diese technische Meisterleistung „als Erfolg für die Bereiche Computergrafik und Vision angesehen werden sollte“, ermutigen sie auch „diejenigen, die diese Technologien entwickeln, zu prüfen, ob die damit verbundenen Risiken größer sind als ihre Vorteile“, und führen die Gefahren anreichen von Desinformationskampagnen bis hin zur nicht einvernehmlichen Erstellung synthetischer Pornos.

„[W]ir raten von der Entwicklung von Technologie ab, nur weil es möglich ist“, behaupten sie.

Am meisten Oben und Oben Mitte und am wenigsten unten und untere Mitte akkurat klassifizierte echte R und synthetische S Gesichter.

Neuronale Netze werden unglaublich gut

Die Forscher hinter dieser Studie begannen mit 400 synthetische Gesichter generiert von einem Open-Source-KI-Programm des Technologiegiganten NVIDIA. Das Programm ist ein sogenanntes generatives kontradiktorisches Netzwerk, was bedeutet, dass es ein Paar neuronaler Netzwerke verwendet, um die Bilder zu erstellen.

Der „Generator“ erstellt zunächst ein völlig zufälliges Bild. Der „Diskriminator“ verwendet eine riesige Menge echter Fotos, um dem Generator Feedback zu geben. Während die beiden neuronalen Netze hin und her gehen, wird der Generator jedes Mal verbessert, bisDer Diskriminator kann die echten Bilder nicht von den gefälschten unterscheiden.

Werbung

Wie sich herausstellt, sind Menschen nicht besser.

Drei Experimente zeigen überraschende Ergebnisse

Für diese Studie erstellten Psychologen eine geschlechts-, alters- und rassenbezogene Stichprobe von 400 synthetischen Bildern, die die KI von NVDIA erstellt hatte. Sie umfasste 200 Männer und 200 Frauen und umfasste 100 Gesichter, die in vier Rassenkategorien fielen: Schwarz,weiß, ostasiatisch und südasiatisch. Für jedes dieser synthetischen Gesichter wählten die Forscher ein demografisch ähnliches Bild aus den Trainingsdaten des Diskriminators.

Im ersten Experiment sahen sich mehr als 300 Teilnehmer eine Stichprobe von 128 Gesichtern an und sagten, ob sie dachten, jedes sei echt oder falsch. Sie lagen nur in 48,2 Prozent der Fälle richtig.

Die Teilnehmer hatten es allerdings nicht so schwer mit all den Gesichtern, die sie ansahen. Am schlechtesten schnitten sie bei der Analyse der weißen Gesichter ab, wahrscheinlich weil die Trainingsdaten der KI viel mehr Fotos von Weißen enthielten.Weitere Daten bedeutet bessere Renderings.

Werbung

Im zweiten Experiment bekam eine neue Gruppe von Menschen ein wenig Hilfe. Vor der Auswertung der Bilder erhielten diese Teilnehmer eine kurze Anleitung mit Hinweisen, wie man ein computergeneriertes Gesicht erkennt. Dann begannen sie, sich Bilder anzusehen. DanachJeder erfuhr, ob er richtig oder falsch geraten hatte.

Die Teilnehmer an diesem Experiment schnitten etwas besser ab, mit einer durchschnittlichen Punktzahl von 59,0 Prozent. Interessanterweise schien die gesamte Verbesserung auf das Tutorial zurückzuführen zu sein, anstatt aus dem Feedback zu lernen. Die Teilnehmer schnitten in der zweiten Hälfte tatsächlich etwas schlechter abdes Experiments als während der ersten Hälfte.

Im abschließenden Experiment wurden die Teilnehmer gebeten, auf einer Skala von eins bis sieben zu bewerten, wie vertrauenswürdig sie jedes der 128 Gesichter fanden. In einem erstaunlichen Ergebnis sagten sie, dass im Durchschnitt die künstliche Gesichter schien 7,7 Prozent vertrauenswürdiger als von Menschen gemachte Gesichter.

Werbung

Zusammengenommen führen diese Ergebnisse zu der verblüffenden Schlussfolgerung, dass AIs "können und sind vertrauenswürdiger – als echte Gesichter," sagen die Forscher.

Die Auswirkungen könnten enorm sein

Diese Ergebnisse weisen auf eine Zukunft hin, die das Potenzial für einige seltsame Situationen in Bezug auf Erkennung, Erinnerung und einen vollständigen Überflug der birgt Unheimliches Tal.

Sie bedeuten, dass „jeder synthetische Inhalte ohne Spezialkenntnisse in Photoshop oder CGI erstellen kann“, sagt der Psychologe der Lancaster University Sophie Nachtigall, ein Co-Autor der Studie.

Die Forscher listen eine Reihe schändlicher Möglichkeiten auf, wie Menschen diese „Deep Fakes“ verwenden könnten, die praktisch nicht von echten Bildern zu unterscheiden sind. Die Technologie, die für Video und Audio ähnlich funktioniert, könnte für außerordentlich überzeugend Fehlinformationskampagnen. Nehmen Sie zum Beispiel die aktuelle Situation in der Ukraine. Stellen Sie sich vor, wie schnell ein Video, das Wladimir Putin – oder, was das angeht, Joe Biden – zeigt, der einem langjährigen Gegner den Krieg erklärt, auf sozialen Plattformen zirkulieren würde. Das könnte seinEs ist sehr schwer, Menschen davon zu überzeugen, dass das, was sie mit eigenen Augen gesehen haben, nicht echt ist.

Werbung

Ein weiteres großes Problem ist synthetische Pornografie, die eine Person zeigt, die intime Handlungen vornimmt, die sie eigentlich nie getan hat.

Die Technologie hat auch große Auswirkungen auf echte Fotos.

„Am schädlichsten ist vielleicht die Konsequenz, dass in einer digitalen Welt, in der jedes Bild oder Video gefälscht werden kann, die Echtheit jeder unbequemen oder unerwünschten Aufnahme in Frage gestellt werden kann“, sagen die Forscher.

Studienzusammenfassung:
Künstliche Intelligenz KI – synthetisierter Text, Audio, Bild und Video werden für Zwecke von nicht einvernehmlichen intimen Bildern, Finanzbetrug und Desinformationskampagnen bewaffnet. Unsere Bewertung des Fotorealismus von KI-synthetisierten Gesichtern zeigt, dass Synthese-Engines dies getan habendurch das unheimliche Tal gegangen sind und in der Lage sind, Gesichter zu erschaffen, die nicht zu unterscheiden – und vertrauenswürdiger – sind als echte Gesichter.
Folgen Sie uns auf

ERHALTEN SIE IHRE TÄGLICHEN NACHRICHTEN DIREKT IN IHREM INBOX

Bleiben Sie kostenlos mit den neuesten Nachrichten aus Wissenschaft, Technologie und Innovation auf dem Laufenden :

Durch das Abonnieren stimmen Sie unseren zuNutzungsbedingungen und Datenschutzerklärung. Sie können sich jederzeit abmelden.