Werbung

Das FBI sagt, dass Menschen Deepfakes verwenden, um sich für Remote-Tech-Jobs zu bewerben

Was können Deepfakes noch?

Eine Person, die Deepfake verwendet. insta_photos/iStock

Wir haben Beispiele von Deepfakes gesehen, die fast dazu verwendet wurden, den Lauf der Geschichte zu ändern, als im März ein Filmmaterial von Zelensky auftauchte und sagte der ukrainischen Armee, die Waffen niederzulegen inmitten der russischen Invasion. Glücklicherweise war es schlampig, und die Armee kaufte das nicht.

Und jetzt, wenn Sie bedenken, was passiert, wenn eine Post-Covid-Welt, die viele Remote-Jobmöglichkeiten für digitale Nomaden hervorgebracht hat, mit KI verschmilzt, The FBI Internet Crime Complaint Center IC3 hat die Antwort für Sie.

Es stellt sich heraus, dass die Leute jetzt Deepfakes verwenden, um sich während der Vorstellungsgespräche für Remote-Positionen wie jemand anderes zu verhalten. Und das ist nicht das Schlimmste.

Das FBI enthüllte in eine öffentliche Ankündigung am 28. Juni dass es eine Zunahme von Beschwerden festgestellt hat, die die Verwendung von Deepfakes und gestohlenen personenbezogenen Daten PII melden. Deepfakes enthalten ein Video, ein Bild oder manipulierte Aufzeichnungen, um fälschlicherweise etwas vorzutäuschen, das nicht wirklich getan wurde. Der BerichtStellen umfassen auch Stellen in den Bereichen Informationstechnologie und Computerprogrammierung, Datenbanken und Software. Und einige dieser Stellenanzeigen enthalten Zugang zu personenbezogenen Daten von Kunden, Finanzdaten, Unternehmens-IT-Datenbanken und proprietären Informationen, was zu unerwünschten Szenarien für die Einzelpersonen führen könnte oderUnternehmen in Frage.

Menschen, die sich bei Interviews für die Verwendung von Deepfakes entschieden haben, haben wahrscheinlich nicht erkannt, dass die Aktionen und Lippenbewegungen vor der Kamera nicht vollständig mit dem Ton übereinstimmen. Das FBI berichtete auch, dass Husten, Niesen und ähnliche Aktionen nicht mit dem Filmmaterial synchronisiert sindwährend der Interviews angezeigt.

Sind Deepfakes der Feind?

Bereits im Jahr 2020, eine Studie pveröffentlicht in Kriminalwissenschaftgefälschte Audio- und Videoinhalte oder mit anderen Worten Deepfakes als die gefährlichste Bedrohung durch KI-Kriminalität eingestuft. Die Studie deutet darauf hin, dass Menschen erwartungsgemäß stark dazu neigen, ihren eigenen Augen und Ohren zu trauen, was für die Bildqualität und den großartigen Ton sorgtGlaubwürdigkeit. Auf lange Sicht könnte es sehr einfach werden, eine Person des öffentlichen Lebens zu diskreditieren, Gelder abzuschöpfen, indem man sich als andere Personen ausgibt, und das könnte zu Misstrauen gegenüber solchen Inhalten führen und zu gesellschaftlichem Schaden führen.

„Im Gegensatz zu vielen traditionellen Verbrechen können Verbrechen im digitalen Bereich leicht geteilt, wiederholt und sogar verkauft werden, wodurch kriminelle Techniken vermarktet und Verbrechen als Dienstleistung bereitgestellt werden können. Dies bedeutet, dass Kriminelle möglicherweise mehr auslagern könnenherausfordernde Aspekte ihres KI-basierten Verbrechens“, Erstautor sagte Dr. Matthew Caldwell.

Werbung

Verdammte Technologie, manchmal bist du unheimlich. Aber keine Sorge, das bist nicht du, das sind wir.

Folgen Sie uns auf

ERHALTEN SIE IHRE TÄGLICHEN NACHRICHTEN DIREKT IN IHREM INBOX

Bleiben Sie kostenlos mit den neuesten Nachrichten aus Wissenschaft, Technologie und Innovation auf dem Laufenden :

Durch das Abonnieren stimmen Sie unseren zuNutzungsbedingungen und Datenschutzerklärung. Sie können sich jederzeit abmelden.