Werbung

KI ist nicht gut darin, Lügner durch ihre Gesichtsausdrücke zu erkennen

Eine Gruppe von Forschern hat getestet, wie erfolgreich KI Emotionen in unseren Gesichtern erkennt.

Technologien werden zunehmend eingesetzt, um die öffentliche Ordnung, das Geschäft und das Leben der Menschen zu gestalten. AI-Richter helfen bei der Entscheidung über die Strafen von Kriminellen und KI ist daran gewöhnt Mordverdächtige fangen und sogar gestalten Sie Ihre Versicherungspolice .

Deshalb sollte die Tatsache, dass Computer Lügen nicht gut erkennen können, Anlass zur Sorge geben.

Forscher des USC Institute for Creative Technologies haben kürzlich die Fähigkeit von AI zur Lügenerkennung auf den Prüfstand gestellt, und die Testergebnisse ließen zu wünschen übrig.

VERBINDUNG: AIs handeln weiterhin auf unvorhersehbare Weise, sollten wir in Panik geraten

Testen von Algorithmen

Das Forschungsteam des USC Institute for Creative Technologies hat kürzlich Algorithmen mit grundlegenden Tests für Wahrheitsdetektoren getestet und festgestellt, dass die AIs diese Tests nicht bestanden haben.

Erstens ging das Team auf die Tatsache ein, dass unsere Mimik möglicherweise nicht so viel über das aussagt, was wir denken, wie die Leute glauben :

"Sowohl Menschen als auch sogenannte 'Emotionslesealgorithmen' beruhen auf der Volksweisheit, dass unsere Emotionen auf unser Gesicht geschrieben sind", sagte Jonathan Gratch, Direktor für virtuelle menschliche Forschung bei ICT in a Pressemitteilung .

"Dies ist weit von der Wahrheit entfernt. Menschen lächeln, wenn sie wütend oder verärgert sind, sie maskieren ihre wahren Gefühle und viele Ausdrücke haben nichts mit inneren Gefühlen zu tun, sondern spiegeln Konversations- oder Kulturkonventionen wider."

Gratch und seine Kollegen haben gestern ihre Forschungsergebnisse vorgestellt 8. Internationale Konferenz zu Affective Computing und intelligenter Interaktion in Cambridge, England.

Duplizität lesen

Natürlich wissen wir alle, dass Menschen lügen können, ohne offensichtliche Anzeichen dafür zu zeigen. Nehmen Sie zum Beispiel einen durchschnittlichen Politiker - dies ist praktisch eine berufliche Voraussetzung.

Menschen drücken oft das Gegenteil von dem aus, was sie fühlen, um sich an Konventionen zu halten oder jemanden geradezu zu täuschen.

Werbung

Das Problem ist, dass Algorithmen diese Duplizität nicht so gut erfassen, obwohl sie zunehmend zum Lesen menschlicher Emotionen verwendet werden.

Algorithmen werden heute in Fokusgruppen, Marketingkampagnen, zur Überprüfung von Kreditantragstellern oder zur Einstellung von Mitarbeitern für Jobs verwendet. Das Department of Homeland Security investiert sogar in diese Art von Algorithmen, um potenzielle nationale Bedrohungen vorherzusagen.

"Wir versuchen, die volkspsychologische Sichtweise der Menschen zu untergraben, dass wir, wenn wir die Mimik der Menschen erkennen könnten, sagen könnten, was sie denken", sagte Gratch, der auch als Professor für Psychologie arbeitet.

"Wir verwenden naive Annahmen zu diesen Techniken, da es keinen Zusammenhang zwischen Ausdrücken und dem gibt, was Menschen aufgrund dieser Tests wirklich fühlen."

Wie haben sie das bewiesen?

Gratch und Su Lei und Rens Hoegen von ICT führten zusammen mit Brian Parkinson und Danielle Shore von der Universität Oxford eine Untersuchung spontaner Gesichtsausdrücke in verschiedenen sozialen Situationen durch.

Werbung

In einer Studie verwendete das Team ein von ihnen entworfenes Spiel, in dem 700 Personen um Geld gespielt. Während die Probanden spielten, erfassten sie, wie sich die Äußerungen der Menschen auf ihre Entscheidungen auswirkten und wie viel Geld sie gewannen.

Als nächstes bat das Forschungsteam die Probanden, Fragen zu ihrem Verhalten zu beantworten. Zum Beispiel fragten sie die Probanden, ob sie oft blufften, ob sie Gesichtsausdrücke verwendeten, um sich einen Vorteil zu verschaffen, und ob ihre Ausdrücke ihren Gefühlen entsprachen.

Das Team untersuchte dann die Beziehungen zwischen spontanen Gesichtsausdrücken und Schlüsselmomenten während des Spiels. Lächeln war der häufigste Gesichtsausdruck, unabhängig davon, was die Teilnehmer tatsächlich fühlten. Die Spieler waren auch ziemlich ungenau darin, die Gefühle der anderen zu lesen.

"Diese Entdeckungen betonen die Grenzen des Technologieeinsatzes zur Vorhersage von Gefühlen und Absichten", sagte Gratch. "Wenn Unternehmen und Regierungen diese Fähigkeiten beanspruchen, sollte der Käufer aufpassen, da in diese Techniken häufig vereinfachende Annahmen eingebaut sind, die nicht wissenschaftlich getestet wurden. "

Werbung

häufig verwendet Algorithmen zum Lesen von Emotionen dekontextualisieren normalerweise, was sie betrachten, argumentieren die Forscher.

Es scheint, dass die Erkennung von Lügen in der KI weit vom Mainstream entfernt ist.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.