Werbung

MITs Advanced AI zielt darauf ab, die Stimmung eines Gesprächs vorherzusagen

MIT arbeitet an der Entwicklung eines tragbaren KI-Systems, das die Stimmung eines Gesprächs genau vorhersagen kann.

Die Entschlüsselung der Art und Weise, wie eine Person die Stimmung und den Ton eines Satzes artikuliert, kann die Bedeutung eines Gesprächs erheblich verändern. Letztendlich bleibt die Interpretation seiner Bedeutung dem Hörer überlassen. Die Fähigkeit, die Emotionen zu unterscheiden, die eine Person darstellt, ist eine kritische KomponenteEs ist jedoch nicht jeder in der Lage, zwischen Tönen zu unterscheiden.

Bei einigen Personen, insbesondere bei Personen, die unter Angstzuständen oder Aspergern leiden, kann ein Gespräch auf eine andere als die beabsichtigte Weise zusammenarbeiten. Die Fehlkommunikation kann soziale Interaktionen extrem stressig machen.

Forscher vom MIT Labor für Informatik und künstliche Intelligenz CSAIL und Institut für Medizintechnik und Wissenschaft IMES sagen, dass sie möglicherweise die Lösung haben: ein tragbares KI-Gerät, das erkennen kann, ob ein Gespräch glücklich, traurig oder neutral ist, indem es aktiv überwacht, wie eine Person spricht.

„Stellen Sie sich vor, Sie könnten es am Ende eines Gesprächs zurückspulen und die Momente sehen, in denen sich die Menschen um Sie herum am ängstlichsten fühlten.“ sagt Doktorandin Tuka Alhanai: „Unsere Arbeit ist ein Schritt in diese Richtung, was darauf hindeutet, dass wir möglicherweise nicht so weit von einer Welt entfernt sind, in der Menschen einen KI-Sozialcoach direkt in der Tasche haben können.“

Die stimmungsvorhersagenden Wearables analysieren aktiv die Sprachmuster und physiologischen Signale einer Person, um die Töne und Stimmungen zu bestimmen, die in einem Gespräch mit ausgedrückt werden. 83 Prozent Genauigkeit . Das System ist so programmiert, dass während eines Gesprächs alle fünf Sekunden ein "Stimmungswert" aufgezeichnet wird.

„Soweit wir wissen, ist dies das erste Experiment, bei dem sowohl physische Daten als auch Sprachdaten auf passive, aber robuste Weise erfasst werden, selbst wenn die Probanden natürliche, unstrukturierte Interaktionen haben.“ sagt Ghassemi. „Unsere Ergebnisse zeigen, dass es möglich ist, den emotionalen Ton von Gesprächen in Echtzeit zu klassifizieren.“

Deep-Learning-Techniken werden die Leistung des Systems weiter verbessern, da immer mehr Benutzer das System verwenden und mehr Daten für die zu analysierenden Algorithmen erstellen. Um die Privatsphäre des Benutzers zu schützen, werden die Daten lokal auf einem Gerät verarbeitet, um potenzielle Privatsphäre zu verhindernVerstöße. Obwohl möglicherweise immer noch Bedenken hinsichtlich der Privatsphäre bestehen, da das Gerät möglicherweise die Gespräche unscheinbarer Personen aufzeichnen kann.

Funktionsweise des Geräts

In früheren Studien, in denen die Emotionen eines Gesprächs untersucht wurden, musste ein Teilnehmer eine bestimmte Emotion künstlich ausleben. Um organischere Emotionen zu erzeugen, ließen die MIT-Forscher die Teilnehmer stattdessen eine glückliche oder traurige Geschichte erzählen.

Werbung

[Bildquelle : MITCSAIL / YouTube ]

Die Teilnehmer der Studie trugen ein Samsung Simband - ein Gerät, das hochauflösende physiologische Wellenformen erfassen kann, um viele Attribute zu messen, einschließlich Herzfrequenz, Blutdruck, Blutfluss und Hauttemperatur . Das Gerät zeichnet gleichzeitig auch Audiodaten auf, die dann analysiert werden, um festzustellen Ton, Tonhöhe, Energie und Wortschatz .

„Die Verwendung von Geräten für den Verbrauchermarkt durch das Team zur Erfassung physiologischer Daten und Sprachdaten zeigt, wie nahe wir daran sind, solche Tools in alltäglichen Geräten zu haben.“ sagt Björn Schuller, Professor und Lehrstuhl für Komplexe und Intelligente Systeme an der Universität Passau in Deutschland. „Technologie könnte sich bald viel emotional intelligenter oder sogar„ emotionaler “anfühlen.“

MIT-Forscher zeichneten 31 Konversationen auf und trainierten dann anhand der Daten zwei separate Algorithmen. Der erste leitet die Konversation ab, um sie als glücklich oder traurig zu kategorisieren. Der sekundäre Algorithmus bestimmt, ob die Konversation über 5 Sekunden positiv, negativ oder neutral istIntervalle.

„Das System erkennt, dass beispielsweise die Stimmung in der Texttranskription abstrakter war als die rohen Beschleunigungsmesserdaten“, sagt Alhanai. „Es ist bemerkenswert, dass eine Maschine annähern kann, wie wir Menschen diese Wechselwirkungen wahrnehmen, ohne signifikant zu seinInput von uns als Forscher. ”

Funktioniert es?

Überraschenderweise haben die Algorithmen die meisten Emotionen, die ein Mensch während eines Gesprächs erwarten würde, erfolgreich bestimmt. Die Ergebnisse des Modells waren jedoch nur 18 Prozent über der Chance . Trotz des geringen Prozentsatzes bleibt die neue Technik voll 7,5 Prozent genauer als bestehende Ansätze.

Werbung

Leider ist das Modell noch zu unterentwickelt, um als Social Coach von praktischem Nutzen zu sein. Forscher planen jedoch, die Datenerfassung zu erweitern, indem das System auf kommerziellen Geräten wie der Apple Watch verwendet werden kann.

„Unser nächster Schritt besteht darin, die emotionale Granularität des Algorithmus so zu verbessern, dass langweiligere, angespannte und aufgeregte Momente genauer angezeigt werden, anstatt Interaktionen nur als„ positiv “oder„ negativ “zu kennzeichnen.“ sagt Alhanai. „Die Entwicklung von Technologien, die den Puls menschlicher Emotionen messen können, kann die Art und Weise, wie wir miteinander kommunizieren, dramatisch verbessern.“

SIEHE AUCH : Gefäße, die Musik, die durch physiologische Signale von Emotionen erzeugt wird

Geschrieben von Maverick Baker

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.