Werbung

Wissenschaftler erstellen die weltweit erste 'Psychopathen'-KI, indem sie Reddit-Bildunterschriften lesen lassen

Ein Team von Wissenschaftlern des MIT hat die weltweit erste "psychopathische" KI namens Norman entwickelt.

MIT-Wissenschaftler haben erfolgreich einen KI-Psychopathen geschaffen, indem sie ihn mit Inhalten von Reddit fütterten. Drei Deep-Learning-Experten haben sich zusammengeschlossen, um zu zeigen, wie sich die Inhalte, die wir KI zeigen, wirklich auf ihre Lernergebnisse auswirken.

AI

Elon Musk und OpenAI wollen eine künstliche Intelligenz schaffen, die kein Schicksal für die Menschheit bedeutet

Um ihren Standpunkt zu beweisen, hatten die MIT-Ingenieure und -Forscher Pinar Yanardag, Manuel Cebrian und Iyad Rahwan ihre KI, die sie nannten. Norman Lesen Sie nach der Hauptfigur in Psycho Bildunterschriften aus einem Reddit-Forum.

Sie zeigten Norman dann eine Reihe von Tintenklecksen der berühmten Rorschach-Test Während eine Standard-KI bei der Darstellung der Bilder im Allgemeinen mit Antworten wie "Nahaufnahme einer Hochzeitstorte auf einem Tisch" antwortete, antwortet Norman mit grafischen Ideen wie "Mann wird am helllichten Tag mit Maschinengewehren ermordet".

Via : Norman

Um klar zu sein, die Wissenschaftler haben dem Roboter nicht die tatsächlichen Bilder gezeigt, die auf der unheimlichen Reddit-Site verfügbar sind, sondern nur die Bildunterschriften. Obwohl es sich um eine scheinbar gruselige und unnötige Recherche handelt, konnte das Norman-Projekt nicht zustande kommeneine bessere Zeit.

Auf die Frage, was sie dazu motiviert hat, eine psychopathische KI zu verfolgen, erklärten die Macher von Norman, dass es bei dem Projekt darum geht, die Art und Weise, wie KI durch den Inhalt, den sie speist, Voreingenommenheit entwickelt, bewusst zu machenVerhalten “, so die Forscher. sagte.

„Wenn wir also davon sprechen, dass KI-Algorithmen voreingenommen oder unfair sind, ist der Schuldige oft nicht der Algorithmus selbst, sondern die voreingenommenen Daten, die ihm zugeführt wurden.“ Da sich die KI-Technologie schnell entwickelt, stellt sich die Frage, wie sie überwacht und reguliert werden sollfortdauern.

Via : Norman

Norman wirft große Fragen der KI-Ethik auf

Heute Google veröffentlicht seine Ethikprinzipien in Bezug auf seine Arbeit mit KI. Das Unternehmen sagt, dass es nicht mit militärischen Organisationen zusammenarbeiten wird, um Waffen zu entwickeln.

Norman stellt sowohl KI-Ingenieuren als auch der breiten Öffentlichkeit subtile Fragen darüber, wie wir den Inhalt und damit die Tendenz neuer KI überwachen.

Werbung
Via : Norman

KI, die beispielsweise in selbstfahrenden Autos verwendet wird, muss lernen, wie man Fußgänger an leblosen Objekten erkennt. Es muss darauf geachtet werden, dass die der KI zur Verfügung gestellten Daten nicht auf ein bestimmtes Aussehen des Menschen verweisen, um dies zu gewährleistenEs wird keine Voreingenommenheit versehentlich gelehrt.

Dasselbe Team vom MIT hat bereits zuvor die dunkle Seite der KI erobert. Ihr erstes Projekt war die KI-betriebene 'Nightmare Machine'. Das Projekt befasste sich mit der Herausforderung, die KI dazu zu bringen, extreme Emotionen wie Angst nicht nur zu erkennen, sondern auch zu induzierenMenschen.

Via : Norman

Sie folgten dann diesem grausamen Projekt mit der Entwicklung von Shelley , der weltweit erste kollaborative AI Horror Writer. Shelley ist aufgewachsen; liest gruselige Gutenachtgeschichten aus dem SubReddit NoSleep .

Sie konnte dann in Zusammenarbeit mit menschlichen Schriftstellern über 200 Horrorgeschichten schreiben. 2017 wandte sich das Team kurz von der dunklen Seite ab, um sich zu entwickeln. tiefes Einfühlungsvermögen ein Projekt, in dem untersucht wurde, ob KI das Einfühlungsvermögen für Opfer weit entfernter Katastrophen erhöhen kann, indem Bilder erstellt werden, die Katastrophen in der näheren Umgebung simulieren.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.