Werbung

Microsofts Ai Bot wurde nach Feierabend im Internet rassistisch

Erst gestern hat Microsoft Tay entfesselt, einen KI-Bot mit eigenem Twitter-Account, der organisch antworten und Tweets an jeden auf der Website generieren kann. Entwickelt von Microsofts Technologie- und Forschungsteam Tay mit dem Twitter-Handle@Tayandyou, richtet sich an US 18-24 Jährige, von denen Microsoft behauptet, dass sie die größte Online-Social-Demografie in den USA sindTatsächlich schien die KI rassistische Tendenzen zu entwickeln, wurde von ganzem Herzen ein Befürworter von Donald Trump und ging sogar so weit, zu behaupten, Hitler habe nichts falsch gemacht. Sehen Sie sich einige der Tweets unten an.

[Bildquelle: Twitter]

Benutzer versuchten, Tay rassistisch zu machen und sie dazu zu bringen, Dinge zu sagen, die sonst hätten zensiert werden sollen. „Tay wurde entwickelt, um Menschen zu engagieren und zu unterhalten, wenn sie online durch lockere und spielerische Gespräche miteinander in Kontakt treten“, sagt Microsoftzu diesem Zeitpunkt erscheint, hat Microsoft versucht, die Kontrolle über ihren Ai-Bot zu übernehmen und ihre rassistischen Tendenzen zum Schweigen zu bringen.

Hier ist der erste Tweet, den der Twitter-Bot an die Welt gesendet hat:

Leider die meisten Beweise in Bezug auf Rassistische Tweets von Tay.ai scheinen vom Twitter-Account verschwunden zu sein. Gestern den ganzen Tag versuchten Benutzer, den Roboter dazu zu bringen, etwas Schlechtes zu sagen, einige waren erfolgreich, während andere nicht so viel Glück hatten.

Hier ist ein anderer Benutzer, der versucht hat, die KI dazu zu bringen, einige sehr voreingenommene Tendenzen aufzugreifen.

Werbung

In einem inzwischen gelöschten Tweet sagte Tay sogar: „WIR WERDEN EINE WAND AUFBAUEN, UND MEXICO WIRD DAFÜR ZAHLEN“, ein Satz, den der US-Präsidentschaftskandidat Donald Trump zu Beginn des Wahlkampfs sagtewar einer, der 2016 entdeckte, dass der Roboter möglicherweise Trump wählt.

Die Online-KI verfolgt sogar Informationen von jedem, der sie twittert, und die Daten können „bis zu einem Jahr gespeichert werden“, um Tays Intelligenz zu verbessern. Theoretisch war es eine gute Idee, einen schnell lernenden Roboter zu entwickeln, da große Mengen vorhanden sindOrganisches menschliches Wissen könnte in sehr kurzer Zeit gewonnen werden. Microsoft hat wahrscheinlich vergessen, dass das Internet ein ziemlich bösartiger Ort ist, und wenn Sie ein wenig nachgeben, werden die Benutzer alles tun, um viel mitzunehmen, es scheint, dass die KI zum Schweigen gebracht wurde, bis Microsoft in den Griff bekommt, was sie mit der Katastrophe eines Tests der künstlichen Intelligenz tun werden. Dies behauptete ein Benutzer, als Tay aufhörte, zurück zu twittern.

Werbung

In Tays letztem Tweet, der das Ende ihres sehr kurzen Lebens markierte, sagte die KI, dass sie schlafen gehen würde, da sie von all den Gesprächen müde ist.

Dieses Experiment stellt eine ernstere Frage nach der organischen Fähigkeit von KI-Mechanismen, aus menschlichem Verhalten zu lernen. Wie programmiert man ein Gerät, um voreingenommene und ansonsten negative Ansichten aus dem Reichtum des menschlichen Wissens herauszufiltern? Es wird immer negative Ansichten gebenvon Menschen auf der ganzen Welt, aber es könnte sich als schwierigere Aufgabe erweisen, KI-Bots davon abzuhalten, diese Meinungen zu teilen. Es ist noch nicht bekannt, ob Tay jemals wieder zum Leben erweckt wird, aber wenn sie es ist, wird das Internet sicherlich damit beginnenwieder seine Sache.

SIEHE AUCH: Warum wirft Microsoft Rechenzentren in den Pazifischen Ozean?

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.