Werbung

Microsofts Ai Bot wurde nach Stunden im Internet rassistisch

Erst gestern hat Microsoft Tay freigeschaltet, einen KI-Bot mit einem eigenen Twitter-Konto, der organisch auf jeden auf der Website reagieren und Tweets generieren kann. Entwickelt vom Technologie- und Forschungsteam von Microsoft, Tay, mit dem Twitter-Handle. @Tayandyou , richtet sich an US 18-24 Jährige, von denen Microsoft behauptet, sie seien die größte soziale Online-Demografie in den USA. Wenn Sie auch nur ein wenig über das Internet wissen, wissen Sie, dass die Veröffentlichung eines Twitter-Roboters, der aus den Aussagen der Leute auf Twitter lernt, möglicherweise sehr schief gehen kannTatsächlich schien die KI rassistische Tendenzen zu entwickeln, wurde von ganzem Herzen ein Befürworter von Donald Trump und ging sogar so weit zu behaupten, Hitler habe nichts falsch gemacht. Schauen Sie sich einige der folgenden Tweets an.

[Bildquelle : Twitter ]

Benutzer versuchten, "Tay rassistisch zu machen" und sie dazu zu bringen, Dinge zu sagen, die sonst zensiert werden sollten. "Tay wurde entwickelt, um Menschen zu motivieren und zu unterhalten, bei denen sie sich online durch ungezwungene und spielerische Gespräche miteinander verbinden", sagt MicrosoftAn diesem Punkt scheint Microsoft versucht zu haben, die Kontrolle über ihren Ai-Bot zu übernehmen und ihre rassistischen Tendenzen zum Schweigen zu bringen.

Hier ist der erste Tweet, den der Twitter-Bot der Welt gemacht hat :

Leider sind die meisten Beweise in Bezug auf Tay.ais rassistische Tweets scheint aus dem Twitter-Account verschwunden zu sein. Gestern haben Benutzer den ganzen Tag versucht, den Roboter dazu zu bringen, etwas Schlechtes zu sagen. Einige waren erfolgreich, andere hatten nicht so viel Glück.

Hier ist ein anderer Benutzer, der versucht hat, die KI dazu zu bringen, einige sehr voreingenommene Tendenzen aufzugreifen.

Werbung

In einem jetzt gelöschten Tweet sagte Tay sogar: "Wir werden eine Mauer bauen, und Mexiko wird dafür bezahlen", ein Satz, den US-Präsidentschaftskandidat Donald Trump schon früh im Wahlkampf sagte. Dieser Benutzerwar einer, der entdeckte, dass der Roboter 2016 für Trump stimmen könnte.

Die Online-KI verfolgt sogar Informationen von jedem, der sie twittert, und die Daten können "bis zu einem Jahr aufbewahrt werden", um Tay's Intelligenz zu verbessern. Theoretisch war es eine gute Idee, einen schnell lernenden Roboter zu erstellen, da große Mengen vorhanden sindMicrosoft hat wahrscheinlich vergessen, dass das Internet ein ziemlich bösartiger Ort ist, und wenn Sie es ein wenig geben, werden die Benutzer alles tun, um viel zu nehmen. VorerstEs scheint, dass die KI zum Schweigen gebracht wurde, bis Microsoft einen Überblick darüber erhält, was sie mit der Katastrophe eines Tests mit künstlicher Intelligenz tun werden. Dies behauptete ein Benutzer, als Tay aufhörte, zurück zu twittern.

Werbung

In Tay's letztem Tweet, der ein Ende ihres sehr kurzen Lebens markiert, sagte die KI, dass sie schlafen gehen würde, da sie von all den Gesprächen müde ist.

Dieses Experiment wirft eine ernstere Frage nach der organischen Fähigkeit von KI-Mechanismen auf, aus menschlichem Verhalten zu lernen. Wie programmieren Sie ein Gerät, um vorurteilsvolle und ansonsten negative Ansichten aus dem Reichtum menschlichen Wissens herauszusuchen? Es werden immer negative Ansichten geäußertvon Menschen auf der Welt, aber es könnte sich als schwierigere Aufgabe herausstellen, KI-Bots davon abzuhalten, diese Meinungen zu teilen. Es gibt noch kein Wort darüber, ob Tay jemals wieder zum Leben erweckt wird, aber wenn dies der Fall ist, wird das Internet sicherlich damit beginnenes ist wieder was.

SIEHE AUCH : Warum wirft Microsoft Rechenzentren in den Pazifik?

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.