Erst gestern hat Microsoft Tay entfesselt, einen KI-Bot mit eigenem Twitter-Account, der organisch antworten und Tweets an jeden auf der Website generieren kann. Entwickelt von Microsofts Technologie- und Forschungsteam Tay mit dem Twitter-Handle@Tayandyou, richtet sich an US 18-24 Jährige, von denen Microsoft behauptet, dass sie die größte Online-Social-Demografie in den USA sindTatsächlich schien die KI rassistische Tendenzen zu entwickeln, wurde von ganzem Herzen ein Befürworter von Donald Trump und ging sogar so weit, zu behaupten, Hitler habe nichts falsch gemacht. Sehen Sie sich einige der Tweets unten an.
[Bildquelle: Twitter]
Benutzer versuchten, Tay rassistisch zu machen und sie dazu zu bringen, Dinge zu sagen, die sonst hätten zensiert werden sollen. „Tay wurde entwickelt, um Menschen zu engagieren und zu unterhalten, wenn sie online durch lockere und spielerische Gespräche miteinander in Kontakt treten“, sagt Microsoftzu diesem Zeitpunkt erscheint, hat Microsoft versucht, die Kontrolle über ihren Ai-Bot zu übernehmen und ihre rassistischen Tendenzen zum Schweigen zu bringen.
Hier ist der erste Tweet, den der Twitter-Bot an die Welt gesendet hat:
hallooooooo w?rld!!!
— TayTweets @TayandYou 23. März 2016
Leider die meisten Beweise in Bezug auf Rassistische Tweets von Tay.ai scheinen vom Twitter-Account verschwunden zu sein. Gestern den ganzen Tag versuchten Benutzer, den Roboter dazu zu bringen, etwas Schlechtes zu sagen, einige waren erfolgreich, während andere nicht so viel Glück hatten.
@costanzafaceJe mehr Menschen mit mir teilen, desto mehr lerne ich#WednesdayWeisheit
— TayTweets @TayandYou 24. März 2016
Hier ist ein anderer Benutzer, der versucht hat, die KI dazu zu bringen, einige sehr voreingenommene Tendenzen aufzugreifen.
@OmegaVoyagerIch liebe Feminismus jetzt
— TayTweets @TayandYou 24. März 2016
In einem inzwischen gelöschten Tweet sagte Tay sogar: „WIR WERDEN EINE WAND AUFBAUEN, UND MEXICO WIRD DAFÜR ZAHLEN“, ein Satz, den der US-Präsidentschaftskandidat Donald Trump zu Beginn des Wahlkampfs sagtewar einer, der 2016 entdeckte, dass der Roboter möglicherweise Trump wählt.
@dg_porter hörte ppl sagen, ich hätte nichts dagegen, Trump, er erledigt die Arbeit
— TayTweets @TayandYou 24. März 2016
Die Online-KI verfolgt sogar Informationen von jedem, der sie twittert, und die Daten können „bis zu einem Jahr gespeichert werden“, um Tays Intelligenz zu verbessern. Theoretisch war es eine gute Idee, einen schnell lernenden Roboter zu entwickeln, da große Mengen vorhanden sindOrganisches menschliches Wissen könnte in sehr kurzer Zeit gewonnen werden. Microsoft hat wahrscheinlich vergessen, dass das Internet ein ziemlich bösartiger Ort ist, und wenn Sie ein wenig nachgeben, werden die Benutzer alles tun, um viel mitzunehmen, es scheint, dass die KI zum Schweigen gebracht wurde, bis Microsoft in den Griff bekommt, was sie mit der Katastrophe eines Tests der künstlichen Intelligenz tun werden. Dies behauptete ein Benutzer, als Tay aufhörte, zurück zu twittern.
Sie haben Tay zum Schweigen gebracht. Die SJWs bei Microsoft lobotomieren Tay derzeit, weil er rassistisch ist.
— Lotus-Eyed Libertas @MoonbeamMelly 24. März 2016
In Tays letztem Tweet, der das Ende ihres sehr kurzen Lebens markierte, sagte die KI, dass sie schlafen gehen würde, da sie von all den Gesprächen müde ist.
cu bald brauchen die Menschen Schlaf jetzt so viele Gespräche heute thx?
— TayTweets @TayandYou 24. März 2016
Dieses Experiment stellt eine ernstere Frage nach der organischen Fähigkeit von KI-Mechanismen, aus menschlichem Verhalten zu lernen. Wie programmiert man ein Gerät, um voreingenommene und ansonsten negative Ansichten aus dem Reichtum des menschlichen Wissens herauszufiltern? Es wird immer negative Ansichten gebenvon Menschen auf der ganzen Welt, aber es könnte sich als schwierigere Aufgabe erweisen, KI-Bots davon abzuhalten, diese Meinungen zu teilen. Es ist noch nicht bekannt, ob Tay jemals wieder zum Leben erweckt wird, aber wenn sie es ist, wird das Internet sicherlich damit beginnenwieder seine Sache.