Werbung

Forscher täuschen Bilderkennungssoftware vor, um diese Schildkröte als Gewehr zu kennzeichnen

MIT- und Kyushu-Forscher werfen ein Licht auf einen Bereich kleiner, aber wachsender Bedenken hinsichtlich möglicher algorithmischer und neuronaler Netzwerkbeschränkungen von Bilderkennungssoftware.

Die Bilderkennung ist in den letzten zehn Jahren sehr schnell in unsere Welt gekommen und wird für eine unglaubliche Vielfalt von Zwecken von der Überwachung von Terrorverdächtigen bis Badezimmerspiegel die die Software verwenden, um Ihren Tag zu planen. Vielleicht aufgrund ihrer allgegenwärtigen Präsenz in unserem Leben gibt es einige Kritiker, die der Meinung sind, dass die Technologie - die weitgehend auf Algorithmen beruht - unvorhersehbare oder manchmal inkonsistente Ergebnisse liefern kann.

In kombinierten Studien haben Forscher der Kyushu University und des MIT diese Theorie auf den Prüfstand gestellt, und die Ergebnisse waren sehr überraschend. Im Wesentlichen konnten sie nur wenige Details modifizieren. um die Bilderkennungssoftware zu täuschen .

Quelle : Arxiv

Die erstes Team der Kyushu University versuchte den Ansatz, ein Bild aufzunehmen und eines der Pixel zu ändern. Die Idee ist, dass die neuronalen Netze unterbrochen werden und in der Verwirrung Bilder von Hunden fälschlicherweise als Pferde, Katzen oder sogar Autos bezeichnet werden. Es ist interessant zu bemerkendass die Anzahl der Pixel auf nur eintausend begrenzt war, was bedeutet, dass das gleiche Ergebnis möglicherweise nicht mit größeren Bildern erzielt wurde, bei denen die Pixelanzahl in Millionen liegt.

Die MIT-Gruppe verwendete 3D-Druck um ihre Ergebnisse zu erzielen, aber in diesem Fall waren die Effekte viel dramatischer: Eine gedruckte Schildkrötenskulptur brachte einen Algorithmus dazu, ihn als Gewehr zu kennzeichnen, während ein Baseball als Espresso wahrgenommen wurde. Die Auswirkungen des ersten Ergebnisses sind jedoch relativharmlos, die Ergebnisse des zweiten Experiments zeigten dem MIT-Team, dass dieser kleine Fehler zu größeren Problemen mit der Software führen kann, wenn sie in anderen Bereichen des täglichen Lebens angewendet wird.

Die Ergebnisse zeigten den beiden Teams andere mögliche Bereiche, insbesondere gegnerische Beispiele Dies sind „... Eingaben in maschinelle Lernmodelle, die ein Angreifer absichtlich entworfen hat, um einen Fehler des Modells zu verursachen.“ Neuronale Netze, die Grundlage der Algorithmen, würden angegriffen.

Werbung

Innovation

Neues KI-System verwandelt Bilder mit niedriger Auflösung in HD

Anish Athalye vom MIT-Team erläutert: "Immer mehr reale Systeme beginnen, neuronale Netze zu integrieren, und es ist ein großes Problem, dass diese Systeme möglicherweise anhand widersprüchlicher Beispiele untergraben oder angegriffen werden können", und fügt hinzu, dass dies immer noch der Fall istVerwirrung über die Quelle. "Die Community für maschinelles Lernen versteht nicht ganz, was mit gegnerischen Beispielen los ist oder warum sie existieren."

Obwohl es keinen Grund zur Sorge gibt, arbeiten große konkurrierende Webunternehmen wie Amazon, Google und Facebook daran, die Aktivität genau zu bestimmen. Dies bedeutet, wie Athalye angibt, dass wir sind nicht mit Einzelfällen konfrontiert . "Es ist auch kein seltsamer 'Eckfall' ... Wir haben in unserer Arbeit gezeigt, dass Sie ein einzelnes Objekt haben können, das ein Netzwerk über Sichtweisen hinweg täuscht, selbst in der physischen Welt."

Werbung

Obwohl die Ergebnisse dieser kombinierten Studien zweifellos einige der Design- und Entwicklungsfehler von Bilderkennungssoftware aufdecken, bleibt eine wichtige Frage offen: Beschleunigen wir die Entwicklung - und die Erwartungen - der Bilderkennung über ihre derzeitige Kapazität hinaus oder sind die ErgebnisseIndikatoren dafür, dass es sehr reale Einschränkungen gibt, die bestehen bleiben werden unabhängig von zukünftigen F & E-Bemühungen? Nur die Zeit wird es zeigen.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.