Wann Künstliche Intelligenz AI funktioniert wie geplant, es kann einige unglaubliche Dinge hervorbringen, aber eine Sache, die es nicht gut macht, ist, den Kontext zu verstehen. Dies wurde allzu deutlich gemacht, als ein Forscher und Fan von Great British Bake Off , trainierte KI, um Bilder ihrer geliebten TV-Show zu replizieren.
Was sie stattdessen sah, war grausam Bilder die eher für eine Horrorshow geeignet sind. Nichts Charmantes, Süßes oder Köstliches an diesen Fotos.
SIEHE AUCH: GOOGLE RESEARCHERS SCHAFFEN AI-CEPTION MIT EINEM AI-CHIP, DER AI beschleunigt
Was ist so schief gelaufen?
Die Forscherin Janelle Shane teilte ihre Erfahrungen auf ihrer Website mit. KI-Verrücktheit , auf dem sie erklärte, wie sie trainiert hat NVIDIAs StyleGan 2-System auf Fotos der Bäcker der berühmten Show, ihrer Backwaren, der Zelte, Bäume im Hintergrund und sogar eines zufälligen Eichhörnchens.
Anstatt realistische Nachbildungen von Gesichtern zu erstellen KI-System Stattdessen wurden "Porträts" gehasht, die einer lebhaften Horrorshow würdig sind. In diesem Fall fallen mir die Wörter grotesk, missgebildet und verdreht ein. Tatsächlich sind sie so schlecht, dass sie gut sind.
Laut Shane Dies ist ein perfektes Beispiel dafür, was Sie mit Deep-Learning-Technologie tun können und was nicht.
Es war nicht aus Mangel an Daten, da Shane das System mit trainiert hatte 55.000 Bilder aus der Show entnommen. Das Problem war, als Gesichter in das Projekt eingeführt wurden, die das System nicht auswendig gelernt hatte. Die Bilder waren also nicht immer perfekt zentriert, sie hatten unterschiedliche Größen, es gab manchmal Hände, hier einen Laib Brotund dort ein Zelt oder ein Eichhörnchen. Alle Dinge, die das System nicht erkannte.
Also anstatt Gesichter zu erstellen, das System gelöscht sie. Sprechen Sie über System-Overdrive.
Shane wollte dort allerdings nicht aufgeben, also trainierte sie das System weiter, was leider nicht besser war. Shane schrieb über das Problem auf ihrer Website , " Dies ist das übliche Ergebnis, wenn Sie ein neuronales Netzwerk über einen langen Zeitraum trainieren - keine Beschleunigung des Fortschritts, sondern eine allmähliche Stagnation. "
"Die Bilder der Backshow waren für das neuronale Netz zu unterschiedlich, und deshalb wurde der Fortschritt trotz vieler Trainingsdaten gestoppt."
Durch Betrachten der AI-inspiriert Bilder, bei denen es schwer zu sagen ist, was was ist. Wenn überhaupt, kann es zu einem lustigen Ratespiel werden, aber das war es leider auch.