Werbung

Selbst mit einer Menge Daten kann die KI die Zukunft eines Kindes nicht vorhersagen.

Forscher der Princeton University verwendeten mehrjährige Datensätze und konnten mit AI immer noch keine Schlussfolgerung ziehen.

Die Vorhersage bestimmter zukünftiger Ergebnisse kann im Leben von großem Nutzen sein, insbesondere in der Welt der Politikgestaltung, in der Mathematik, in der Wirtschaft und anderen Szenarien.

Also wenn a Trio von Sozialwissenschaftlern der Princeton University in den USA, um festzustellen, ob oder nicht AI könnte auch verwendet werden, um das Ergebnis der Zukunft eines Kindes vorherzusagen, sie fanden heraus, dass sie nicht einmal in die Nähe kommen konnten.

Verwenden 15 Jahre Datenwert, Zusammenarbeit mit 160 Forschungsteams und unter Verwendung der neuesten AI Tech war immer noch nicht genug, um den zukünftigen Erfolg des Lebens eines Kindes zu sehen.

Die Studie wurde im veröffentlicht Verfahren der Nationalen Akademie der Wissenschaften .

KI kann die Zukunft einfach nicht vorhersagen

AI kann sicherlich Trends vorhersagen und sogar nützliche Einblicke bieten, um die Industrie bei ihrem Entscheidungsprozess zu unterstützen. Die Entscheidung, ob das Leben eines Kindes letztendlich erfolgreich sein wird, ist jedoch ein völlig anderer Fischkessel, den die Mathematik einfach nicht vorhersagen kann.

" Wir haben diese Frage in einer wissenschaftlichen Massenzusammenarbeit unter Verwendung der Common-Task-Methode untersucht. 160 Teams erstellten Vorhersagemodelle für sechs Lebensergebnisse unter Verwendung von Daten aus der Fragile Families and Child Wellbeing Study, einer hochwertigen Geburtskohortenstudie. " erklärte die Studie .

"Trotz der Verwendung eines umfangreichen Datensatzes und der Anwendung von für die Vorhersage optimierten Methoden des maschinellen Lernens waren die besten Vorhersagen nicht sehr genau und nur geringfügig besser als die eines einfachen Benchmark-Modells."

Der Grund, warum AI diese Informationen nicht vorhersagen kann, liegt zum großen Teil daran, dass maschinelles Lernen kann Schlussfolgerungen ziehen, aber nicht erklären, wie es dahin gekommen ist. In Verkaufszahlen spielt dies keine Rolle und funktioniert normalerweise recht gut mit den bereitgestellten Daten, aber wenn es um soziale Angelegenheiten geht, ist es eine andere Geschichte.

Wenn es um das zukünftige Leben und die Freiheiten einer Person geht, werden diese zu zufälligen Vermutungen, und dies sind laut der Princeton-Studie nicht sehr gute Vermutungen. Trotz eines Schatzes an Daten, mit denen man arbeiten kann. Studie "Fragile Families" , das Forschungsteam System konnte das Ergebnis des Lebens jedes Kindes immer noch nicht richtig vorhersagen.

Werbung

SIEHE AUCH: ELON MUSK TEILT SEINE ANSICHTEN AUF AI, NEURALINK, AUTOPILOT UND DEN BLAUEN PUNKT IN EINEM PODCAST

wie die Forschungsbericht darauf hingewiesen : "Mit anderen Worten, obwohl die Daten zu fragilen Familien Tausende von Variablen enthielten, die gesammelt wurden, um Wissenschaftlern das Verständnis des Lebens dieser Familien zu erleichtern, waren die Teilnehmer nicht in der Lage, genaue Vorhersagen für die Holdout-Fälle zu treffen."

"Außerdem waren die besten Beiträge, die häufig komplexe Methoden des maschinellen Lernens verwendeten und Zugriff auf Tausende von Prädiktorvariablen hatten, nur etwas besser als die Ergebnisse eines einfachen Benchmark-Modells, das lineare Regression verwendete."

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.