Werbung

Sollten wir künstliche Superintelligenz befürchten?

Mit fortschreitender künstlicher Intelligenz haben die Menschen begonnen zu fragen, was das Endergebnis, eine künstliche Superintelligenz, für die Menschheit bedeuten wird.

DepositPhotos

Stephen Hawking spricht kurz vor seinem Tod auf einer Konferenz in Lissabon, Portugal erzählt Teilnehmer, dass die Entwicklung der künstlichen Intelligenz zum „schlimmsten Ereignis in der Geschichte unserer Zivilisation“ werden könnte, und er hatte allen Grund zur Sorge. Von KI-Forschern, Ethikern und anderen als künstliche Superintelligenz ASI bekanntdas Potenzial, mächtiger zu werden als alles, was dieser Planet jemals gesehen hat, und es stellt die wahrscheinlich letzte existenzielle Herausforderung dar, der sich die Menschheit als Spezies jemals stellen wird.

Warum haben Menschen Angst vor künstlicher Intelligenz?

Um besser zu verstehen, was Stephen Hawking betraf, Elon Musk und viele andere müssen wir viele der Populärkultur dekonstruieren Darstellungen von AI .

Die Realität ist, dass die KI schon eine Weile bei uns ist, seit Computer Entscheidungen auf der Grundlage von Eingaben und Bedingungen treffen konnten. Wenn wir in den Filmen ein bedrohliches KI-System sehen, ist dies die Böswilligkeit des Systems, verbunden mitdie Macht eines Computers, die uns Angst macht.

Es verhält sich jedoch immer noch grundsätzlich menschlich.

SIEHE AUCH: 10 WESENTLICHE GESPRÄCHE ÜBER KÜNSTLICHE INTELLIGENZ

Die Art von KI, die wir heute haben, kann als künstliche funktionale Intelligenz AFI bezeichnet werden. Diese Systeme sind programmiert um eine bestimmte Rolle zu spielen und dies auch oder besser als ein Mensch zu tun. Sie sind auch geworden mehr erfolgreich in kürzerer Zeit als fast jeder vorhergesagt, menschliche Gegner in komplexen Spielen wie schlagen Los und Starcraft II, von dem sachkundige Leute dachten, dass es jahrelang, wenn nicht jahrzehntelang nicht passieren würde.

Quelle : Pixabay

Während wir uns vielleicht auf Galgenhumor einlassen, weil wir unsere Roboter-Oberherren willkommen heißen müssen, besteht kein tatsächliches Risiko, dass diese Systeme selbst das Risiko darstellen, von dem Hawking gesprochen hat. AlphaGo könnte jeden einzelnen menschlichen Go-Spieler von jetzt an bis zum leicht schlagen Hitzetod des Universums, aber fragen Sie nach den aktuellen Wetterbedingungen und es fehlt die Intelligenz selbst einzelliger Organismen, die auf Temperaturänderungen reagieren.

Werbung

Was wir denken, wenn wir über eine gefährliche KI sprechen, nennen Informatiker eine künstliche allgemeine Intelligenz Artificial General Intelligence, AGI, ein künstliches System, das den menschlichen Geist vollständig emuliert und in jedem Wissensbereich so intelligent ist wie ein Mensch, außeres kann milliardenfach schneller denken als wir. Dies ist es, was Filme als unglaublich gefährliche Skynets darstellen, die die Menschheit auslöschen wollen, aber a so erschreckend das auch erscheinen mag, das ist nicht das eigentliche Problem.

So bedrohlich dieses System auch erscheinen mag, wir werden wahrscheinlich nie eine AGI sehen. Die eigentliche Sorge ist, was einen Schritt über die AGI hinausgeht.

Bauen über die Intelligenz auf menschlicher Ebene hinaus

Das Problem bei der Entwicklung von AGI im herkömmlichen Sinne ist, dass es unmöglich ist, einen Entscheidungsbaum für jede Frage zu programmieren, die ein AGI lösen müsste. Es wird immer etwas geben, für das es einfach nicht programmiert ist.wie AlphaGo nach dem Wetter zu fragen.

Werbung

Menschen stehen ständig vor dieser Herausforderung und es ist unsere Fähigkeit zu lernen und neue Verbindungen in unserem Gehirn herzustellen, die uns zu hochentwickelter Intelligenz und Problemlösung befähigt. Wenn wir nicht wissen, wie wir ein Problem lösen können, können wir es analysierenund finde eine Antwort. Es ist diese Fähigkeit, die wir gerade erst zu den fortschrittlichsten KI-Systemen entwickeln, die wir haben, und es ist wirklich steinzeitliches Zeug im großen Schema der Dinge.

Um AGI wirklich zu erreichen, benötigt ein System ein Schlüsselwerkzeug, das der Mensch für selbstverständlich hält, vor allem, weil es automatisch ist. Es muss in der Lage sein, seine Programmierung neu zu schreiben, um sich selbst intelligenter zu machen, so wie die menschliche Biologie das Gehirn automatisch neu verkabelt, um zu lernenneue Dinge. Hier nehmen die Implikationen und Bedenken in Bezug auf künstliche Intelligenz, die echten wissenschaftlichen Bedenken und nicht die Hollywood-Version, Gestalt an.

Werbung
Quelle : Greg Ziebowski / YouTube

Angenommen, wir programmieren ein System, das seine eigene Programmierung umschreiben könnte, um sich in jedem Fach, jeder Fähigkeit oder jeder Fähigkeit, zu der Menschen fähig sind, intelligenter zu machen. Am Anfang wäre es überhaupt nicht sehr intelligent, aber jede sukzessive Verfeinerung würde wiederum ihre Fähigkeit verbessern, sich selbst zu verbessern. Jeder winzige, inkrementelle Schritt baut auf dem letzten auf und wächst exponentiell.

Es wird einen Punkt in diesem Prozess geben, an dem das System kein AFI mehr ist. Wie ein Festkörper sublimierend In seinem gasförmigen Zustand scheint dieses AFI das AGI vollständig zu bestehen, da sein Intelligenzwachstum explosiv wird, ein Moment, der die KI-Autorität Nick Bostrom bekannt macht. Anrufe das Abheben der ASI. Wir können uns buchstäblich nicht vorstellen, wie diese Art von Intelligenz wirklich ist.

Werbung

Können wir nicht einfach eine künstliche Superintelligenz ausstecken?

Quelle: DepositPhotos

Dies ist im Allgemeinen die häufigste Reaktion der Öffentlichkeit, wenn sie an eine außer Kontrolle geratene KI im Skynet-Stil denken. Ziehen Sie einfach den Stecker aus der Steckdose oder etwas ähnlich Alltägliches, als wäre eine künstliche Superintelligenz ein Modem, das zurückgesetzt werden musste. Wir wissen bereits, dass dies gewonnen hatfunktioniert nicht, genauso wie Sie einen Computervirus nicht löschen oder seine Ausbreitung stoppen können, indem Sie einen infizierten Computer herunterfahren. Sobald die Infektion vorliegt, ist es zu spät.

Wenn sich ein Virus in ein System einbetten kann, um nicht gelöscht zu werden, oder sich selbst kopieren und andere Systeme infizieren kann, bevor wir überhaupt wissen, was passiert, wäre eine künstliche Superintelligenz unendlich schwieriger zu entfernen. Schlimmer noch, mit etwas so Intelligentem könnte es seinEntdecken Sie Wege, sich selbst zu bewahren, die wir für völlig unmöglich halten würden, weil uns die Intelligenz fehlt, um zu wissen, wie dies zu erreichen ist, wie der Versuch, sich die Physik eines Flugzeugs vorzustellen, während wir die Gehirnkapazität eines Pavians haben.

Werbung

Wir könnten scheinen, eine künstliche Superintelligenz abzuschalten, nur um zu sehen, wie sie wie durch Zauberei auf der anderen Seite der Welt wieder auftaucht, und wir würden nie wissen, wie sie dorthin gelangen kann.

Warum dann überhaupt?

Quelle : Atomic Taco / Wikimedia Commons

Dies ist die Frage, die wir uns natürlich stellen, aber das Problem ist, dass es keinen wirklichen Weg gibt, ein System zu entwickeln, das sogar einen signifikanten Prozentsatz der AGI ausmacht und das es nicht erforderlich macht, der KI selbst die Kontrolle über das Wachstum und die Entwicklung des Systems zu gebenSo ist die Entwicklung unserer eigenen Intelligenz eine automatische Funktion der Bildung neuer neuronaler Verbindungen durch unser Gehirn.

Wenn wir über die derzeit vorhandenen rudimentären AFIs hinausgehen wollen, müssen wir davon ausgehen, dass eine künstliche Superintelligenz genauso unvermeidlich ist wie Atomwaffen, nachdem das Atom gespalten wurde, um die Kernspaltung als Stromquelle zu nutzen. Letztendlich der einzige WegUm die Entstehung einer künstlichen Superintelligenz zu verhindern, muss jede weitere Entwicklung der künstlichen Intelligenz gestoppt werden, die derzeit nicht wahrscheinlich oder sogar möglich erscheint.

Werbung

So wie eine künstliche Superintelligenz ein unendliches Schadenspotential hat, kann sie zumindest für ihre Schöpfer genauso gut von Vorteil sein. Wenn Sie zwei gegnerische Nationen haben, wie könnte eine Nation der anderen ein so mächtiges System anvertrauen? Gerade als der Start von Sputnik durch die UdSSR das aufkommende US-Raumfahrtprogramm auf Hochtouren brachte, ist die KI-Entwicklung bereits weit genug fortgeschritten, dass niemandwill im KI-Rennen den zweiten Platz belegen. Der Nachteil beim Zurückfallen ist einfach zu groß.

Wenn die Anreize für die Entwicklung anspruchsvollerer AIs größer sind als für den nächsten, ist ein AI-Wettrüsten unvermeidlich, und wie wir bereits gesehen haben, gibt es keinen Weg zu AGI, der keinen ASI erzeugtfast unmittelbar danach. Wenn also seine Entstehung fast garantiert ist, je mehr wir künstliche Intelligenz erforschen und entwickeln, dann haben Sie noch mehr Anreiz, derjenige zu sein, der sie zuerst entwickelt. Auf diese Weise haben Sie die beste Chance, dass die Superintelligenz Ihnen gegenüber wohlwollend oder zumindest nicht feindlich eingestellt ist.

Willkommen im Gefangenendilemma der künstlichen Intelligenz.

Sollten wir künstliche Superintelligenz befürchten?

Quelle: DepositPhotos

Natürlich.

Wie bei jeder technologischen Entwicklung gibt es immer unbeabsichtigte Konsequenzen, und wenn wir eine künstliche Superintelligenz haben, gibt es kein Zurück mehr.

Aber wir sollten uns daran erinnern, dass es in unserer Natur liegt, die Bedrohung zu sehen, die ein solches System darstellt, weil wir von der Evolution fest verdrahtet sind, um Gefahren zu erkennen und sie zu vermeiden. Etwas, das diese Mächtigen tatsächlich entscheiden könnten und wahrscheinlich die Macht hätten, alle auszurottenmenschliches Leben, wenn sein Ziel darin bestand, das gesamte Leben des Planeten zu erhalten. Die größte Bedrohung für das Leben auf der Erde ist schließlich die menschliche Zivilisation.

Aber wenn es eine solche Macht hat, hätte es genauso viel Macht, stattdessen den Klimawandel zu verhindern oder sogar umzukehren, und darin liegt die Wahl, die die Menschheit treffen muss.

Robotik

Warum haben wir so große Angst vor Robotern? 15 Experten überlegen, was die wirklichen Gefahren sind

So wie die potenziellen Nachteile eines ASI endlos sind, ist es ebenso unmöglich, dem Guten, das so etwas leisten kann, eine Grenze zu setzen. Was auch immer wir denken, ein ASI hat das Potenzial, mehr zu tun. Klimawandel, AusrottungDas Ende von Krankheit, Hunger und Hunger, das Ende des Todes selbst und sogar schneller als die Reise des Lichts in ferne Galaxien sind ebenso denkbar - und vielleicht sogar noch wahrscheinlicher - das Ergebnis einer ASI als das unsterbliche, böswillige diktatorische Monster, dasElon Musk warnt davor.

Wir haben allen Grund zu der Annahme, dass ein ASI am Ende zu unserem Vorteil funktionieren wird. Jeder technologische Fortschritt hat seine Kosten, aber die menschliche Zivilisation hat sich dadurch weiterentwickelt. Am Ende haben die Menschen eine solide ErfolgsbilanzWenn es um Technologie geht. Ja, wir können Waffen von unglaublicher Zerstörungskraft herstellen, aber wir können auch Pocken und Polio ausrotten. Wir haben die Hungersnot weitgehend überwunden und sogar Kriege nehmen stetig ab.

Wenn unsere Zukunft unserer Vergangenheit ähnelt, können wir zu Recht optimistisch in Bezug auf die Zukunft der künstlichen Intelligenz sein. Eine künstliche Superintelligenz wird dann das sein, was wir daraus machen, so wie Kinder mehr als nur das biologische Produkt ihrer Eltern sind.Daher ist es wichtig, dass wir als Zivilisation entscheiden, welche Art von künstlicher Superintelligenz wir schaffen wollen.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.