Werbung

KI-Einstellungen: Was die Experten für Bedenken halten

Ist KI etwas zu befürchten oder etwas zu feiern? Die Antwort hängt davon ab, wen Sie fragen. Letztendlich müssen die Menschen die Verantwortung für die Auswirkungen der KI übernehmen und sollten entsprechend handeln, indem sie proaktiv mit Risiken umgehen.

Wie wir in gesehen haben Unsere schöne neue Welt: Warum der Fortschritt der KI ethische Bedenken aufwirft Es gibt einige Bereiche, in denen der Einsatz von KI für die Gesellschaft weniger vorteilhaft erscheint. Dazu gehören die Verbreitung rassistischer Vorurteile bei der Gesichtserkennung und anderen algorithmischen Geheimformeln sowie eine Bedrohung für Arbeitsplätze und möglicherweise sogar die allgemeine Sicherheit, so der Albtraumvon Elon Musk vorgeschlagenes Szenario.

Im Video unten können Sie hören, wie Musk seine Bedenken hinsichtlich der KI beschreibt.

Der Meinungskonflikt zwischen Elon Musk und Mark Zuckerberg

Als Musk 2017 seine Ansichten veröffentlichte, forderte er Zuckerberg auf, während a eine viel „optimistischere“ Haltung einzunehmen. Facebook Live-Übertragung. Tatsächlich beschuldigte Zuckerberg, dass diejenigen, die unverantwortlich sind, nicht diejenigen sind, die KI verfolgen, sondern diejenigen, die die Gefahren betonen. Er sagte :

"Und ich denke, Leute, die Neinsager sind und versuchen, diese Weltuntergangsszenarien aufzumischen ... ich verstehe es einfach nicht. Es ist wirklich negativ und in gewisser Weise denke ich, dass es ziemlich verantwortungslos ist."

"Gleich wieder bei dir" könnte Musks Antwort auf Zuckerbergs Einstellung zusammenfassen, auf die er sich bezog Twitter : "Ich habe mit Mark darüber gesprochen. Sein Verständnis des Themas ist begrenzt."

Musk greift daher auf einen Anspruch auf mehr Fachwissen zurück, um seinen Standpunkt zu stärken. Tatsächlich werden die optimistischen und pessimistischen Einstellungen zur KI jedoch nicht nach dem Kenntnisstand des Fachs unterteilt.

Die KI-Optimisten

Eine Reihe von KI-Experten teilen Zuckerbergs optimistische Einstellung. Zum Beispiel Kevin Kelly, Mitbegründer von verkabelt und Autor von Das Unvermeidliche: Die 12 technologischen Kräfte verstehen, die unsere Zukunft gestalten werden. machte diese umfassende Erklärung : „Der größte Vorteil der Ankunft künstlicher Intelligenz besteht darin, dass KIs dazu beitragen, die Menschheit zu definieren. Wir brauchen KIs, die uns sagen, wer wir sind.“

Werbung

Kelly erweiterte seine Ansicht in einem Interview mit IBM : “ Durch KI werden wir viele neue Arten des Denkens erfinden, die biologisch nicht existieren und die nicht wie menschliches Denken sind. “

Nach Kellys Ansicht ist das durchaus positiv: „Daher ersetzt diese Intelligenz das menschliche Denken nicht, sondern erweitert es.“

Ein weiterer KI-Optimist ist der Futurist und Erfinder Ray Kurzweil, der die folgende Erklärung abgegeben hat ein Interview 2012 :

"Künstliche Intelligenz wird bis etwa 2029 das menschliche Niveau erreichen. Folgen Sie dem Beispiel bis 2045, wir werden die Intelligenz, die menschliche biologische Maschinenintelligenz unserer Zivilisation, milliardenfach vervielfacht haben."

Kurzweil erklärte es als das Äquivalent von „Singularität“ in der Physik, weil es „eine tiefgreifende störende Veränderung in der Geschichte der Menschheit“ wäre. Letztendlich stellt er sich vor, dass menschliches „Denken eine Mischung aus biologischem und nicht-biologischem Denken wirdDenken."

Werbung

Die KI-Pessimisten

Es gibt auch Experten, die nicht von einer Utopie träumen, in der KI Jobs und einen Großteil des menschlichen Denkens übernimmt. Sie sehen die Möglichkeit, KI für Prozesse verantwortlich zu machen, als gefährlich an.

Unter diesen ist Yuval Noah Harari , wer schrieb Homo Deus: Eine kurze Geschichte von morgen. Innerhalb des Buches machte Professor Harari die folgende Erklärung :

„Sie möchten wissen, wie superintelligent Cyborgs könnte gewöhnliche Menschen aus Fleisch und Blut behandeln? Beginnen Sie besser damit, zu untersuchen, wie Menschen mit ihren weniger intelligenten tierischen Cousins ​​umgehen. Es ist natürlich keine perfekte Analogie, aber es ist der beste Archetyp, den wir tatsächlich beobachten können, anstatt uns nur vorzustellen. “

Hararis Einstellung ist das genaue Gegenteil der positiven Futuristen, wenn es darum geht, den Aufstieg dessen darzustellen, was er "Dataism" nennt. In diesem Fall tritt der Mensch den überlegenen Boden der fortgeschrittenen künstlichen Intelligenz ab. Dies ist eine Zukunft, die von einer "kosmischen Datenverarbeitung" dominiert wirdSystem “, das sowohl allgegenwärtig als auch allwissend ist, und wie die Borg sagen würden, ist Widerstand zwecklos.

Werbung

Der späte Englischer theoretischer Physiker, Kosmologe und Autor, Forschungsdirektor am Center for Theoretical Cosmology der University of Cambridge Stephen Hawking fällt ebenfalls in das pessimistische Lager. Wie Harar berücksichtigte er die menschliche Erfahrung bei der Verfolgung von Zielen, indem er die Möglichkeiten der KI nach eigenen Diktaten ohne Rücksicht auf die Menschlichkeit projizierte.

Im folgenden Video bietet Stephen Hawking eine sehr pessimistische Einstellung zur KI.

Anfang 2015, während a Reddit AMA Fragen Sie mich etwas Q & A-Sitzung Hawking wurde die folgende Frage von einem Lehrer gestellt, der wissen wollte, wie er bestimmte KI-Bedenken, die in seinen Klassen auftauchen, angehen kann :

Wie würden Sie Ihre eigenen Überzeugungen gegenüber meiner Klasse vertreten? Sind unsere Standpunkte miteinander vereinbar? Glauben Sie, dass meine Gewohnheit, die „böse KI“ im Laien-Terminator-Stil zu ignorieren, naiv ist? Und zu welcher Moral sollte ich mich Ihrer Meinung nach verstärken?meine Schüler interessieren sich für KI?

Werbung

Hawkings Antwort war wie folgt :

Das wirkliche Risiko bei KI ist nicht Bosheit, sondern Kompetenz. Eine superintelligente KI kann ihre Ziele sehr gut erreichen, und wenn diese Ziele nicht mit unseren übereinstimmen, sind wir in Schwierigkeiten. Sie sind wahrscheinlich kein ÜbelAmeisenhasser, der aus Bosheit auf Ameisen tritt, aber wenn Sie für ein Wasserkraftprojekt für grüne Energie verantwortlich sind und in der Region ein Ameisenhaufen überflutet werden muss, schade für die Ameisen. Lassen Sie uns die Menschheit nicht in die Position dieser bringenAmeisen.

Ist die Gefahr einer KI-Herrschaft real?

Anthony Zador, Professor für Neurowissenschaften am Cold Spring Harbor Laboratory und Yann LeCun, Professor für Informatik an der New York University und leitender KI-Wissenschaftler bei Facebook, argumentieren, dass die Besessenheit über die KI-Dominanz falsch ist. Sie erklärten ihre Ansicht in a Scientific American Blog mit dem Titel Keine Angst vor dem Terminator veröffentlicht am 26. September 2019.

Werbung

Sie können Zador auf AI in diesem Video hören :

LeCunn spricht in diesem Video über andere Aspekte der KI :

Als Antwort auf die Frage „Warum sollte eine empfindungsfähige KI die Welt übernehmen wollen?“ Bieten sie die einfache Zwei-Wörter-Antwort: „Das würde nicht.“

Vielleicht hatten sie Hararis Buch im Sinn, als sie sich mit der Rolle der Intelligenz bei der „sozialen Dominanz“ in der gesamten „Evolutionsgeschichte“ befassten. Sie erklärten es eher mit einem Werkzeug als mit einem Fahrer :

"Und in der Tat ist Intelligenz eine mächtige Anpassung, wie Hörner, scharfe Krallen oder die Fähigkeit zu fliegen, die das Überleben in vielerlei Hinsicht erleichtern kann. Aber Intelligenz an sich erzeugt nicht den Drang zur Herrschaft, genauso wenig wie Hörner."

Menschen nutzen ihre Intelligenz, um zu überleben. Aber wenn es um künstliche Formen der Intelligenz geht, gibt es keinen solchen „Überlebensinstinkt“, und deshalb hätte die KI keinen Grund, die Menschen zu übernehmen, die sie programmieren.

Werbung

„In der KI sind Intelligenz und Überleben entkoppelt, sodass Intelligenz allen Zielen dienen kann, die wir uns dafür gesetzt haben.“

Die grundlose Besorgnis über Science-Fiction-Handlungen wie die von Rächer: Das Zeitalter von Ultron oder was Zador und LeCun möglicherweise unter Bezugnahme auf die Frage, die Hawking gestellt hat anrufen „Das Terminator-Szenario“ ist tatsächlich kontraproduktiv, weil es „uns nur von den sehr realen Risiken der KI ablenkt“.

Die KI-Risiken, über die wir uns Sorgen machen sollten

Zador und LeCun unterscheiden ihre Position weiterhin von der der KI-Optimisten. Musk hat es in seinem Buch über die „Waffe“ der KI sowie über die anderen Bedrohungen, die sie für die Menschheit darstellt, einschließlich des Verlusts von Arbeitsplätzen, richtig verstanden.

„Während KI die Produktivität verbessern, neue Arbeitsplätze schaffen und die Wirtschaft ankurbeln wird, müssen die Arbeitnehmer für die neuen Arbeitsplätze umgeschult werden, und einige werden unweigerlich zurückgelassen. Wie bei vielen technologischen Revolutionen kann KI zu einer weiteren Steigerung von Wohlstand und Wohlstand führenEinkommensunterschiede, sofern keine neue Finanzpolitik eingeführt wird. “

Zusätzlich zu den Risiken, die bereits erwartet werden können, gibt es solche, bei denen es sich um „unerwartete Risiken handelt, die mit einer neuen Technologie verbunden sind - die„ unbekannten Unbekannten “.“

Nur weil sie in einer Science-Fiction-Handlung nicht vorgestellt wurden, heißt das nicht, dass sie keinen Grund zur Sorge geben, argumentieren sie. Sie betonen, dass Menschen diejenigen sind, die für die Ergebnisse einer erweiterten KI verantwortlich sind, die sich nicht entwickeln könnenjede unabhängige Agentur oder Ambition.

unter Betonung der menschlichen Verantwortung Zador und LeCun skizzieren keinen bestimmten Plan, um die bekannten und unbekannten Risiken neuer Technologien zu vermeiden.

Proaktive Planung für KI

Unabhängig davon, ob es sich bei der Lösung um eine staatliche Regulierung handelt, wie Musk vorgeschlagen hat, oder um eine Art Industriestandard, scheint eine Planung mit einem Bewusstsein für potenzielle Gefahren angebracht zu sein. Eine Reihe von Experten hat genau dies vorgeschlagen.

Professor Klaus Schwab, der Gründer des Weltwirtschaftsforums, der den Begriff „Vierte industrielle Revolution“ geprägt hat , ”veröffentlichte seine Gedanken dazu aktuelle Richtung im Jahr 2016.

Wie die positiven Futuristen stellte er sich vor, dass die Zukunft „die physische, digitale und biologische Welt auf eine Weise verschmelzen wird, die die Menschheit grundlegend verändern wird“. Aber er hielt es nicht für selbstverständlich, dass alles zum Besten funktionieren würde. “die Menschen auffordern, vorausschauend zu planen und sich der „Risiken und Chancen, die sich auf dem Weg ergeben“, bewusst zu sein.

Auch mit fahrerlose Autos Am Horizont sitzen immer noch Leute auf dem Fahrersitz, wenn es darum geht, zu planen, was KI tun soll. „KI ist nichts Künstliches“, erklärte Fei-Fei Li ein Experte auf diesem Gebiet. „Es ist von Menschen inspiriert, von Menschen geschaffen und wirkt sich vor allem auf Menschen aus.“

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.