Werbung

Ghost in the Shell: Wird AI jemals bewusst sein?

Wenn sich die Gesellschaft der KI auf menschlicher Ebene nähert, diskutieren Wissenschaftler, was es bedeutet, zu existieren.

Eine Grafik eines Gehirns, das in einem Mikrochip ruht. 4X-Bild / iStock

Stellen Sie sich vor, Sie unterziehen sich einem Verfahren, bei dem jedes Neuron in Ihrem Gehirn schrittweise durch funktional äquivalente elektronische Komponenten ersetzt wird. Nehmen wir an, der Austausch erfolgt jeweils für ein einzelnes Neuron, und verhaltensmäßig ändert sich nichts an Ihnen. Von außen, Siesind immer noch "du", selbst für deine engsten Freunde und Lieben.

Was würde mit Ihrem Bewusstsein passieren? Würde es schrittweise verschwinden, ein Neuron nach dem anderen? Würde es nach dem Ersetzen eines bewusstheitskritischen Partikels in Ihrem hinteren Kortex plötzlich aus der Existenz verschwinden? Oder würden Sie einfach Sie bleiben, voll bewusstvon Ihrer gelebten Erfahrung und Empfindung und entweder erfreut oder entsetzt darüber, dass Ihr Geist theoretisch für immer erhalten bleiben könnte?

Dies berühmtes Bewusstseinsgedankenexperiment , vorgeschlagen vom Philosophen David Chalmers in seiner Arbeit von 1995 Abwesende Qualia, verblassende Qualia, tanzende Qualia wirft fast jede wichtige Frage auf, die es in der Debatte um die Möglichkeit des Bewusstseins in der künstlichen Intelligenz gibt.

Wenn die Aussicht auf Verständnis die Ursprünge unseres eigenen Bewusstseins und das anderer Arten ist, wie jede einzelne Person, die es studiert, sagen wird, entmutigend, und es dann in Maschinen zu replizieren, ist in einem absurden Ausmaß ehrgeizig.

"Die Erstellung dieser Art von fortschrittlicher Software erfordert ein vorheriges wissenschaftliches Verständnis der Grundlagen der menschlichen Erkenntnis, und wir kratzen nur an der Oberfläche davon."

Wird die KI jemals bei Bewusstsein sein? Wie bei allen bewusstseinsbezogenen Dingen lautet die Antwort, dass derzeit niemand wirklich weiß, und viele denken, dass es für uns objektiv unmöglich sein kann, zu verstehen, ob das rutschige Phänomen jemals in einem auftauchtMaschine.

Nehmen Sie das soeben beschriebene Gedankenexperiment. Wenn das Bewusstsein ein einzigartiges Merkmal biologischer Systeme ist, wäre niemand zu Hause, selbst wenn der Roboterersatz Ihres Gehirns es Ihnen ermöglichen würde, genauso zu funktionieren wie vor dem Eingriffdas Innere, und du wärst eine zombieähnliche Hülle deines früheren Selbst. Diejenigen, die dir am nächsten stehen, hätten allen Grund, dein Bewusstsein als gegeben zu betrachten, aber sie wären falsch.

Werbung

Die Möglichkeit, dass wir aufgrund von äußerem Verhalten fälschlicherweise auf das Bewusstsein schließen, ist keine absurde Aussage. Es ist denkbar, dass, sobald es uns gelingt, künstliche allgemeine Intelligenz aufzubauen - die Art, die nicht so eng ist wie alles, was es derzeit gibt -kann sich anpassen und lernen und sich in einer Vielzahl von Kontexten anwenden, die Technologie wird fühlen bewusst für uns, unabhängig davon, ob es tatsächlich ist oder nicht.

Stellen Sie sich eine Art Alexa oder Siri über Steroide vor, ein Programm, mit dem Sie sich unterhalten können und das wie jeder Mensch mit unterschiedlicher Intonation und kreativem Witz kommunizieren kann. Die Linie verschwimmt schnell.

Quelle : Markus Spiske / Unsplash

Das heißt, es ist möglicherweise nicht notwendig, wünschenswert oder sogar möglich, dass die KI irgendeine Art von Bewusstsein erreicht oder zeigt.

Werbung

In Leben 3.0: Mensch sein im Zeitalter der künstlichen Intelligenz , Max Tegmark, Professor für Physik am MIT und Präsident des Future of Life Institute, beklagt: „Wenn Sie einem KI-Forscher, Neurowissenschaftler oder Psychologen das" C-Wort "sagen, können sie mit den Augen rollenSind Sie Ihr Mentor, könnten sie stattdessen Mitleid mit Ihnen haben und versuchen, Sie davon abzubringen, Ihre Zeit mit dem zu verschwenden, was sie für ein hoffnungsloses und unwissenschaftliches Problem halten. “

Es ist eine vernünftige, wenn auch nicht leicht abweisende Position. Warum sollte man sich überhaupt die Mühe machen, das Bewusstseinsproblem zu berücksichtigen? Tech-Titanen wie Google und IBM haben bereits beeindruckende Fortschritte bei der Entwicklung von autodidaktischen Algorithmen gemacht, die jedes menschliche Gehirn überdenken und überholen können wenn auch unter eng definierten Umständen, und Deep-Learning-Programme auf dem Gebiet der Medizin sind ebenfalls leistungsschwache Ärztein einigen Bereichen der Tumoridentifikation und der Beurteilung von Blutuntersuchungen. Diese Technologien sind zwar nicht perfekt, funktionieren aber gut und werden nur besser in dem, was sie tun.

Werbung

Douglas Hofstadter, der wegweisende Phänomenologe, der den Pulitzer-Preis geschrieben hat Gödel, Escher, Bach: Ein ewiges goldenes Geflecht gehört zu denen, die denken, wir müssen uns unbedingt darum kümmern, und das aus gutem Grund.

„Die menschliche Intelligenz ist ein wunderbares, subtiles und schlecht verstandenes Phänomen. Es besteht keine Gefahr, sie bald zu duplizieren.“

In einem Interview 2013 mit Der Atlantik Hofstadter erklärt seine Überzeugung, dass wir den Punkt weitgehend verfehlen, wenn wir Dinge wie die Natur bewusster Intelligenz nicht berücksichtigen. Verweis auf Deep Blue, die berühmte von IBM entwickelte Schachprogramm, das Gary Kasparov besiegte 1997 sagt er: „Okay, [...] Deep Blue spielt sehr gutes Schach - na und? Sagt Ihnen das etwas darüber, wie wir Schach spielen? Nein. Erzählt es Ihnen, wie Kasparov sich ein Schachbrett vorstellt und versteht? ”

Hofstadters Perspektive ist kritisch. Wenn diese hyperfähigen Algorithmen nicht mit einem angemessenen Verständnis unserer eigenen Gedanken erstellt werden, die sie informieren, ein Verständnis, das noch sehr unvollständig ist, wie können wir dann wissen, ob sie bewusste Intelligenz erreichen?Wird das Aufladen mit dieser Technologie in die Zukunft ohne ein klares Verständnis des Phänomens des Bewusstseins mehr Probleme verursachen als lösen?

Werbung
Quelle : Harrison Broadbent / Unsplash

In Künstliche Intelligenz: Ein Leitfaden für das Denken des Menschen Melanie Mitchell, eine ehemalige Doktorandin von Hofstadter, beschreibt die Angst vor rücksichtsloser KI-Entwicklung, die ihr Mentor einmal bei einem Treffen 2014 in der Unternehmenszentrale in Mountainview, Kalifornien, in einem Raum voller Google-Ingenieure zum Ausdruck gebracht hat.

"Ich finde es sehr beängstigend, sehr beunruhigend, sehr traurig, und ich finde es schrecklich, schrecklich, bizarr, verwirrend, verwirrend, dass Menschen blind und wahnsinnig vorwärts eilen, wenn sie diese Dinge erschaffen."

Das ist eine ganze Menge unappetitlicher Adjektive, die man aneinander reihen muss. Aber wenn eine solche Sprache von jemandem kommt der Philosoph Daniel Dennet sagt, es ist besser als jeder andere, die Phänomene des Geistes zu studieren, es lässt Sie die potenzielle Schwerkraft dessen schätzen, was auf dem Spiel steht.

Bewusste KI: nicht in unserem Leben

Während die Sorgen von Hofstadters auf einer bestimmten Ebene durchaus zutreffen, denken andere, wie Mitch Kapor, der Unternehmer und Mitbegründer der Electronic Frontier Foundation und Mozilla, dass wir uns noch nicht in Panik versetzen sollten. Sprechen Sie mit Vanity Fair 2014 warnt Kapor: „Die menschliche Intelligenz ist ein wunderbares, subtiles und schlecht verstandenes Phänomen. Es besteht keine Gefahr, sie bald zu duplizieren.“

Werbung

Tegmark bezeichnet diejenigen, die das Gefühl haben, dass KapI Hunderte von Jahren entfernt ist, als „Technoskeptiker“. Zu diesen Gruppen gehören Rodney Brooks, der ehemalige MIT-Professor und Erfinder des Roomba-Roboterstaubsaugers, und AndrewNg, ehemaliger Chefwissenschaftler bei Baidu, Chinas Google, der laut Tegmark gesagt hat: "Die Angst vor einem Aufstieg von Killerrobotern ist wie die Sorge um die Überbevölkerung auf dem Mars."

„Eine Ansicht unter Experten, dass KI-Systeme wahrscheinlich über 50% die allgemeinen menschlichen Fähigkeiten bis 2040-50 und sehr wahrscheinlich mit einer Wahrscheinlichkeit von 90% bis 2075 erreichen werden.“

Das mag nach Übertreibung klingen, aber bedenken Sie, dass es keine Software gibt, die in Bezug auf die Gesamtcomputerfähigkeit dem Gehirn in der Lage ist, mit dem Gehirn mithalten zu können.

Vor seinem Tod im Jahr 2018 schrieb Paul Allen, Microsoft-Mitbegründer und Gründer des Allen Institute for Brain Science, zusammen mit Mark Greaves in der MIT Technology Review Das Erreichen der Singularität, der Punkt, an dem sich die Technologie über die Fähigkeit des Menschen hinaus entwickelt, sie zu überwachen, vorherzusagen oder zu verstehen, erfordert weit mehr als nur das Entwerfen immer kompetenterer Maschinen :

Werbung

„Um die Singularität zu erreichen, reicht es nicht aus, die heutige Software schneller auszuführen. Wir müssten auch intelligentere und leistungsfähigere Softwareprogramme erstellen. Die Erstellung dieser Art fortschrittlicher Software erfordert ein vorheriges wissenschaftliches Verständnis der Grundlagen der menschlichen Wahrnehmungund wir kratzen nur an der Oberfläche. Dieses vorherige Bedürfnis, die grundlegende Wissenschaft der Erkenntnis zu verstehen, ist der Punkt, an dem uns die Argumente „Singularität ist nahe“ nicht überzeugen können. “

Gleichgesinnte wie Naveen Joshi, der Gründer von Allerin, einem Unternehmen, das sich mit Big Data und maschinellem Lernen befasst, behaupten, dass wir von der Erreichung der AGI „sprunghaft“ entfernt sind Forbes Das schiere Tempo unserer Entwicklung in der KI könnte leicht seine Meinung ändern.

Es befindet sich in der Hor-AI-Zone

Es ist durchaus möglich, dass die Skalen zugunsten derjenigen kippen, die glauben, dass die AGI irgendwann vor dem Ende des Jahrhunderts erreicht wird. 2013 veröffentlichten Nick Bostrom von der Universität Oxford und Vincent Mueller von der Europäischen Gesellschaft für kognitive Systeme eine Umfrage in Grundlegende Fragen der künstlichen Intelligenz dies hat die Wahrnehmung von Experten auf dem Gebiet der KI hinsichtlich des Zeitrahmens gemessen, in dem die Technologie ein menschenähnliches Niveau erreichen könnte.

Der Bericht enthüllt „eine Ansicht unter Experten, dass KI-Systeme wahrscheinlich über 50% die allgemeinen menschlichen Fähigkeiten bis 2040-50 und sehr wahrscheinlich mit einer Wahrscheinlichkeit von 90% bis 2075 erreichen werden.“

"Schnelle Fortschritte in den kommenden Jahrzehnten werden Maschinen mit Intelligenz auf menschlicher Ebene hervorbringen, die in der Lage sind zu sprechen und zu argumentieren, mit einer Vielzahl von Beiträgen zu Wirtschaft, Politik und unweigerlich zu Kriegskunst."

Der Futurist Ray Kurzweil, der Informatiker hinter Musiksynthesizer- und Text-to-Speech-Technologien, glaubt auch an die schnelle Annäherung der Singularität. Kurzweil ist von der Geschwindigkeit dieser Entwicklung so überzeugt, dass er hart setzt. Wörtlich, er setzt Kapor $ 10.000 dass eine Maschinenintelligenz den Turing-Test bestehen kann, eine Herausforderung, die bestimmt, ob ein Computer einen menschlichen Richter dazu bringen kann, sich selbst als menschlich zu betrachten, bis 2029.

Kurz danach, wie er kürzlich in einem Gespräch mit der Society for Science sagte die Menschheit wird mit der Technologie verschmelzen es hat geschaffen und unseren Geist in die Wolke hochgeladen. So bewundernswert dieser Optimismus auch ist, dies erscheint angesichts unseres neu entstehenden Verständnisses des Gehirns und seiner Beziehung zum Bewusstsein unwahrscheinlich.

Christof Koch, ein früher Verfechter des Bestrebens, die physischen Korrelate des Bewusstseins zu identifizieren, verfolgt einen fundierteren Ansatz und behält gleichzeitig den Optimismus für die in naher Zukunft auftretende menschenähnliche KI bei. Schreiben in Scientific American 2019 sagt er: „Schnelle Fortschritte in den kommenden Jahrzehnten werden Maschinen mit Intelligenz auf menschlicher Ebene hervorbringen, die in der Lage sind zu sprechen und zu argumentieren, mit einer Vielzahl von Beiträgen zu Wirtschaft, Politik und unweigerlich zu Kriegskunst.“

Quelle : Besessene Fotografie / Unsplash

Koch ist auch einer der Autoren der Informationsintegrationstheorie des Bewusstseins des Neurowissenschaftlers Guilio Tononi. Wie Tegmark es ausdrückt, argumentiert die Theorie: „Bewusstsein ist die Art und Weise, wie sich Informationen anfühlen, wenn sie auf bestimmte komplexe Weise verarbeitet werden.“ IIT behauptet, dass dieDas Bewusstsein eines Systems kann durch eine Metrik von 𝚽 oder Phi beurteilt werden, ein mathematisches Maß, das angibt, wie viel Kausalkraft diesem System innewohnt.

In Kochs Buch Die Suche nach Bewusstsein: Ein neurobiologischer Ansatz , Koch entspricht Phi in dem Maße, in dem ein System „mehr als die Summe seiner Teile“ ist. Er argumentiert, dass p hi kann eine Eigenschaft einer biologischen oder nicht biologischen Entität sein.

Im Wesentlichen könnte dieses Maß verwendet werden, um anzuzeigen, wie bewusst das Innenleben eines Systems von den anderen Innenfunktionen dieses Systems ist. Wenn 𝚽 0 ist, gibt es kein solches Bewusstsein, und das System fühlt nichts.

Die Theorie ist zwar eine von vielen, aber sie ist bemerkenswert für ihren Versuch der mathematischen Messbarkeit, der dazu beiträgt, das immaterielle Gefühl des Bewusstseins greifbar zu machen. Wenn es sich als richtig herausstellt, würde es im Wesentlichen die Möglichkeit ausschließen, dass Maschinen bewusst sind, etwasdass Tononi in einem Interview mit dem BBC :

„Wenn die integrierte Informationstheorie korrekt ist, können sich Computer genau wie Sie und ich verhalten - tatsächlich können Sie möglicherweise sogar ein Gespräch mit ihnen führen, das genauso lohnend oder lohnender ist als mit Ihnen oder mir - und doches wäre buchstäblich niemand da. ”

Optimismus einer menschlichen Art

Die Verflechtung von Bewusstsein und KI stellt so etwas wie einen zivilisatorischen, hochdrahtigen Balanceakt dar. Es gibt möglicherweise keine anderen Bereiche wissenschaftlicher Forschung, in denen wir so schnell Fortschritte machen, während wir so wenig Ahnung haben, was wir möglicherweise tun.

"100% der Anstrengungen zur Vermeidung von Krankheiten und Unfällen zu unternehmen, ist ein großartiges Rezept für Hypochondrien und Paranoia, nicht für Glück."

Wenn es uns absichtlich oder zufällig gelingt, Maschinen zu schaffen, die die Welt subjektiv erleben, wären die ethischen Implikationen monumental. Es wäre auch ein Wendepunkt für unsere Spezies, und wir müssten uns mit dem auseinandersetzen, was es bedeutethaben im Wesentlichen neues Leben geschaffen. Ob diese eine entfernte Möglichkeit bleiben oder uns gleich um die Ecke erwarten, wir tun gut daran, sie ernsthafter in Betracht zu ziehen.

In jedem Fall kann es nützlich sein, mit weniger Angst und vorsichtigerem Optimismus über diese Themen nachzudenken. Dies ist genau der Ton, den Tegmark am Ende seines Buches trifft, in dem er die folgende Analogie anbietet :

„Wenn MIT-Studenten in mein Büro kommen, um sich beruflich beraten zu lassen, frage ich sie normalerweise, wo sie sich in einem Jahrzehnt sehen. Wenn ein Student antworten würde:„ Vielleicht bin ich auf einer Krebsstation oder danach auf einem FriedhofVon einem Bus angefahren zu werden: "Ich würde es ihr schwer machen, [...] 100% der Anstrengungen zur Vermeidung von Krankheiten und Unfällen zu unternehmen, ist ein großartiges Rezept für Hypochondrien und Paranoia, nicht für Glück."

Wie auch immer der Geist von AGI aussehen mag, er wird von unserem eigenen beeinflusst und reflektiert. Es scheint, dass jetzt der perfekte Zeitpunkt für die Menschheit ist, das Projekt zu priorisieren, gemeinsam herauszufinden, welche ethischen und moralischen Prinzipien uns am Herzen liegenDies wäre nicht nur lehrreich, wie man mit Würde miteinander umgeht, sondern würde auch dazu beitragen, dass künstliche Intelligenz, wenn sie kann, dasselbe tut.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.