In diesem Jahrhundert wird der Menschheit vorhergesagt, dass sie eine transformative Erfahrung durchmachen wird, wie sie seit dem Beginn unserer Rede nicht mehr gesehen wurde, Modewerkzeuge und Pflanzen. Diese Erfahrung hat verschiedene Namen - "Intelligence Explosion", "Accelerando", "Technologische Singularität" - aber eines haben sie alle gemeinsam.
Sie alle laufen auf die Hypothese hinaus, dass sich beschleunigender Wandel, technologischer Fortschritt und Wissen beschleunigenwird die Menschheit radikal verändern. In ihren verschiedenen Formen zitiert diese Theorie Konzepte wie die iterative Natur der Technologie, Fortschritte in der Informatik und historische Fälle, in denen bedeutende Innovationen zu einem explosiven Wachstum der menschlichen Gesellschaften führten.
Viele Befürworter glauben, dass diese „Explosion“ oder „Beschleunigung“ irgendwann während des 21.st Jahrhundert. Während die Einzelheiten umstritten sind, herrscht unter den Befürwortern allgemeiner Konsens, dass es auf Entwicklungen in den Bereichen Computer und künstliche Intelligenz KI, Robotik, Nanotechnologie und Biotechnologie hinauslaufen wird.Außerdem gibt es Meinungsverschiedenheiten darüber, wie es ablaufen wird, ob es das Ergebnis eines immer schneller werdenden Wandels sein wird, eine außer Kontrolle geratene Beschleunigung durch sich selbst replizierende und sich selbst verbessernde Maschinen ausgelöst wird, eine "Intelligenzexplosion" verursacht wirdbis zum
Geburt einer fortschrittlichen und unabhängigen KI oder das Ergebnis biotechnologischer Erweiterung und Verbesserung.Die Meinungen gehen auch darüber auseinander, ob dies als plötzliches wechselartiges Ereignis oder als allmählicher Prozess empfunden wird, der sich über die Zeit erstreckt und möglicherweise keinen definierbaren Anfangs- oder Wendepunkt hat. Aber so oder so ist man sich einig, dass sobald die Singularität
macht auftreten, das Leben wird nie wieder dasselbe sein. Insofern ist der Begriff "Singularität" - der normalerweise im Zusammenhang mit Schwarzen Löchern verwendet wird - durchaus treffend, weil auch er einen Ereignishorizont hat, einen Zeitpunkt, an dem unseredie Fähigkeit, ihre Auswirkungen zu verstehen, bricht zusammen.Werbung
Die Verwendung des Begriffs "Singularität" in diesem Zusammenhang erschien zuerst in einem Artikel von Stanislav Ulam über das Leben und die Errungenschaften von
John von Neumann. Während er die Meinungen seines Freundes erzählte, beschrieb Ulam, wie die beiden an einer Stelle über die Beschleunigung des Wandels sprachen: "Ein Gespräch konzentrierte sich auf den immer schneller werdenden Fortschritt der Technologie und die Veränderungen in der Lebensweise des Menschen, was den Anschein erweckt, als würde man sich einigen wesentlichen Dingen nähern
Singularität in der Geschichte der Rasse, jenseits derer die menschlichen Angelegenheiten, wie wir sie kennen, nicht weitergehen konnten." Die Idee, dass die Menschheit eines Tages eine "Geheimdienstexplosion" erreichen könnte, hat jedoch einen Präzedenzfall, der Ulams Beschreibung vorausgeht. Mahendra Prasad von der UC Berkeley schreibt beispielsweise dem Mathematiker Nicolas de Condorcet aus dem 18.sowie das Erstellen des ersten Modells dafür.
Werbung
, Skizze für ein historisches Bild des Fortschritts des menschlichen Geistes: Zehnte Epoche1794, de Condorcet drückte aus, wie Wissenserwerb, technologische Entwicklung, und der menschliche moralische Fortschritt wurde beschleunigt:"Wie viel größer wäre die Gewissheit, wie viel größer wäre das Schema unserer Hoffnungen, wenn... diese natürlichen [menschlichen] Fähigkeiten selbst und diese [menschliche] Organisation auch verbessert werden könnten?... Die Verbesserung der medizinischenPraxis... wird mit dem Fortschritt der Vernunft wirksamer...
"[W]e sind fest davon überzeugt, dass die durchschnittliche Lebenserwartung eines Menschen ewig zunehmen wird...
Können wir [unsere] Hoffnungen [der Vervollkommnung] nicht auf die intellektuellen und moralischen Fähigkeiten ausdehnen?...] Organisation?"Werbung
Spekulationen zur ersten ultraintelligenten Maschine", wo er behauptete, dass eine intelligentere als KI in einem fortlaufenden Prozess namens " noch intelligentere KIs schaffen könnte.Unterbaugruppentheorie."1965 bemerkte der amerikanische Ingenieur Gordon Moore, dass die
Anzahl der Transistoren auf einem integrierten Schaltkreis IC kann erwartet werden, sich jedes Jahr zu verdoppeln später auf ungefähr alle zwei Jahre aktualisiert. Dies wurde als " bekannt. Mooresches Gesetz" und wird verwendet, um die exponentielle Natur des Computings in der zweiten Hälfte des 20. Jahrhunderts zu beschreiben. Es wird auch in Bezug auf die Singularität erwähnt und warum eine "Intelligenzexplosion" unvermeidlich ist.1983, Vernor Vinge
beliebte die Theorie in einem Kommentar für Omni Magazin, wo er behauptetediese sich schnell selbst verbessernde KI würdeerreiche schließlich eine "Art von Singularität", jenseits von welche Realität wäre schwer vorherzusagen. Hier wurde auch der erste Vergleich mit einem Schwarzen Loch gezogen:Werbung
Wie und wann?
Vinge popularisierte die technologische Singularität in einem Aufsatz von 1993 mit dem Titel "
Die kommende technologische Singularität: Wie man in der posthumanen Ära überlebt." Vinge bekräftigte nicht nur die Natur des Konzepts, sondern legte auch vier mögliche Szenarien dafür dar, wie diese Veranstaltung stattfinden könnte. Dazu gehörten:Werbung
Dieses Szenario basiert auf der Idee, dass Menschen irgendwann Computer entwickeln können, die " bewusst." Wenn so etwas möglich ist, sagte Vinge, besteht kein Zweifel, dass eine künstliche Intelligenz, die weitaus fortgeschrittener ist als die Menschheit, natürlich entstehen könnte.Netzwerk:
In diesem Szenario würden große Computernetzwerke und ihre jeweiligen Benutzer zusammenkommen, um übermenschliche Intelligenz zu bilden.Geist-Maschine-Schnittstelle:
Vinge schlug auch ein Szenario vor, in dem menschliche Intelligenz mit Computern verschmelzen könnte, um ihre Intelligenz zu erhöhen, was zu übermenschlicher Intelligenz führt.Geführte Entwicklung:
Es ist auch möglich, sagte Vinge, dass die biologische Wissenschaft so weit vordringen könnte, dass sie ein Mittel zur Verbesserung des natürlichen menschlichen Intellekts bieten würde.Der vielleicht berühmteste Befürworter des Konzepts ist jedoch der bekannte Erfinder und Futurist Ray Kurzweil. Sein Buch von 2005,
Die Singularität ist nahe: Wenn der Mensch die Biologie transzendiert, ist vielleicht sein bekanntestes Werk und erweitert die Ideen, die in früheren Büchern vorgestellt wurden, vor allem seine "Gesetz der beschleunigten Renditen."Werbung
"Die Singularität wird es uns ermöglichen, diese Beschränkungen unseres biologischen Körpers und Gehirns zu überwinden", schrieb Kurzweil. "Es wird keine Unterscheidung zwischen Mensch und Maschine geben, nach der Singularität." Er sagte weiter voraus, dass die Singularität stattfinden würde bis2045, da dies der früheste Zeitpunkt war, an dem die computergestützte Intelligenz die Summe der menschlichen Gehirnleistung deutlich übersteigen würde
Um diese Trends bei der Arbeit zu sehen, verweisen Futuristen und spekulative Denker im Allgemeinen auf Beispiele bedeutender Innovationen aus der Menschheitsgeschichte, wobei sie sich oft auf Technologien konzentrieren, die die Art und Weise, wie wir Informationen übermitteln und konsumieren, exponentiell beschleunigt haben. In allen Fällen besteht der Zweck darin, zu zeigenwie die Zeitverzögerung zwischen Innovationen immer kürzer wird.
Quelle:
Eine wichtige Denkweise hat mit der Art und Weise zu tun, wie Daten geteilt werden, die auch als " bekannt ist.
Nachrichtenkomprimierung." Die Grundidee hier ist, dass die fortschreitende Menge an Daten, die Menschen erstellen und teilen, als Ausdruck der Zeit über die Anzahl der Menschen gemessen werden kann, die uns das Medium ermöglicht.Zum Beispiel sind Höhlenmalereien die frühesten bekannten Mittel der indirekten dh nonverbalen Kommunikation, wobei einige der frühesten auf ca. 40.000 Jahre datiert werden. Diese Gemälde - die historische Aufzeichnungen, Ahnengeschichten oderder Frühste
Kataloge damals bekannter Konstellationen - wurden wahrscheinlich nur von Mitgliedern der Großfamiliengemeinschaften gesehen, die sie hergestellt haben.Die nächste große Innovation entstand in der Jungsteinzeit - ca. 9.000 vals Gegenstände.
Dann kamen vor etwa 3.000 Jahren die ersten Alphabete, wie die phönizische Schrift. Es folgten Massendrucktechniken, die mit dem Holzschnitt ca. 3. Jahrhundert begannen, gefolgt von beweglichen Lettern im 11. Jahrhundert und dem DruckPresse im 15. Jh. Der Telegraph folgte 1792, der die typisierte Kommunikation von einem Teil des Planeten zum anderen ermöglichte.
Dann kam das Telefon von Alexander Graham Bell im Jahr 1876, das akustische Nachrichten über große Entfernungen ermöglichte. Auf den Funkverkehr folgte die Jahrhundertwende, die die Audiokommunikation noch weiter brachte. Dies wurde in kurzer Zeit von der Übertragung von bewegten Bildern begleitet undFernsehen Kombination von Audio- und Bildnachrichten bis Mitte der 1920er Jahre.
Bis 1931 bauten HL Hazen und Vannevar Bush vom MIT den Differentialanalysator [
PDF], der fortschrittlichste analoge Computer, der je hergestellt wurde. 1939 wurde der erste elektromechanische analoge Computer auch bekannt als digitaler Computer eingeführt. In den 1940er Jahren und im Zweiten Weltkrieg basierten Computer auf Vakuumröhren,Transistoren und gespeicherte Programme wurden erstellt.Während der 1950er Jahre, die erste
integrierte Schaltkreise wurden erfunden, und in den 1960er Jahren begannen persönliche "Desktop" -Computer auf den Markt zu kommen. 1975 brachte IBM den ersten mobilen Computer IMB 5100 und den ersten "Laptop" bis 1980 auf den Markt. Bis zur Jahrtausendwende, Smartphone-Nutzung und mobiles Computingwurde ebenso produktiv wie der Sektor der Informationstechnologie IT.Um es in die richtige Perspektive zu rücken, prädiktive Analysten vergleichen die moderne Smartphone-Technologie oft mit den Computern der Apollo-Ära. Während die NASA-Computer das
geführte Astronauten zum Mondsechsmal zwischen 1969 und 1972 hatte die entspricht 73.728 Byte Arbeitsspeicher. Smartphones haben heute sogar 32 GB Speicher, etwa 430.000 mal so viel Arbeitsspeicher wie der Apollo-Leitcomputer.Quelle:
Reise 1 und 2 Raumsonde – die die äußeren Planeten erforschte und als erste von Menschenhand geschaffene Objekte den interstellaren Raum erreichte – besitzt jeweils 69,63 Kilobyte Speicher. Zum Vergleich: Apples iPhone 5 erstmals 2012 veröffentlicht hat bis zu 16 Gigabyte Speicher, wasist etwa 240.000 größer.Kurz gesagt, die Menschen von heute konsumieren und produzieren Datenmengen, die Menschen, die noch vor zwei Generationen lebten, absolut in Erstaunen versetzen würden. Bei diesem Tempo könnten Erwachsene in nur einer Generation in einer Welt leben, die für uns heute praktisch unergründlich ist.
Das „Informationszeitalter“ und „Big Data“
Ein weiterer wichtiger Indikator dafür, dass sich eine Singularität am Horizont abzeichnet, ist die Art und Weise, wie die Informationstechnologie und die Informationsproduktion im Laufe der Zeit enorm zugenommen haben. Mit Fortschritten wie Computern, Netzwerken, Internet und drahtloser Technologie ist die Zahl der Menschen, die mit unzähligen anderen verbunden sind, gestiegenexponentiell in sehr kurzer Zeit.
Zwischen
1990 und 2016, die Zahl der Menschen mit Internetzugang weltweit wuchs von 2,6 Millionen auf 3.408 Millionen ein Multiplikationsfaktor von 1310. Laut einem Bericht von 2018 von der
Internationale Fernmeldeunion der Vereinten Nationen ITU, 90% der Weltbevölkerung wird bis 2050 dank des Wachstums mobiler Geräte Zugang zu Breitband-Internetdiensten haben und Satelliten-Internetdienste. Das sind 8,76 Milliarden Menschen, ein Anstieg von 220 % gegenüber den 4 Milliarden Menschen etwa der Hälfte der Weltbevölkerung, die derzeit Zugang haben.Eine weitere wichtige Kennzahl ist die im Laufe der Zeit generierte Datenmenge. Während der
2010 Technonomie-Konferenz, Google CEO Eric Schmidt behauptete, dass die Menschheit alle zwei Tage so viele Informationen erstellt wie zwischen den Morgendämmerung der Zivilisation vor ca. 6000 Jahren und 2003. Dies, schätzte er, lag in der Nähe von fünf Exabyte EB von Daten, oder fünf Tillion 1018 Byte.In den 2010er Jahren trat die Menschheit in das ein, was als " bekannt ist.
Zettabyte-Ära", wobei die generierte Datenmenge einer Sextillion 10 entsprach21 Byte.Entsprechend Statista, die Datenmengeerstellt zwischen 2010 und 2020 von 2 auf 64,2 ZBs – ein Anstieg von 32 % pro Jahr – und wird bis 2025 voraussichtlich 181 ZBs erreichen – ein Anstieg von 36 % pro Jahr.Ähnlich hat auch die Menge der im Laufe der Zeit aufbewahrten Daten enorm zugenommen. Zwischen 2005 und 2020 wuchs die Speicherkapazität weltweit von 200 EB Daten an
6,7 ZBs durchschnittlich 223% pro Jahr. Bei einer geschätzten durchschnittlichen jährlichen Wachstumsrate von 19,2% wird die globale Speicherkapazität schätzungsweise erreichen16,12 ZBs bis 2025.Was wird darüber hinaus kommen? Angesichts des aktuellen Fortschritts wird die Menschheit wahrscheinlich in die "Yottabyte-Ära" eintreten 1024
Bytes vor 2050 rollt herum.Aber da die Rate selbst einer Beschleunigung unterliegt, ist es nicht ausgeschlossen, dass dieser Meilenstein viel früher als Mitte des Jahrhunderts kommt.All diese Daten bilden die Grundlage für menschliches Wissen, und da immer mehr Menschen sich mit Hochgeschwindigkeits-Internetverbindungen verbinden und diese erstaunliche Datenmenge im Wesentlichen in Reichweite oder möglicherweise direkt in ihrem Gehirn finden, diese kollektive Bibliothekkönnte als eine Art Startrampe für eine technologische Singularität dienen.Künstliche Intelligenz
Ein weiterer erwarteter Weg zur Singularität ist die Entwicklung fortschrittlicher künstlicher Intelligenz KI. Dieses Konzept wurde ursprünglich von dem berühmten Mathematiker und Codebrecher Alan Turning populär gemacht, der in seinem Aufsatz von 1950 die Frage "können Maschinen denken?"
Computermaschinen und Intelligenz
." In diesem Papier entwickelte er auch sein berühmtes "Imitation Game" auch bekannt als "Turing Test".Das Spiel, schrieb Turning, würde aus einem menschlichen Vernehmer bestehen, der versucht, zwischen einem Computer und einem Menschen zu unterscheiden, der auf eine Reihe von Fragen in Textform antwortete. Wie Turing erklärte:"Wir stellen jetzt die Frage: 'Was passiert, wenn eine Maschine in diesem Spiel die Rolle von A übernimmt?' Wird der Vernehmer bei dieser Spielweise genauso oft falsch entscheiden wie bei der Partie zwischen aMann und Frau? Diese Fragen ersetzen unser ursprüngliches 'Können Maschinen denken?'"
In,
Prof. Stuart Russell
UC Berkeley und Peter Norvig Director of Research bei Google veröffentlichte ein führendes Lehrbuch zum Studium der KI mit dem Titel Künstliche Intelligenz: Ein moderner Ansatz. Darin wurde zwischen Computersystemen, die wie Menschen denken und handeln, und solchen, die denken und handeln würden, unterschieden. rational.In den letzten Jahrzehnten wurde diese Unterscheidung dank Supercomputern, maschineller Intelligenz, Deep Learning und anderen Anwendungen, die in der Lage sind, Informationen zu verarbeiten und Muster zu erkennen, deutlicher. Ter Fortschritt in Richtung "Maschinen, die denken" hat mit den Verbesserungen in der Computertechnik Schritt gehalten und zu Programmen geführt, die die menschliche Intelligenz in mancher Hinsicht weit übertreffen.
1959 begannen die Bemühungen um die Entwicklung von KI ernsthaft mit der Erfindung des Allgemeiner Problemlöser
GPS, ein Computerprogramm, das von den Ökonomen und Kognitionspsychologen Herbert A. Simon und JC Shaw und Allen Newell von der RAND Corporation entwickelt wurde. Dieses Programm, so hofften sie, würde zur Entwicklung einer „universellen Problemlösemaschine“ führen."1957, der erste Computer, der ein neuronales Netzwerk nachahmen sollte das Mark 1 Perzeptron
wurde von Frank Rosenblatt - einem amerikanischen Psychologen - entwickelt.Die Maschine demonstrierte die Fähigkeit, durch Versuch und Irrtum zu lernen, was Rosenblatt die inoffizielle Ehre einbrachte, der "Vater des Deep Learning" zu sein.Quelle: Wikimedia Commons
"-Algorithmen kurz Backpropagation wurden in neuronale Netze integriert, damit sie schneller arbeiten und Probleme lösen können, die zuvor als unlösbar galten. Diese werden zur tragenden Säule für alle zukünftigen neuronalen Netze und KI-Anwendungen.1996 enthüllte IBMTiefblau
, ein Schachcomputer, der den Schachweltmeister Garry Kasparov in einer Reihe von Spielen und Rückkämpfen absetzte. Bis 2008 beendete IBMs DeepQA-Projekt die Arbeit an Watson, ein Supercomputer zur Beantwortung von Fragen, der am Wettbewerb teilnehmen und gewinnen würdeGefahr!, besiegte die Champions Ken Jennings und Brad Rutter im Jahr 2011.2014 erwarb Google das britische TechnologieunternehmenDeepMind
, das maschinelles Lernen und Neurowissenschaften kombinierte, um universelle Lernalgorithmen zu entwickeln. Im Jahr 2016 schlug das AlphaGo-Programm des Unternehmens den Weltmeister Go-Spieler Lee Sodol in einem Spiel mit fünf Spielen.2015 das chinesische Unternehmen Baiduhat ein Papier veröffentlicht
erklärt, wie ihr Minwa-Supercomputer einen neuen Rekord für die Erkennung von Bildern aufgestellt hat und einen früheren Rekord von Google übertroffen hat. Dies wurde durch eine neue Art von Deep Learning namens a ermöglicht.konvolutionelles neuronales Netz, wodurch Bilder mit größerer Genauigkeit als der durchschnittliche Mensch identifiziert und kategorisiert werden können.Heute werden Supercomputer und maschinelles Lernen oft von Regierungen, Forschungsinstituten und dem Privatsektor verwendet, um "Data Mining" durchzuführen - Auffinden von Anomalien, Mustern und Korrelationen in großen Datensätzen. Dies ist notwendig, um
Umgang mit der wachsenden Menge an Informationen, die täglich erstellt werden, und um Ergebnisse vorherzusagen.1985, Prof. Strahl
J.Solomonoff - Erfinder der algorithmischen Informationstheorie - schrieb einen Aufsatz, in dem er die sieben Meilensteine der Entwicklung beschreibt, die erreicht werden müssen, bevor KI vollständig realisiert werden kann. Sie waren: Die Schaffung von KI als Feld, das Studium der menschlichen Problemlösung auch bekannt als "kognitive Psychologie" und die Entwicklung großer paralleler Computer ähnlich dem menschlichen Gehirn.Eine allgemeine Theorie der Problemlösung, die aus maschinellem Lernen, Informationsverarbeitung und -speicherung, Implementierungsmethoden und anderen neuartigen Konzepten besteht.
- Die Entwicklung einer Maschine, die sich selbst verbessern kann.
- Ein Computer, der fast jede Datensammlung lesen und den größten Teil des Materials in seine Datenbank aufnehmen kann.
- Eine Maschine, die in den Bereichen, für die sie entwickelt wurde dh Mathematik, Naturwissenschaften, industrielle Anwendungen usw. eine allgemeine Problemlösungskapazität hat, die der eines Menschen nahe kommt
- A
- Maschine
- mit a Kapazität in der Nähe das von der Computer Wissenschaft Gemeinschaft.Eine Maschine mit einer Kapazität, die um ein Vielfaches höher ist als die der Informatik-Community. Kurz gesagt, Solomonoff glaubte, dass die Entwicklung von KI darin bestehen würde, Maschinen zu bauen, die menschliche Gehirnfunktionen Lernen, Informationsspeicherung, Problemlösung, Selbstverbesserung usw. nachahmen und sie schließlich übertreffen könnten.er behauptete
- das musste aber erst noch alles erledigt werden.
Aufgrund dieser Roadmap stehen wir nun kurz davor, echte künstliche Intelligenz zu verwirklichen, da moderne Supercomputer den Menschen in vielerlei Hinsicht übertreffen können, aber nicht alle
— insbesondere im abstrakten oder intuitiven Denken. Trotzdem nähern wir uns dem Tag, an dem die maschinelle Intelligenz die Menschheit sehr wohl übertreffen könnte.Wenn dies geschieht, werden sich die wissenschaftliche Forschung und Entwicklung beschleunigen, was zu kühnen neuen Möglichkeiten führt. Wenn diese Maschinen damit beauftragt sind, fortschrittlichere Versionen ihrer selbst zu erstellen, haben sie möglicherweise keinen Grund, damit aufzuhören, sobald sie eine allgemeine Intelligenz auf menschlichem Niveau erreicht haben undkönnten sich einfach weiter verbessern, bis Sie das haben, was Kurtzweil eine künstliche Superintelligenz "Lift-Off" nannte, einen endgültigen Wendepunkt, der die technologische Singularität markiert.—
Aber natürlich sind Computing, Informationsproduktion und die Art und Weise, wie Fortschritte immer schneller zu kommen scheinen, nur einige der Wege, die uns zur sogenannten Singularität führen könnten. In Teil II werden wir untersuchen, wie Fortschritte inNanotechnologie und Medizintechnik führen uns auch zu einem Zeitpunkt, über den hinaus die Zukunft schwer vorhersehbar ist.
Wir werden auch einen Blick darauf werfen, wie diese prognostizierte Revolution ablaufen wird – ein schneller Beginn oder allmählich – und welche Auswirkungen dies haben könnte. Zu guter Letzt werden wir uns ansehen, was die Kritiker und Zweifler zu sagen habendarüber und wie es mit anderen Vorhersagen abschneidet, die nie wahr zu werden scheinen.
Werbung
Folgen Sie uns auf