Aufsatzinnovation

Posted on by Palmisano

Aufsatzinnovation




----

Eine Analyse der Technologiegeschichte zeigt, dass der technologische Wandel exponentiell ist, im Gegensatz zur "intuitiven linearen" Ansicht des gesunden Menschenverstandes. Wir werden also keine 100 Jahre Fortschritt im 21. Jahrhundert erleben - es wird mehr als 20.000 Jahre Fortschritt sein (in der heutigen Rate). Die "Renditen", wie Chip-Geschwindigkeit und Kosteneffektivität, steigen ebenfalls exponentiell an. Es gibt sogar ein exponentielles Wachstum der exponentiellen Wachstumsrate.

Innerhalb weniger Jahrzehnte wird die maschinelle Intelligenz die menschliche Intelligenz übertreffen und zu The Singularity führen - ein technologischer Wandel, der so schnell und tief greifend ist, dass er einen Riss in der Struktur der menschlichen Geschichte darstellt. Die Implikationen beinhalten die Verschmelzung von biologischer und nichtbiologischer Intelligenz, unsterblichen softwarebasierten Menschen und ultra-hohen Intelligenzniveaus, die sich im Universum mit Lichtgeschwindigkeit ausdehnen.

Sie werden $ 40 Billionen erhalten, wenn Sie diesen Aufsatz lesen und verstehen, was er sagt.

Für vollständige Details siehe unten. (Es ist wahr, dass Autoren alles tun werden, um Ihre Aufmerksamkeit zu behalten, aber ich meine diese Aussage ernst. Bis ich zu einer weiteren Erklärung zurückkomme, lese jedoch den ersten Satz dieses Paragraphen sorgfältig.)

Jetzt zurück in die Zukunft: Es wird weitgehend missverstanden. Unsere Vorfahren haben erwartet, dass die Zukunft ihrer Gegenwart ähnelt, die ihrer Vergangenheit ziemlich ähnlich war.

Obwohl vor etwa 1000 Jahren exponentielle Trends existierten, befanden sie sich in einem sehr frühen Stadium, in dem ein exponentieller Trend so flach ist, dass er wie kein Trend aussieht.

Ihr Mangel an Erwartungen wurde weitgehend erfüllt. Heute erwarten alle gemäß der allgemeinen Weisheit einen kontinuierlichen technologischen Fortschritt und die sozialen Auswirkungen, die sich daraus ergeben.

Aber die Zukunft wird viel überraschender sein, als die meisten Beobachter erkennen: Nur wenige haben die Implikationen der Tatsache, dass sich die Änderungsrate selbst beschleunigt, wirklich verinnerlicht.

Die intuitive lineare Ansicht gegenüber der historischen exponentiellen Ansicht

Die meisten langfristigen Vorhersagen der technischen Machbarkeit in zukünftigen Zeiträumen unterschätzen die Leistungsfähigkeit zukünftiger Technologien dramatisch, da sie auf dem basieren, was ich die "intuitive lineare" Sichtweise des technologischen Fortschritts anstelle der "historischen exponentiellen Sichtweise" nenne.

es ist nicht so, dass wir im einundzwanzigsten Jahrhundert hundert Jahre Fortschritt erleben werden; eher werden wir in der Größenordnung von zwanzigtausend Jahren des Fortschritts zeugen (um heute Fortschrittsrate, das ist).

Diese Disparität in der Perspektive kommt häufig in einer Vielzahl von Kontexten vor, zum Beispiel bei der Diskussion der ethischen Fragen, die Bill Joy in seiner umstrittenen WIRED-Titelgeschichte Warum uns die Zukunft nicht braucht.

Bill und ich wurden oft an verschiedenen Orten als Pessimisten und Optimisten gepaart. Obwohl von mir erwartet wird, Bills Position zu kritisieren, und obwohl ich tatsächlich mit seinem Verschuldungsverordnungsszenario zurechtkomme, verteidige ich Joy in der Regel am wichtigsten Punkt der Machbarkeit. Kürzlich hat ein Nobelpreisträger die Bedenken von Bill abgewiesen und erklärt: "Wir werden keine hundert Jahre lang selbstreplizierende Nano-Engineering-Unternehmen sehen." Ich habe darauf hingewiesen, dass 100 Jahre tatsächlich eine vernünftige Schätzung des erforderlichen technischen Fortschritts waren um diesen besonderen Meilenstein zu erreichen bei der heutigen Geschwindigkeit des Fortschritts.

Aber weil wir die Fortschrittsrate jedes Jahrzehnt verdoppeln, sehen wir ein Jahrhundert des Fortschritts -bei der heutigen Rate-in nur 25 Kalenderjahren.

Wenn Menschen an einen zukünftigen Zeitraum denken, gehen sie intuitiv davon aus, dass die derzeitige Fortschrittsrate für zukünftige Perioden anhält.

Eine sorgfältige Abwägung der Geschwindigkeit der Technologie zeigt jedoch, dass die Geschwindigkeit des Fortschritts nicht konstant ist, aber es liegt in der menschlichen Natur, sich an die sich ändernde Geschwindigkeit anzupassen, so dass die intuitive Ansicht lautet, dass das Tempo bei der derzeitigen Geschwindigkeit beibehalten wird.

Selbst für diejenigen von uns, die lange genug da waren, um zu erleben, wie sich das Tempo im Laufe der Zeit erhöht, vermittelt unsere ungeprüfte Intuition dennoch den Eindruck, dass sich der Fortschritt mit der Rate ändert, die wir in letzter Zeit erfahren haben.

Aus der Perspektive des Mathematikers ist ein Hauptgrund dafür, dass eine exponentielle Kurve eine gerade Linie annähert, wenn sie für eine kurze Dauer betrachtet wird.

Obwohl die Fortschrittsrate in der jüngsten Vergangenheit (z. B. im vergangenen Jahr) weitaus größer ist als vor zehn Jahren (ganz zu schweigen von vor hundert oder tausend Jahren), werden unsere Erinnerungen dennoch von unseren jüngsten Erfahrungen dominiert.

Es ist daher typisch, dass selbst hoch entwickelte Kommentatoren, wenn sie die Zukunft betrachten, das aktuelle Tempo der Veränderungen in den nächsten 10 Jahren oder 100 Jahren extrapolieren, um ihre Erwartungen zu bestimmen. Deshalb nenne ich diese Art des Blicks in die Zukunft die "intuitive lineare" Sichtweise.

Aber eine ernsthafte Bewertung der Geschichte der Technologie zeigt, dass der technologische Wandel exponentiell ist.

Bei exponentiellem Wachstum stellen wir fest, dass eine Schlüsselmessung wie die Rechenleistung für jede Zeiteinheit mit einem konstanten Faktor multipliziert wird (z. B. jedes Jahr verdoppelt), anstatt nur inkrementell addiert zu werden.

Exponentielles Wachstum ist ein Merkmal jedes evolutionären Prozesses, von dem die Technologie ein primäres Beispiel ist. Man kann die Daten untersuchen

auf unterschiedliche Weise, auf unterschiedlichen Zeitskalen und für eine breite Palette von Technologien, die von elektronisch bis biologisch reichen, und die Beschleunigung von Fortschritt und Wachstum zutrifft. In der Tat finden wir nicht nur einfaches exponentielles Wachstum, sondern "doppeltes" exponentielles Wachstum, was bedeutet, dass die Rate des exponentiellen Wachstums selbst exponentiell wächst.Diese Beobachtungen beruhen nicht nur auf einer Annahme der Fortsetzung von Moores Gesetz (d.

H. Dem exponentiellen Schrumpfen der Transistorgrößen auf einer integrierten Schaltung), sondern beruhen auf einem reichen Modell verschiedener technologischer Prozesse. Was deutlich zeigt, ist, dass die Technologie, insbesondere das Tempo des technologischen Wandels, (zumindest) exponentiell, nicht linear fortschreitet, und dies seit dem Aufkommen der Technologie, ja seit dem Aufkommen der Evolution auf der Erde.

Ich betone diesen Punkt, weil es der wichtigste Fehler ist, den zukünftige Prognostiker bei der Berücksichtigung zukünftiger Trends machen.

Die meisten Technologieprognosen ignorieren diese "historische Exponentialansicht" des technologischen Fortschritts völlig. Aus diesem Grund neigen die Menschen dazu, zu überschätzen, was kurzfristig erreicht werden kann (weil wir dazu neigen, notwendige Details wegzulassen), unterschätzen aber, was auf lange Sicht erreicht werden kann (weil das exponentielle Wachstum ignoriert wird).

Das Gesetz der beschleunigten Rückkehr

Wir können diese Beobachtungen in dem, was ich das Gesetz der beschleunigten Erträge nenne, wie folgt organisieren:

  • Evolution übt positives Feedback aus, indem die fähigeren Methoden, die aus einer Stufe des evolutionären Fortschritts resultieren, verwendet werden, um die nächste Stufe zu schaffen.

    Als Ergebnis der

  • Fortschrittsrate eines evolutionären Prozesses nimmt exponentiell mit der Zeit zu. Im Laufe der Zeit nimmt die "Ordnung" der im Entwicklungsprozess eingebetteten Informationen (d. H. Das Maß dafür, wie gut die Information zu einem Zweck passt, der in der Evolution das Überleben darstellt) zu.
  • Ein Korrelat der obigen Beobachtung ist, dass die "Rückkehr" eines evolutionären Prozesses (z.

    B. die Geschwindigkeit, die Kosteneffektivität oder insgesamt "Leistung" eines Prozesses) mit der Zeit exponentiell ansteigt.

  • In einer anderen positiven Rückkopplungsschleife werden, wenn ein bestimmter Entwicklungsprozess (z. B. eine Berechnung) effektiver (z. B. kosteneffektiv) wird, größere Ressourcen für den weiteren Fortschritt dieses Prozesses eingesetzt.

    Dies führt zu einem zweiten exponentiellen Wachstum (d. H. Die Rate des exponentiellen Wachstums wächst exponentiell).

  • Die biologische Evolution ist ein solcher evolutionärer Prozess.
  • Die technologische Evolution ist ein weiterer solcher evolutionärer Prozess. In der Tat führte das Aufkommen der ersten technologieerzeugenden Spezies zum neuen evolutionären Prozess der Technologie. Daher ist die technologische Evolution ein Auswuchs von und eine Fortsetzung der biologischen Evolution.
  • Ein spezifisches Paradigma (eine Methode oder ein Ansatz zum Lösen eines Problems, z.

    B. das Schrumpfen von Transistoren auf einer integrierten Schaltung als ein Ansatz zum Herstellen von leistungsfähigeren Computern) liefert ein exponentielles Wachstum, bis das Verfahren sein Potential erschöpft.

    Wenn dies geschieht, findet ein Paradigmenwechsel (d. H. Eine grundlegende Änderung des Ansatzes) statt, wodurch das exponentielle Wachstum fortgesetzt werden kann.

Wenn wir diese Prinzipien auf der höchsten Ebene der Evolution auf der Erde anwenden, hat der erste Schritt, die Schaffung von Zellen, das Paradigma der Biologie eingeführt.

Das anschließende Auftauchen von DNA lieferte eine digitale Methode, um die Ergebnisse von evolutionären Experimenten aufzuzeichnen. Dann führte die Evolution einer Spezies, die rationalen Gedanken mit einem opponierbaren Anhang (d. H. Dem Daumen) kombinierte, zu einem fundamentalen Paradigmenwechsel von der Biologie zur Technologie. Der bevorstehende primäre Paradigmenwechsel wird von biologischem Denken zu einer hybriden Kombination von biologischem und nichtbiologischem Denken führen.

Dieser Hybrid wird "biologisch inspirierte" Prozesse beinhalten, die aus dem Reverse Engineering biologischer Gehirne resultieren.

Wenn wir das Timing dieser Schritte untersuchen, sehen wir, dass sich der Prozess kontinuierlich beschleunigt hat.

Die Evolution der Lebensformen erforderte Milliarden von Jahren für die ersten Schritte (z. B. primitive Zellen); Später beschleunigte sich der Fortschritt. Während der kambrischen Explosion dauerte der Paradigmenwechsel nur einige zehn Millionen Jahre. Später entwickelten sich Humanoide über einen Zeitraum von Millionen von Jahren und Homo sapiens über einen Zeitraum von nur Hunderttausenden von Jahren.

Mit dem Aufkommen einer technologieerzeugenden Spezies wurde das exponentielle Tempo für die Evolution durch DNA-gesteuerte Proteinsynthese zu schnell und ging zu einer von Menschen geschaffenen Technologie über.

Technologie geht über den bloßen Werkzeugbau hinaus; Es ist ein Prozess, der mit den Werkzeugen der vorherigen Innovationsrunde immer leistungsfähigere Technologien schafft.

Auf diese Weise unterscheidet sich die menschliche Technologie von der Werkzeugherstellung anderer Arten. Es gibt eine Aufzeichnung für jede Stufe der Technologie, und jede neue Stufe der Technologie baut auf der Reihenfolge der vorherigen Stufe auf.

Die ersten technologischen Schritte - scharfe Kanten, Feuer, das Rad - dauerten Zehntausende von Jahren.

Für Menschen, die in dieser Zeit lebten, gab es in tausend Jahren kaum spürbare technologische Veränderungen. Um 1000 n.Chr. War der Fortschritt viel schneller und ein Paradigmenwechsel erforderte nur ein oder zwei Jahrhunderte. Im neunzehnten Jahrhundert sahen wir mehr technologischen Wandel als in den neun Jahrhunderten davor.

In den ersten zwanzig Jahren des zwanzigsten Jahrhunderts sahen wir mehr Fortschritt als im gesamten neunzehnten Jahrhundert. Jetzt finden Paradigmenwechsel in nur wenigen Jahren statt. Das World Wide Web existierte vor einigen Jahren nicht in seiner jetzigen Form; vor einem Jahrzehnt gab es sie überhaupt nicht.

Die Paradigmenverschiebungsrate (d.

H. Die Gesamtrate des technischen Fortschritts) verdoppelt sich derzeit (ungefähr) in jedem Jahrzehnt; das heißt, Paradigmenwechselzeiten halbieren sich in jedem Jahrzehnt (und die Beschleunigungsrate wächst selbst exponentiell).

Der technische Fortschritt im einundzwanzigsten Jahrhundert wird also dem entsprechen, was (in der linearen Ansicht) in der Größenordnung von 200 Jahrhunderten erforderlich wäre.Im Gegensatz dazu erlebte das zwanzigste Jahrhundert nur etwa 25 Jahre Fortschritt (wieder mit der heutigen Geschwindigkeit des Fortschritts), seit wir zu den gegenwärtigen Raten beschleunigt haben.

Das einundzwanzigste Jahrhundert wird also einen tausendmal größeren technologischen Wandel erfahren als sein Vorgänger.

Die Singularität ist in der Nähe

Um die Natur und Bedeutung der kommenden "Singularität" zu schätzen, ist es wichtig, über das Wesen des exponentiellen Wachstums nachzudenken.

Zu diesem Zweck erzähle ich gern von dem Erfinder des Schachspiels und seinem Patron, dem Kaiser von China. Als Antwort auf das Angebot des Kaisers, eine Belohnung für sein neues Lieblingsspiel zu erhalten, verlangte der Erfinder ein einzelnes Reiskorn auf dem ersten, zwei auf dem zweiten, vier auf dem dritten und so weiter.

Der Kaiser gab diese scheinbar harmlose und bescheidene Bitte schnell zu. Eine Version der Geschichte hat den Kaiser bankrott gemacht, als die 63 Verdoppelungen letztlich 18 Millionen Billionen Reiskörner betrugen.

Bei zehn Reiskörnern pro Quadratzoll müssen Reisfelder die doppelte Fläche der Erde bedecken, einschließlich der Ozeane. Eine andere Version der Geschichte hat den Erfinder den Kopf verloren.

Es sollte darauf hingewiesen werden, dass, als der Kaiser und der Erfinder die erste Hälfte des Schachbretts durchliefen, die Dinge ziemlich ereignislos waren.

Der Erfinder erhielt Löffel Reis, dann Schüsseln Reis und dann Fässer. Am Ende der ersten Hälfte des Schachbretts hatte der Erfinder einen Wert von einem großen Feld (4 Milliarden Körner) angesammelt, und der Kaiser fing an, Notiz davon zu nehmen.

Als sie die zweite Hälfte des Schachbretts durchschritten, verschlechterte sich die Situation schnell. Im Hinblick auf die Verdoppelungen der Berechnung ist das übrigens der Punkt, an dem wir jetzt stehen - es gab etwas mehr als 32 Verdoppelungen der Leistung, seit die ersten programmierbaren Computer während des Zweiten Weltkriegs erfunden wurden.

Dies ist die Natur des exponentiellen Wachstums. Obwohl die Technologie im exponentiellen Bereich wächst, leben wir Menschen in einer linearen Welt.

So werden technologische Trends nicht bemerkt, da sich die technologische Macht verdoppelt. Dann, scheinbar aus dem Nichts, explodiert eine Technologie. Zum Beispiel, als das Internet in den 1980er Jahren innerhalb von zwei Jahren von 20.000 auf 80.000 Knoten ging, blieb dieser Fortschritt der breiten Öffentlichkeit verborgen.

Ein Jahrzehnt später, als es in der gleichen Zeit von 20 Millionen auf 80 Millionen Knoten ging, war der Einfluss ziemlich auffällig.

Während sich das exponentielle Wachstum in der ersten Hälfte des 21. Jahrhunderts weiter beschleunigt, scheint es zumindest aus der begrenzten und linearen Perspektive des heutigen Menschen in die Unendlichkeit zu explodieren.

Der Fortschritt wird letztendlich so schnell werden, dass er unsere Fähigkeit zerstören wird, ihm zu folgen. Es wird buchstäblich außer Kontrolle geraten. Die Illusion, dass wir unsere Hand "auf dem Stecker" haben, wird zerstreut werden.

Kann das Tempo des technologischen Fortschritts auf unbestimmte Zeit weiter steigen?

Gibt es nicht einen Punkt, an dem Menschen nicht in der Lage sind, schnell genug zu denken, um damit Schritt zu halten? In Bezug auf unverbesserliche Menschen, eindeutig so. Aber was würden tausend Wissenschaftler, von denen jeder tausendmal intelligenter ist als menschliche Wissenschaftler heute, und die tausendmal schneller arbeiten als heutige Menschen (weil die Informationsverarbeitung in ihren primär nichtbiologischen Gehirnen schneller ist)? Ein Jahr wäre wie ein Jahrtausend.

Auf was würden sie kommen?

Nun, zum einen würden sie eine Technologie entwickeln, um noch intelligenter zu werden (weil ihre Intelligenz nicht mehr von fester Kapazität ist). Sie würden ihre eigenen Denkprozesse ändern, um noch schneller zu denken. Wenn sich die Wissenschaftler millionenfach intelligenter entwickeln und millionenfach schneller operieren, dann würde eine Stunde (in heutiger Sicht) ein Jahrhundert des Fortschritts bedeuten.

Das ist also die Singularität.

Die Singularität ist ein technologischer Wandel, der so schnell und so tief greifend ist, dass er einen Bruch in der Geschichte der Menschheit darstellt. Einige würden sagen, dass wir die Singularität nicht verstehen können, zumindest nicht mit unserem gegenwärtigen Verständnisstand, und dass es daher unmöglich ist, über ihren "Ereignishorizont" hinauszusehen und einen Sinn dessen zu entwickeln, was jenseits liegt.

Ich bin der Ansicht, dass wir trotz unserer tiefgreifenden Einschränkungen des Denkens, die wir heute auf nur hundert Billionen Interneuronalverbindungen in unseren biologischen Gehirnen beschränken, genügend Abstraktionsvermögen haben, um aussagekräftige Aussagen über die Natur des Lebens nach der Singularität zu treffen.

Am wichtigsten ist meiner Ansicht nach, dass die Intelligenz, die auftauchen wird, weiterhin die menschliche Zivilisation repräsentieren wird, die bereits eine Zivilisation der menschlichen Maschine ist. Dies wird der nächste Schritt in der Evolution sein, der nächste Paradigmenwechsel auf höchster Ebene.

Um das Konzept der Singularität zu relativieren, erforschen wir die Geschichte des Wortes selbst.

Singularität ist ein vertrautes Wort, das ein einzigartiges Ereignis mit tiefgreifenden Auswirkungen bedeutet. In der Mathematik bedeutet der Begriff unendlich, die Explosion des Werts, der auftritt, wenn eine Konstante durch eine Zahl geteilt wird, die näher und näher an Null kommt. Ähnlich bezeichnet eine Singularität in der Physik ein Ereignis oder einen Ort unendlicher Kraft. In der Mitte eines Schwarzen Lochs ist Materie so dicht, dass ihre Schwerkraft unendlich ist.

Da nahe Materie und Energie in das Schwarze Loch gezogen werden, trennt ein Ereignishorizont die Region vom Rest des Universums. Es stellt einen Bruch im Gewebe von Raum und Zeit dar. Das Universum selbst soll mit solch einer Singularität begonnen haben.

In den 1950er Jahren wurde John von Neumann mit den Worten zitiert, dass "der immer schnellere Fortschritt der Technologie .

den Anschein erweckt, sich einer wesentlichen Singularität in der Geschichte der Rasse zu nähern, jenseits derer menschliche Angelegenheiten, wie wir sie kennen, nicht weitergehen können." In den 1960er Jahren schrieb IJ Good über eine "Intelligenzexplosion", die von intelligenten Maschinen herrührte, die ihre nächste Generation ohne menschliches Zutun entwarfen. 1986 schrieb der Mathematiker und Informatiker an der San Diego State University, Vernor Vinge, in seinem Science-Fiction-Roman über eine sich schnell nähernde technologische "Singularität", In Echtzeit marooned. 1993 legte Vinge dann einem von der NASA organisierten Symposium ein Papier vor, das die Singularität als ein bevorstehendes Ereignis bezeichnete, das in erster Linie aus dem Aufkommen von "Wesenheiten mit mehr als menschlicher Intelligenz" resultierte, die Vinge als Vorbote eines Fluchtphänomens betrachtete.

Aus meiner Sicht hat die Singularität viele Gesichter.

Es stellt die nahezu vertikale Phase des exponentiellen Wachstums dar, in der die Wachstumsrate so extrem ist, dass die Technologie mit unendlicher Geschwindigkeit zu wachsen scheint. Natürlich gibt es aus mathematischer Sicht keine Diskontinuität, keinen Bruch, und die Wachstumsraten bleiben begrenzt, wenn auch außerordentlich groß. Aber von unserem zur Zeit begrenzte Perspektive, scheint dieses bevorstehende Ereignis ein akuter und abrupter Bruch in der Kontinuität des Fortschritts zu sein.

Ich betone jedoch das Wort "gegenwärtig", weil eine der hervorstechendsten Implikationen der Singularität eine Veränderung in der Natur unserer Fähigkeit zu verstehen ist. Mit anderen Worten, wir werden wesentlich intelligenter werden, wenn wir mit unserer Technologie verschmelzen.

Als ich mein erstes Buch schrieb, Das Age of Intelligent Machines, in den 1980er Jahren, beendete ich das Buch mit dem Gespenst der Entstehung von Maschinenintelligenz, die größer war als die menschliche Intelligenz, aber es fiel mir schwer, über diesen Ereignishorizont hinauszuschauen.

Nachdem ich über seine Auswirkungen in den letzten 20 Jahren nachgedacht habe, bin ich der Meinung, dass wir in der Tat in der Lage sind, die vielen Facetten dieser Schwelle zu verstehen, die alle Bereiche des menschlichen Lebens verändern wird.

Betrachten Sie einige Beispiele der Implikationen.

Der Großteil unserer Erfahrungen wird sich von der Realität in die virtuelle Realität verlagern. Der größte Teil der Intelligenz unserer Zivilisation wird letztlich nichtbiologisch sein, was bis zum Ende dieses Jahrhunderts Trillionen von Billionen Mal stärker sein wird als menschliche Intelligenz.

Um jedoch oft geäußerte Bedenken anzugehen, impliziert dies nicht das Ende der biologischen Intelligenz, selbst wenn sie von ihrem Platz der evolutionären Überlegenheit abgeworfen wird. Darüber hinaus ist es wichtig zu beachten, dass die nicht-biologischen Formen vom biologischen Design abgeleitet sind. Mit anderen Worten, unsere Zivilisation wird menschlich bleiben, in der Tat in vielerlei Hinsicht beispielhafter für das, was wir als menschlich betrachten, als es heute ist, obwohl unser Verständnis des Begriffs über seine rein biologischen Ursprünge hinausgehen wird.

Viele Beobachter haben jedoch ihre Besorgnis über das Entstehen von Formen nichtbiologischer Intelligenz geäußert, die der menschlichen Intelligenz überlegen sind.

Das Potential, unsere eigene Intelligenz durch innige Verbindung mit anderen Denkmedien zu erweitern, lindert nicht unbedingt die Besorgnis, da einige Menschen den Wunsch geäußert haben, "unerfahren" zu bleiben, während sie gleichzeitig an der Spitze der intellektuellen Nahrungskette bleiben. Meines Erachtens ist das wahrscheinliche Ergebnis, dass diese übermenschlichen Intelligenzen einerseits aus der Perspektive der biologischen Menschheit als ihre transzendenten Diener erscheinen und ihre Bedürfnisse und Wünsche befriedigen werden.

Auf der anderen Seite wird die Erfüllung der Wünsche eines verehrten biologischen Erbes nur einen unbedeutenden Teil der intellektuellen Kraft einnehmen, die die Singularität bringen wird.

Unnötig zu sagen, dass die Singularität alle Aspekte unseres sozialen, sexuellen und wirtschaftlichen Lebens verändern wird, die ich hier erkunde.

Woher Moores Gesetz

Bevor wir die Implikationen der Singularität näher betrachten, wollen wir uns die breite Palette von Technologien ansehen, die dem Gesetz der beschleunigten Erträge unterliegen.

Der exponentielle Trend, der die größte öffentliche Anerkennung gefunden hat, wurde als "Mooresches Gesetz" bekannt. Gordon Moore, einer der Erfinder von integrierten Schaltkreisen und dann Vorsitzender von Intel, bemerkte Mitte der 1970er Jahre, dass wir doppelt so viele Transistoren komprimieren könnten eine integrierte Schaltung alle 24 Monate. Angesichts der Tatsache, dass die Elektronen weniger Abstand haben, laufen die Schaltungen auch doppelt so schnell, was zu einer Vervierfachung der Rechenleistung führt.

Nach sechzig Jahren des hingebungsvollen Dienstes wird Moores Gesetz spätestens im Jahr 2019 einen würdigen Tod sterben.

Zu diesem Zeitpunkt werden die Transistoreigenschaften nur noch wenige Atome breit sein, und die Strategie der immer feineren Photolithographie wird ihren Lauf genommen haben. Also, wird das das Ende des exponentiellen Wachstums der Computer sein?

Wetten Sie nicht darauf.

Wenn wir die Geschwindigkeit (in Instruktionen pro Sekunde) pro $ 1000 (in konstanten Dollars) von 49 berühmten Rechnern und Computern, die das gesamte zwanzigste Jahrhundert umfassen, aufzeichnen, bemerken wir einige interessante Beobachtungen.

Moores Gesetz war nicht das erste, sondern das fünfte Paradigma, um ein exponentielles Wachstum des Rechnens zu ermöglichen

Jedes Mal, wenn ein Paradigma ausgeht, nimmt ein anderes das Tempo an

Es ist wichtig zu beachten, dass Moores Gesetz der integrierten Schaltungen nicht das erste, sondern das fünfte Paradigma war, das ein beschleunigtes Preis-Leistungs-Verhältnis bietet.

Computergeräte haben sich in ihrer Leistung (pro Zeiteinheit) ständig von den mechanischen Rechenvorrichtungen multipliziert, die in den USA von 1890 verwendet wurden.Census, Turings Relay-basierte "Robinson" -Maschine, die den Nazi-Enigma-Code geknackt hat, der CBS-Vakuumröhrencomputer, der die Wahl von Eisenhower voraussagte, die transistorbasierten Maschinen, die bei den ersten Weltraumstarts eingesetzt wurden, bis hin zum integrierten Schaltkreis - basierten Personal Computer, den ich diesen Aufsatz diktierte (und automatisch transkribierte).

Aber mir ist etwas anderes Überraschendes aufgefallen.

Als ich die 49 Maschinen in einem Exponentialgraphen zeichnete (wo eine gerade Linie exponentielles Wachstum bedeutet), erhielt ich keine gerade Linie. Was ich bekam, war eine andere exponentielle Kurve.





Mit anderen Worten, es gibt ein exponentielles Wachstum der exponentiellen Wachstumsrate. Die Computergeschwindigkeit (pro Kosteneinheit) verdoppelte sich alle drei Jahre zwischen 1910 und 1950, verdoppelte sich alle zwei Jahre zwischen 1950 und 1966 und verdoppelt sich jetzt jedes Jahr.

Aber woher kommt Moores Gesetz?

Was steckt hinter diesem bemerkenswert vorhersagbaren Phänomen? Ich habe relativ wenig über die ultimative Quelle dieses Trends geschrieben. Ist es nur "eine Reihe von Erwartungen und Zielen der Industrie", wie Randy Isaac, Leiter der Grundlagenforschung bei IBM, behauptet?

Oder geht da etwas Tiefgründiges vor sich?

Aus meiner Sicht ist es eine Manifestation (unter vielen) des exponentiellen Wachstums des evolutionären Prozesses, der Technologie ist. Das exponentielle Wachstum von Computern ist ein wunderbares quantitatives Beispiel für die exponentiell wachsenden Erträge eines evolutionären Prozesses.

Wir können auch das exponentielle Wachstum der Computer in einem beschleunigten Tempo ausdrücken: Es dauerte neunzig Jahre, um die ersten MIPS (Millionen Instruktionen pro Sekunde) pro Tausend Dollar zu erreichen, jetzt fügen wir täglich einen MIPS pro Tausend Dollar hinzu.

Das Mooresche Gesetz bezieht sich eng auf die Anzahl von Transistoren auf einer integrierten Schaltung fester Größe und wurde manchmal in Bezug auf die Transistorstrukturgröße noch enger ausgedrückt.

Aber statt der Feature-Größe (was nur ein Faktor ist) oder der Anzahl der Transistoren, denke ich, dass die Rechengeschwindigkeit pro Kosteneinheit am besten geeignet ist. Dies berücksichtigt viele Ebenen der "Klugheit" (d.

H. Innovation, dh technologische Evolution). Zusätzlich zu all den Innovationen in integrierten Schaltungen gibt es mehrere Innovationsebenen im Computerdesign, z. B. Pipeline-Verarbeitung, Parallelverarbeitung, Instruktions-Vorausschau, Instruktions- und Speicher-Caching und viele andere.

Aus dem obigen Diagramm sehen wir, dass das exponentielle Wachstum der Computer nicht mit integrierten Schaltkreisen (um 1958) oder sogar Transistoren (um 1947) begann, sondern auf die elektromechanischen Rechner zurückgeht, die in den US-Volkszählungen von 1890 und 1900 verwendet wurden.

Dieses Diagramm umfasst mindestens fünf verschiedene Paradigmen des Rechnens, von denen Moores Gesetz nur das letzte betrifft.

Es ist offensichtlich, was das sechste Paradigma sein wird, nachdem das Mooresche Gesetz während des zweiten Jahrzehnts dieses Jahrhunderts ausgeht.

Chips sind heute flach (obwohl es bis zu 20 Materialschichten benötigt, um eine Schaltungsschicht zu erzeugen). Unser Gehirn ist dagegen in drei Dimensionen organisiert. Wir leben in einer dreidimensionalen Welt, warum nicht die dritte Dimension benutzen? Das menschliche Gehirn verwendet tatsächlich einen sehr ineffizienten elektrochemischen digital gesteuerten analogen Rechenprozess. Der Großteil der Berechnungen wird in den Interneuronalverbindungen mit einer Geschwindigkeit von nur etwa 200 Berechnungen pro Sekunde (in jeder Verbindung) durchgeführt, was etwa zehn Millionen Mal langsamer ist als bei heutigen elektronischen Schaltungen.

Aber das Gehirn gewinnt seine erstaunlichen Kräfte aus seiner extrem parallelen Organisation in drei Dimensionen. Es gibt viele Technologien in den Flügeln, die Schaltung in drei Dimensionen bauen. Beispielsweise bauen Nanoröhren, die bereits in Laboratorien arbeiten, Schaltkreise aus fünfeckigen Anordnungen von Kohlenstoffatomen auf. Ein Kubikzoll Nanoröhrenschaltkreis wäre eine Million Mal leistungsfähiger als das menschliche Gehirn.

Es werden mehr als genug neue Computertechnologien erforscht, einschließlich dreidimensionaler Siliziumchips, optischer Computer, kristalliner Computer, DNA-Computer und Quantencomputer, um das Gesetz der beschleunigten Erträge, wie es für die Berechnung angewendet wird, für eine lange Zeit aufrechtzuerhalten.

Daher ist das (doppelte) exponentielle Wachstum des Rechnens breiter als das Mooresche Gesetz, das sich nur auf eines seiner Paradigmen bezieht.

Und dieses beschleunigte Wachstum der Computerarbeit ist wiederum Teil des noch breiteren Phänomens der beschleunigten Geschwindigkeit jedes Entwicklungsprozesses. Beobachter kritisieren schnell die Extrapolation eines exponentiellen Trends auf der Grundlage, dass dem Trend zwangsläufig "Ressourcen" ausgehen. Das klassische Beispiel ist, wenn eine Art an einem neuen Lebensraum (z. B. Kaninchen in Australien) die Artenzahlen passiert wird für eine Zeit exponentiell wachsen, aber dann eine Grenze erreichen, wenn Ressourcen wie Nahrung und Weltraum ausgehen.

Aber die Ressourcen, die dem exponentiellen Wachstum eines evolutionären Prozesses zugrunde liegen, sind relativ unbegrenzt:

  1. (i) Die (immer wachsende) Ordnung des evolutionären Prozesses selbst.

    Jede Stufe der Evolution bietet leistungsfähigere Werkzeuge für die nächste. In der biologischen Evolution ermöglichte das Aufkommen von DNA leistungsfähigere und schnellere evolutionäre "Experimente". Später ermöglichte das Setzen der "Designs" von Tierkörperplänen während der kambrischen Explosion eine schnelle evolutionäre Entwicklung von anderen Körperorganen wie dem Gehirn.





    Oder um ein jüngeres Beispiel zu nehmen: Die Einführung computergestützter Design-Tools ermöglicht eine schnelle Entwicklung der nächsten Generation von Computern.

  2. (ii) Das "Chaos" der Umwelt, in der der Evolutionsprozess stattfindet und die Optionen für weitere Diversität bietet.

    In der biologischen Evolution tritt die Vielfalt in Form von Mutationen und sich ständig ändernden Umweltbedingungen in den Prozess ein.In der technologischen Evolution hält der menschliche Einfallsreichtum in Verbindung mit den sich ständig ändernden Marktbedingungen den Innovationsprozess am Laufen.

Das maximale Potential von Materie und Energie, um intelligente Prozesse einzubeziehen, ist ein gültiges Thema.

Aber meinen Modellen zufolge werden wir diese Grenzen in diesem Jahrhundert nicht erreichen (aber das wird in ein paar Jahrhunderten zu einem Problem werden).

Wir müssen auch zwischen der "S" -Kurve (einem nach rechts gestreckten "S") unterscheiden, die ein sehr langsames, praktisch nicht wahrnehmbares Wachstum - gefolgt von einem sehr schnellen Wachstum - gefolgt von einem Abflachen, wenn sich der Prozess einer Asymptote nähert, charakterisiert eines spezifischen technologischen Paradigmas und des anhaltenden exponentiellen Wachstums, das für den fortschreitenden evolutionären Prozess der Technologie charakteristisch ist.

Spezifische Paradigmen wie das Mooresche Gesetz erreichen schließlich Niveaus, auf denen ein exponentielles Wachstum nicht mehr möglich ist. So ist Moores Gesetz eine S-Kurve.

Aber das Wachstum der Berechnung ist ein fortlaufendes Exponential (zumindest bis wir das Universum mit der Intelligenz unserer Mensch-Maschine-Zivilisation "sättigen", aber das wird in diesem kommenden Jahrhundert keine Grenze sein). In Übereinstimmung mit dem Gesetz der beschleunigten Erträge verwandelt Paradigmenwechsel, auch Innovation genannt, die S-Kurve jedes spezifischen Paradigmas in eine fortlaufende Exponentialfunktion.

Ein neues Paradigma (z. B. dreidimensionale Schaltkreise) übernimmt, wenn das alte Paradigma seine natürliche Grenze erreicht. Dies ist bereits mindestens viermal in der Geschichte der Berechnung geschehen.

Dieser Unterschied unterscheidet auch den Werkzeugbau von nicht-menschlichen Spezies, bei dem die Beherrschung einer Werkzeugherstellungs- (oder -verwendungs-) Fertigkeit durch jedes Tier durch eine abrupt endende S-förmige Lernkurve im Gegensatz zu der von Menschen geschaffenen Technologie gekennzeichnet ist, die gefolgt ist ein exponentielles Muster von Wachstum und Beschleunigung seit seiner Gründung.

DNA-Sequenzierung, Speicher, Kommunikation, Internet und Miniaturisierung

Dieses "Gesetz der beschleunigten Rückkehr" gilt für die gesamte Technologie, ja für jeden echten evolutionären Prozess und kann mit bemerkenswerter Genauigkeit in informationsbasierten Technologien gemessen werden.

Es gibt viele Beispiele für das exponentielle Wachstum, das durch das Gesetz der beschleunigten Erträge in so unterschiedlichen Technologien wie DNA-Sequenzierung, Kommunikationsgeschwindigkeit, Elektronik aller Art und sogar in der schnell schrumpfenden Größe der Technologie impliziert wird.

Die Singularität resultiert nicht aus der exponentiellen Explosion der Berechnung allein, sondern aus dem Wechselspiel und den unzähligen Synergien, die sich aus den mannigfaltigen ineinander verwobenen technologischen Revolutionen ergeben. Bedenken Sie auch, dass jeder Punkt auf den exponentiellen Wachstumskurven, der dieser Technologiepalette zugrunde liegt (siehe die folgenden Grafiken), ein intensives menschliches Drama von Innovation und Wettbewerb darstellt.

Es ist daher bemerkenswert, dass diese chaotischen Prozesse zu solch glatten und vorhersagbaren exponentiellen Trends führen.

Zum Beispiel, als der Scan des menschlichen Genoms vor vierzehn Jahren begann, wiesen Kritiker darauf hin, dass es angesichts der Geschwindigkeit, mit der das Genom gescannt werden könnte, Tausende von Jahren benötigen würde, um das Projekt zu beenden.

Dennoch wurde das fünfzehnjährige Projekt etwas früher als geplant abgeschlossen.

Wir erwarten natürlich ein exponentielles Wachstum bei elektronischen Speichern wie RAM.

Beachten Sie, wie sich das exponentielle Wachstum durch Paradigmenverschiebungen von Vakuumröhren zu diskreten Transistoren zu integrierten Schaltungen fortsetzte

Das Wachstum des magnetischen Gedächtnisses ist jedoch nicht in erster Linie eine Frage des Moore-Gesetzes, sondern schließt Fortschritte in mechanischen und elektromagnetischen Systemen ein.

Das exponentielle Wachstum in der Kommunikationstechnologie war noch explosiver als bei der Berechnung und ist in seinen Auswirkungen nicht weniger bedeutend.

Auch hier geht es um weit mehr als nur schrumpfende Transistoren auf einer integrierten Schaltung, sondern um beschleunigende Fortschritte bei Faseroptik, optischen Schaltvorgängen, elektromagnetischen Technologien und anderen.

Hinweis Kaskade kleinerer "S" -Kurven

Beachten Sie, dass wir in den beiden obigen Diagrammen die Entwicklung von "S" -Kurven sehen können: die Beschleunigung, die durch ein neues Paradigma gefördert wird, gefolgt von einer Abschwächung, wenn das Paradigma ausgeht, gefolgt von erneuter Beschleunigung durch Paradigmenwechsel.

Die folgenden zwei Diagramme zeigen das allgemeine Wachstum des Internets basierend auf der Anzahl der Hosts.

In diesen beiden Diagrammen werden die gleichen Daten dargestellt, jedoch ist eine auf einer exponentiellen Achse und die andere ist linear. Wie ich bereits früher ausgeführt habe, erfahren wir, dass die Technologie im exponentiellen Bereich fortschreitet, während wir sie im linearen Bereich erfahren.

Aus der Sicht der meisten Beobachter geschah also nichts bis Mitte der 1990er Jahre, als scheinbar aus dem Nichts das World Wide Web und die E-Mail in den Blickpunkt gerieten. Aber die Entstehung des Internets zu einem weltweiten Phänomen war durch Untersuchung der exponentiellen Trenddaten viel früher vorhersehbar.

Beachten Sie, dass die Explosion des Internets eine Überraschung aus dem linearen Diagramm zu sein scheint, aber aus dem Exponential-Diagramm perfekt vorhersehbar war

Letztendlich werden wir durch drahtlose Kommunikation, die sich alle 10 bis 11 Monate verdoppelt, aus dem Drahtgewirr in unseren Städten und in unserem Leben entkommen.

Eine andere Technologie, die tiefgreifende Auswirkungen auf das einundzwanzigste Jahrhundert haben wird, ist der allgegenwärtige Trend, die Dinge kleiner zu machen, d.

H. Die Miniaturisierung. Die herausragenden Implementierungsgrößen einer breiten Palette von elektronischen und mechanischen Technologien schrumpfen ebenfalls doppelt exponentiell.

Derzeit schrumpfen wir die Technologie um einen Faktor von etwa 5,6 pro linearer Dimension pro Jahrzehnt.

Das exponentielle Wachstum der Berechnung wurde erneut untersucht

Wenn wir das exponentielle Wachstum der Berechnung in ihrer eigentlichen Perspektive als ein Beispiel für die Durchdringung des exponentiellen Wachstums informationsbasierter Technologie betrachten, das heißt als ein Beispiel für viele der Gesetze beschleunigter Erträge, dann können wir zuversichtlich ihre Fortsetzung vorhersagen.

In der begleitenden Seitenleiste schließe ich ein vereinfachtes mathematisches Modell des Gesetzes der beschleunigenden Renditen ein, da es sich auf das (doppelte) exponentielle Wachstum der Berechnung bezieht.

Die folgenden Formeln ergeben den obigen Graphen des fortgesetzten Wachstums der Berechnung. Diese Grafik entspricht den verfügbaren Daten für das zwanzigste Jahrhundert durch alle fünf Paradigmen und liefert Projektionen für das einundzwanzigste Jahrhundert.

Beachten Sie, dass die Wachstumsrate langsam, aber dennoch exponentiell ansteigt.

Das Gesetz der beschleunigten Erträge für das Wachstum der Berechnung

Das Folgende bietet einen kurzen Überblick über das Gesetz der Beschleunigung von Renditen, wie es für das doppelt exponentielle Wachstum der Berechnung gilt. Dieses Modell berücksichtigt die Auswirkungen der wachsenden Macht der Technologie, um die eigene nächste Generation zu fördern.

Zum Beispiel haben wir mit leistungsfähigeren Computern und damit verbundener Technologie die Werkzeuge und das Wissen, um noch leistungsfähigere Computer schneller zu entwickeln.

Beachten Sie, dass die Daten für das Jahr 2000 und darüber hinaus Neuronalnetzverbindungsberechnungen annehmen, da erwartet wird, dass diese Art der Berechnung letztendlich dominieren wird, insbesondere bei der Nachahmung menschlicher Gehirnfunktionen.

Diese Art der Berechnung ist weniger kostenaufwendig als herkömmliche Berechnungen (z. B. Pentium III / IV) um einen Faktor von mindestens 100 (insbesondere wenn sie unter Verwendung einer digital gesteuerten analogen Elektronik implementiert werden, die gut mit den digital gesteuerten analogen elektrochemischen Prozessen des Gehirns korrespondiert).

Ein Faktor von 100 bedeutet in etwa 6 Jahren (heute) und weniger als 6 Jahre später im einundzwanzigsten Jahrhundert.

Meine Schätzung der Gehirnkapazität ist 100 Milliarden Neuronen mal durchschnittlich 1000 Verbindungen pro Neuron (wobei die Berechnungen hauptsächlich in den Verbindungen stattfinden) mal 200 Berechnungen pro Sekunde. Obwohl diese Schätzungen konservativ hoch sind, kann man höhere und niedrigere Schätzungen finden.

Aber auch viel höhere (oder niedrigere) Schätzungen um Größenordnungen verschieben die Vorhersage nur um eine relativ kleine Anzahl von Jahren.

Einige prominente Daten aus dieser Analyse umfassen Folgendes:

  • Wir erreichen eine menschliche Gehirnkapazität (2 * 10 ^ 16 cps) für $ 1.000 um das Jahr 2023.
  • Wir erreichen eine menschliche Gehirnkapazität (2 * 10 ^ 16 cps) für einen Cent um das Jahr 2037.
  • Wir erreichen eine menschliche Rasse Fähigkeit (2 * 10 ^ 26 cps) für $ 1.000 um das Jahr 2049.
  • Wir erreichen eine Human Race-Fähigkeit (2 * 10 ^ 26 cps) für einen Cent um das Jahr 2059.

Das Modell berücksichtigt die folgenden Variablen:

  • V: Geschwindigkeit (d.

    H. Leistung) der Berechnung (gemessen in CPS / Einheitskosten)

  • W: Weltwissen, was das Entwerfen und Erstellen von Computergeräten betrifft
  • t: Zeit

Die Annahmen des Modells sind:

  1. (1) V = C1 * W

Mit anderen Worten, Computerleistung ist eine lineare Funktion des Wissens, wie man Computer baut.

Dies ist eine konservative Annahme. Im Allgemeinen verbessern Innovationen V (Computer Power) um ein Vielfaches, nicht auf eine additive Weise. Unabhängige Innovationen multiplizieren sich gegenseitig. Zum Beispiel erhöhen ein Schaltungsfortschritt wie etwa CMOS, eine effizientere IC-Verdrahtungsmethodik und eine Prozessorinnovation, wie z.

B. Pipelining, V um unabhängige Vielfache.

  • (2) W = C2 * Integral (0 bis t) V

Mit anderen Worten, W (Wissen) ist kumulativ, und der momentane Zuwachs zum Wissen ist proportional zu V.

Das gibt uns:

  • W = C1 * C2 * Integral (0 bis t) W
  • W = C1 * C2 * C3 ^ (C4 * t)
  • V = C1 ^ 2 * C2 * C3 ^ (C4 * t)
  • (Hinweis zur Notation: a ^ b bedeutet eine auf die b angehobene Potenz.)

Vereinfachung der Konstanten erhalten wir:

Dies ist also eine Formel für "beschleunigende" (d.

H. Exponentiell wachsende) Erträge, ein "reguläres Mooresches Gesetz".

Wie ich oben erwähnt habe, zeigen die Daten ein exponentielles Wachstum der exponentiellen Wachstumsrate. (Wir haben die Computermacht alle drei Jahre Anfang des zwanzigsten Jahrhunderts verdoppelt, alle zwei Jahre in der Mitte des Jahrhunderts und fast jedes Jahr in den neunziger Jahren.)

Lassen Sie uns ein weiteres exponentielles Phänomen berücksichtigen, nämlich die wachsenden Ressourcen für die Berechnung.

Nicht nur wird jedes (konstante Kosten) Gerät leistungsfähiger als eine Funktion von W, sondern auch die Ressourcen, die zur Berechnung eingesetzt werden, exponentiell.

Wir haben nun:

  • N: Ausgaben für die Berechnung
  • V = C1 * W (wie zuvor)
  • N = C4 ^ (C5 * t) (Rechenaufwand wächst mit exponentieller Geschwindigkeit)
  • W = C2 * Integral (0 bis t) (N * V)

Wie zuvor sammelt sich das Weltwissen an, und das momentane Inkrement ist proportional zur Menge der Berechnung, die den zur Berechnung eingesetzten Ressourcen (N) * der Leistung jedes (Konstantkosten-) Geräts entspricht.

Das gibt uns:

  • W = C1 * C2 * Integral (0 bis t) (C4 ^ (C5 * t) * W)
  • W = C1 * C2 * (C3 ^ (C6 * t)) ^ (C7 * t)
  • V = C1 ^ 2 * C2 * (C3 ^ (C6 * t)) ^ (C7 * t)

Vereinfachung der Konstanten erhalten wir:

  • V = Ca * (Cb ^ (Cc * t)) ^ (Cd * t)

Dies ist eine doppelte Exponentialfunktion - eine exponentielle Kurve, in der die Geschwindigkeit des exponentiellen Wachstums mit einer anderen Exponentialrate zunimmt.

Betrachten wir nun reale Daten.

Betrachtet man die Daten für tatsächliche Rechengeräte und Computer im 20. Jahrhundert:

  • CPS / $ 1K: Berechnungen pro Sekunde für $ 1.000

Rechendaten des 20.

Jahrhunderts entsprechen:

  • CPS / $ 1K = 10 ^ (6,00 * ((20,40 / 6,00) ^ ((A13-1900) / 100)) - 11,00)

Wir können die Wachstumsrate über einen Zeitraum bestimmen:

  • Wachstumsrate = 10 ^ ((LOG (CPS / $ 1K für das laufende Jahr) - LOG (CPS / $ 1K für das vorherige Jahr)) / (aktuelles Jahr - Voriges Jahr))
  • Menschliches Gehirn = 100 Milliarden (10 ^ 11) Neuronen * 1000 (10 ^ 3) Verbindungen / Neuron * 200 (2 * 10 ^ 2) Berechnungen pro Sekunde pro Verbindung = 2 * 10 ^ 16 Berechnungen pro Sekunde
  • Menschliche Rasse = 10 Milliarden (10 ^ 10) Menschliche Gehirne = 2 * 10 ^ 26 Berechnungen pro Sekunde

Diese Formeln ergeben das obige Diagramm.

Der "Blue Gene" -Supercomputer von IBM, der derzeit gebaut wird und bis 2005 fertiggestellt sein soll, wird voraussichtlich 1 Million Milliarden Berechnungen pro Sekunde (d.

H. Eine Milliarde Megaflops) liefern. Das ist bereits ein Zwanzigstel der Kapazität des menschlichen Gehirns, die ich bei konservativ hohen 20 Millionen Milliarden Berechnungen pro Sekunde einschätze (100 Milliarden Neuronen mal 1000 Verbindungen pro Neuron mal 200 Berechnungen pro Sekunde pro Verbindung). In Übereinstimmung mit meinen früheren Vorhersagen werden Supercomputer bis 2010 eine menschliche Gehirnkapazität erreichen, und Personalcomputer werden dies bis etwa 2020 erreichen.

Bis zum Jahr 2030 wird ein Dorf mit menschlichen Gehirnen (etwa eintausend) benötigt, um 1000 Dollar an Rechenleistung zu erreichen. Bis zum Jahr 2050 wird die Rechenleistung von 1000 US-Dollar der Rechenleistung aller menschlichen Gehirne auf der Erde entsprechen. Dies schließt natürlich nur jene Gehirne mit ein, die noch Kohlenstoff-basierte Neuronen verwenden.

Während menschliche Neuronen in gewisser Weise wundersame Schöpfungen sind, würden wir Rechenschaltungen nicht auf die gleiche Weise konstruieren (und nicht). Unsere elektronischen Schaltungen sind bereits mehr als zehn Millionen Mal schneller als die elektrochemischen Prozesse eines Neurons. Der größte Teil der Komplexität eines menschlichen Neurons ist der Aufrechterhaltung seiner lebenserhaltenden Funktionen und nicht seiner Informationsverarbeitungsfähigkeiten gewidmet.

Letztendlich müssen wir unsere mentalen Prozesse auf ein geeigneteres Computersubstrat übertragen.

Dann werden unsere Gedanken nicht so klein bleiben müssen, da sie heute auf nur noch hundert Billionen neuraler Verbindungen beschränkt sind, die jeweils mit einer gewichtigen Anzahl von 200 digital gesteuerten analogen Berechnungen pro Sekunde arbeiten.

Die Software der Intelligenz

Bis jetzt habe ich über die Hardware des Computers gesprochen.

Die Software ist noch markanter. Eine der Hauptannahmen, die der Erwartung der Singularität zugrunde liegen, ist die Fähigkeit nicht-biologischer Medien, dem Reichtum, der Feinheit und der Tiefe menschlichen Denkens nachzueifern. Das Erreichen der Rechenkapazität des menschlichen Gehirns oder sogar von Dörfern und Nationen menschlicher Gehirne wird nicht automatisch zu menschlichen Fähigkeitsniveaus führen.

Auf menschlicher Ebene schließe ich all die verschiedenen und subtilen Weisen ein, in denen Menschen intelligent sind, einschließlich musikalischer und künstlerischer Begabung, Kreativität, physischer Bewegung durch die Welt und angemessenes Verstehen und Reagieren auf Emotionen. Die erforderliche Hardware-Kapazität ist eine notwendige, aber nicht ausreichende Bedingung.

Die Organisation und der Inhalt dieser Ressourcen - die Software der Intelligenz - sind ebenfalls kritisch.

Bevor wir dieses Problem angehen, ist es wichtig zu beachten, dass ein Computer, sobald er eine menschliche Intelligenzstufe erreicht hat, notwendigerweise darüber hinwegschweben wird. Ein wesentlicher Vorteil nichtbiologischer Intelligenz ist, dass Maschinen ihr Wissen leicht teilen können.

Wenn ich Französisch lerne oder Krieg und Frieden lese, kann ich das nicht einfach für dich herunterladen. Sie müssen dieses Stipendium auf die gleiche mühsame Weise erwerben wie ich. Mein Wissen, eingebettet in ein riesiges Muster von Neurotransmitterkonzentrationen und Interneuronalverbindungen, kann nicht schnell erreicht oder übertragen werden.

Aber wir werden keine schnellen Download-Ports in unseren nicht-biologischen Äquivalenten von menschlichen Neuronenclustern weglassen. Wenn ein Computer eine Fähigkeit lernt oder eine Einsicht gewinnt, kann er diese Weisheit sofort mit Milliarden anderer Maschinen teilen.

Als ein zeitgenössisches Beispiel haben wir Jahre damit verbracht, einem Forschungscomputer beizubringen, wie man kontinuierliche menschliche Sprache erkennt.

Wir haben es tausenden Stunden aufgezeichneter Sprache ausgesetzt, seine Fehler korrigiert und geduldig seine Leistung verbessert. Schließlich wurde es sehr geschickt darin, Sprache zu erkennen (ich diktierte den Großteil meines letzten Buches dazu). Wenn Sie möchten, dass Ihr eigener Computer Sprache erkennt, muss er nicht denselben Prozess durchlaufen.

Sie können einfach die voll ausgebildeten Muster in Sekunden herunterladen. Letztendlich können Milliarden nichtbiologischer Wesenheiten das Meister aller menschlichen und maschinell erworbenen Kenntnisse sein.

Darüber hinaus sind Computer potenziell Millionen mal schneller als menschliche neuronale Schaltkreise. Ein Computer kann sich auch Milliarden oder sogar Billionen von Fakten perfekt merken, während wir uns schwer tun, uns an eine Handvoll Telefonnummern zu erinnern.

Die Kombination von Intelligenz auf menschlicher Ebene in einer Maschine mit der inhärenten Überlegenheit eines Computers hinsichtlich der Geschwindigkeit, Genauigkeit und der Fähigkeit zum Teilen seines Gedächtnisses wird gewaltig sein.

Es gibt eine Reihe von überzeugenden Szenarien, um höhere Intelligenzniveaus in unseren Computern und letztendlich auf menschlichen Ebenen und darüber hinaus zu erreichen. Wir werden in der Lage sein, ein System zu entwickeln und zu trainieren, das massiv parallele neuronale Netze mit anderen Paradigmen kombiniert, um Sprache und Modellwissen zu verstehen, einschließlich der Fähigkeit, das in schriftlichen Dokumenten enthaltene Wissen zu lesen und zu modellieren.

Im Gegensatz zu vielen modernen "neuronalen Netzen", die mathematisch vereinfachte Modelle menschlicher Neuronen verwenden, verwenden einige moderne neuronale Netze bereits hochdetaillierte Modelle menschlicher Neuronen, einschließlich detaillierter nichtlinearer analoger Aktivierungsfunktionen und anderer relevanter Details.

Obwohl die Fähigkeit heutiger Computer, Wissen aus Dokumenten in natürlicher Sprache zu extrahieren und zu lernen, begrenzt ist, verbessern sich ihre Fähigkeiten in diesem Bereich schnell.

Computer werden in der Lage sein, selbst zu lesen, zu verstehen und zu modellieren, was sie gelesen haben, bis zum zweiten Jahrzehnt des 21.

Jahrhunderts. Wir können dann unsere Computer alle Literaturbücher der Welt, Zeitschriften, wissenschaftliche Zeitschriften und anderes verfügbares Material lesen lassen.Letztendlich werden die Maschinen Wissen selbst sammeln, indem sie sich im Internet oder sogar in der physischen Welt versuchen, aus dem vollen Spektrum von Medien und Informationsdiensten zu ziehen und Wissen miteinander zu teilen (welche Maschinen können viel einfacher als ihre menschlichen Schöpfer).

Reverse Engineering des menschlichen Gehirns

Das überzeugendste Szenario, um die Software der Intelligenz zu meistern, ist die Erschließung des besten Beispiels, das wir in die Hände eines intelligenten Prozesses bekommen.

Es gibt keinen Grund, warum wir das menschliche Gehirn nicht rückentwickeln können, und im Wesentlichen sein Design kopieren. Obwohl der ursprüngliche Designer mehrere Milliarden Jahre gebraucht hat, um ihn zu entwickeln, steht er uns zur Verfügung und ist (noch) nicht urheberrechtlich geschützt.

Obwohl sich ein Schädel um das Gehirn herum befindet, ist es unserer Sicht nicht verborgen.

Der direkt zugängliche Weg, dies zu erreichen, ist durch destruktives Scannen: Wir nehmen ein gefrorenes Gehirn, vorzugsweise ein gefrorenes, kurz bevor es nicht mehr ist, nachdem es sowieso sterben würde, und untersuchen eine Gehirnschicht - eine sehr dünne Scheibe - auf einmal. Wir können jedes Neuron und jede Verbindung und jede Neurotransmitterkonzentration, die in jeder Synapsen-Dünnschicht repräsentiert sind, leicht sehen.

Das Scannen des menschlichen Gehirns hat bereits begonnen.

Ein verurteilter Mörder erlaubt es, sein Gehirn und seinen Körper zu scannen und Sie können auf alle 10 Milliarden Bytes von ihm im Internet http://www.nlm.nih.gov/research/visible/visible_human.html zugreifen.

Er hat auch eine 25-Milliarden-Byte-Begleiterin auf der Seite, falls er sich einsam fühlt. Dieser Scan ist für unsere Zwecke nicht hoch genug in der Auflösung, aber wahrscheinlich wollen wir unsere Templates der maschinellen Intelligenz sowieso nicht auf das Gehirn eines verurteilten Mörders stützen.

Aber das Scannen eines gefrorenen Gehirns ist heute machbar, wenn auch noch nicht mit einer ausreichenden Geschwindigkeit oder Bandbreite, aber wieder wird das Gesetz der beschleunigten Rückkehr die erforderliche Scangeschwindigkeit liefern, genau wie es beim menschlichen Genomscan der Fall war.

Andreas Nowatzyk von der Carnegie Mellon University plant, das Nervensystem des Gehirns und des Körpers einer Maus mit einer Auflösung von weniger als 200 Nanometern zu scannen, was der für das Reverse Engineering erforderlichen Auflösung sehr nahe kommt.

Wir haben heute auch nichtinvasive Scantechniken, einschließlich hochauflösender Magnetresonanztomographie (MRT) -Scans, optischer Bildgebung, Nahinfrarotabtastung und anderer Technologien, die in bestimmten Fällen individuelle Somas oder Neuronenzellkörper auflösen können.

Gehirn-Scan-Technologien erhöhen auch ihre Auflösung mit jeder neuen Generation, genau das, was wir von dem Gesetz der beschleunigten Erträge erwarten würden. Zukünftige Generationen werden es uns ermöglichen, die Verbindungen zwischen Neuronen aufzulösen und in die Synapsen hineinzuspähen und die Neurotransmitterkonzentrationen aufzuzeichnen.

Mit nichtinvasiven Scannern, die ihre Auflösung mit jeder neuen Generation dieser Technologie steigern, können wir heute jemandem in den Kopf schauen.

Es gibt eine Reihe von technischen Herausforderungen, um dies zu erreichen, einschließlich der Erzielung einer geeigneten Auflösung, Bandbreite, Vibrationsmangel und Sicherheit.

Aus verschiedenen Gründen ist es einfacher, das Gehirn eines kürzlich Verstorbenen zu scannen als eines Menschen, der noch lebt. Es ist einfacher jemanden zum Stillstand zu bringen, zum einen. Aber das nichtinvasive Scannen eines lebenden Gehirns wird letztendlich machbar, wenn MRI- optische und andere Scantechnologien sich in Auflösung und Geschwindigkeit weiter verbessern.

Von innen scannen

Obwohl sich nichtinvasive Methoden des Scannens des Gehirns von außerhalb des Schädels schnell verbessern, wird der praktischste Ansatz zum Erfassen jedes hervorstechenden neuralen Details darin bestehen, es von innen her zu scannen.

Bis zum Jahr 2030 wird die "Nanobot" -Technologie (d. H. Nanoroboter) praktikabel sein, und die Gehirnabtastung wird eine herausragende Anwendung sein. Nanobots sind Roboter, die so groß wie menschliche Blutzellen oder noch kleiner sind. Milliarden von ihnen könnten durch jede Gehirnkapillare wandern und jedes relevante Merkmal von nahem scannen. Durch die drahtlose Hochgeschwindigkeits-Kommunikation würden die Nanobots miteinander und mit anderen Computern kommunizieren, die die Gehirn-Scan-Datenbank erstellen (mit anderen Worten, die Nanobots befinden sich alle in einem drahtlosen lokalen Netzwerk).

Dieses Szenario beinhaltet nur Fähigkeiten, die wir heute berühren und fühlen können.

Wir haben bereits eine Technologie, die in der Lage ist, Scans mit sehr hoher Auflösung zu erzeugen, vorausgesetzt, der Scanner befindet sich in der Nähe der neuralen Merkmale. Die grundlegenden Berechnungs- und Kommunikationsmethoden sind auch heute im Wesentlichen machbar. Die Hauptmerkmale, die noch nicht praktikabel sind, sind die Größe und Kosten der Nanobots. Wie ich bereits oben erwähnt habe, können wir die exponentiell sinkenden Kosten der Berechnung und die schnell abnehmende Größe sowohl der elektronischen als auch der mechanischen Technologien projizieren.

Daher können wir konservativ bis etwa 2030 mit der erforderlichen Nanobot-Technologie rechnen. Aufgrund der Fähigkeit, jeden Scanner in sehr naher physischer Nähe zu jedem neuralen Merkmal zu platzieren, ist das Scannen mit Nanobot praktischer als das Scannen des Gehirns von außen.

Wie man deinen Gehirn-Scan verwendet

Wie werden wir die Tausende von Billionen von Bytes an Informationen aus jedem Gehirn-Scan anwenden?

Ein Ansatz besteht darin, die Ergebnisse zu verwenden, um intelligentere parallele Algorithmen für unsere Maschinen zu entwickeln, insbesondere solche, die auf einem der neuronalen Netzparadigmen basieren. Bei diesem Ansatz müssen wir nicht jede einzelne Verbindung kopieren. Es gibt eine große Anzahl von Wiederholungen und Redundanzen innerhalb einer bestimmten Gehirnregion.





Obwohl die in einem menschlichen Gehirn enthaltene Information tausende Billionen von Informationsbytes (in der Größenordnung von 100 Milliarden Neuronen mal 1000 Verbindungen pro Neuron mit jeweils mehreren Neurotransmitterkonzentrationen und Verbindungsdaten) erfordern würde, ist das Design des Gehirns gekennzeichnet durch ein menschliches Genom von nur etwa einer Milliarde Bytes.

Darüber hinaus ist der größte Teil des Genoms redundant, so dass das anfängliche Design des Gehirns durch ungefähr 100 Millionen Bytes gekennzeichnet ist, etwa so groß wie Microsoft Word.

Natürlich nimmt die Komplexität unserer Gehirne stark zu, wenn wir mit der Welt interagieren (um einen Faktor von mehr als zehn Millionen).Aufgrund der sich stark wiederholenden Muster, die in jeder spezifischen Gehirnregion gefunden werden, ist es nicht notwendig, jedes Detail zu erfassen, um die signifikanten Digital-Analog-Algorithmen rückzuentwickeln.

Mit diesen Informationen können wir simulierte Netze entwerfen, die ähnlich funktionieren. Es gibt bereits mehrere Versuche, das menschliche Gehirn zu scannen und die gewonnenen Erkenntnisse auf das Design intelligenter Maschinen anzuwenden.

Die Geschwindigkeit des Reverse-Engineering des Gehirns liegt nur wenig hinter der Verfügbarkeit der Gehirnabtastungs- und Neuronenstrukturinformationen.

Ein aktuelles Beispiel ist ein umfassendes Modell eines wesentlichen Teils des menschlichen auditorischen Verarbeitungssystems, das Lloyd Watts (www.lloydwatts.com) sowohl aus neurobiologischen Studien spezifischer Neuronentypen als auch aus Gehirn-Interneuronal-Verbindungsinformationen entwickelt hat. Das Watts-Modell enthält fünf parallele Pfade und enthält die tatsächlichen Zwischendarstellungen von Hörinformationen auf jeder Stufe der neuronalen Verarbeitung.

Watts hat sein Modell als Echtzeit-Software implementiert, die Geräusche mit vielen der gleichen Eigenschaften wie das menschliche Gehör lokalisieren und identifizieren kann. Obwohl das Modell in Arbeit ist, zeigt es die Möglichkeit, neurobiologische Modelle und Gehirnverbindungsdaten in Arbeitssimulationen umzuwandeln.

Wie Hans Moravec und andere darüber spekulierten, benötigen diese effizienten Simulationen etwa 1000-mal weniger Berechnungen als das theoretische Potenzial der zu simulierenden biologischen Neuronen.

Reverse Engineering des menschlichen Gehirns: Fünf parallele auditive Pfade


Diagramm von Lloyd Watts

Schnecke: Sinnesorgan des Gehörs.

30.000 Fasern wandeln die Bewegung des Stapes in spektral-zeitliche Repräsentation von Klang um.

MC: Multipolare Zellen. Messen Sie die spektrale Energie.

GBC: Kugelförmige buschige Zellen. Relaisspitzen vom Hörnerv zum Lateral Superior.

Olivarischer Komplex (beinhaltet LSO und MSO).

Kodierung von Zeit und Amplitude von Signalen für binauralen Pegelvergleich.

SBC: Sphärische Buschige Zellen. Bereitstellen einer zeitlichen Scharfzeichnung der Ankunftszeit als Vorprozessor für die interaurale Zeitdifferenzberechnung.

OC: Oktopus-Zellen. Erkennung von Transienten.

DCN: Dorsaler Cochlear-Kern.

Erkennung von spektralen Kanten und Kalibrierung für Geräuschpegel.

VNTB: Ventraler Nucleus des Trapezkörpers. Feedback-Signale zur Modulation der äußeren Haarzellenfunktion in der Cochlea.

VNLL, PON: Ventraler Nucleus des lateralen Lemniscus, peri-olivare Kerne.

Transienten aus den Octopus-Zellen verarbeiten.

MSO: Mediale Superior Olive. Berechnung der interauralen Zeitdifferenz (Ankunftszeitunterschied zwischen den beiden Ohren, um zu sagen, woher ein Geräusch kommt).

LSO: Seitliche Superior Olive.

Auch an der Berechnung inter-auraler Pegeldifferenz beteiligt.

ICC: Zentraler Nucleus des unteren Colliculus. Der Ort der Hauptintegration mehrerer Klangdarstellungen.

ICx: Äußerer Kern des unteren Colliculus. Weitere Verfeinerung der Klanglokalisierung.

SC: Superior Colliculus. Ort der auditorischen / visuellen Verschmelzung.

MGB: Medialer Geniculate Körper.

Der auditorische Teil des Thalamus.

LS: Limbisches System. Umfasst viele Strukturen, die mit Emotionen, Erinnerungen, Territorien usw. verbunden sind.

Wechselstrom: Hörkortex.

Das Gehirn ist keine riesige "tabula rasa" (d. H. Undifferenzierter unbeschriebener Schiefer), sondern eine komplizierte und verflochtene Ansammlung von Hunderten von spezialisierten Regionen.

Der Prozess des "Schälens der Zwiebel", um diese verschachtelten Regionen zu verstehen, ist in vollem Gange. Wenn die erforderlichen Neuronenmodelle und Gehirnverbindungsdaten verfügbar werden, werden detaillierte und implementierbare Modelle wie das Hörbeispiel oben für alle Gehirnregionen entwickelt.

Nachdem die Algorithmen einer Region verstanden wurden, können sie verfeinert und erweitert werden, bevor sie in synthetischen neuralen Äquivalenten implementiert werden.

Zum einen können sie auf einem Computersubstrat betrieben werden, das bereits mehr als zehn Millionen mal schneller ist als neuronale Schaltkreise. Und wir können auch die Methoden zum Aufbau intelligenter Maschinen einbringen, die wir bereits verstehen.

Das menschliche Gehirn herunterladen

Eine umstrittenere Anwendung als dieses Scanning-the-Brain-to-Understand-It-Szenario ist Scanning-the-Brain-to-herunterladen-es.

Hier scannen wir das Gehirn eines Menschen, um die Positionen, Verbindungen und Inhalte aller Somas, Axone, Dendriten, präsynaptischen Vesikel, Neurotransmitterkonzentrationen und anderer neuraler Komponenten und Ebenen zu kartieren. Die gesamte Organisation kann dann auf einem neuronalen Computer mit ausreichender Kapazität einschließlich des Inhalts seines Speichers neu erstellt werden.

Um dies zu tun, müssen wir lokale Gehirnprozesse verstehen, wenn auch nicht unbedingt alle Prozesse auf höherer Ebene.

Das Scannen eines Gehirns mit genügend Details, um es herunterzuladen, klingt vielleicht entmutigend, aber auch der Scan des menschlichen Genoms.

Alle grundlegenden Technologien existieren heute, nur nicht mit der erforderlichen Geschwindigkeit, Kosten und Größe, aber das sind die Attribute, die sich in einem doppelt exponentiellen Tempo verbessern.

Die rechnerisch relevanten Aspekte einzelner Neuronen sind kompliziert, aber definitiv nicht über unsere Fähigkeit, genau zu modellieren.

Zum Beispiel haben Ted Berger und seine Kollegen bei Hedco Neurosciences integrierte Schaltkreise gebaut, die genau die digitalen und analogen Informationsverarbeitungseigenschaften von Neuronen berücksichtigen, einschließlich Clustern mit Hunderten von Neuronen.

Carver Mead und seine Kollegen von CalTech haben eine Vielzahl von integrierten Schaltkreisen gebaut, die die digital-analogen Eigenschaften von Säuger-neuronalen Schaltkreisen emulieren.

Ein kürzlich durchgeführtes Experiment am Institut für nichtlineare Naturwissenschaften in San Diego zeigt das Potenzial für elektronische Neuronen, die biologischen Neuronen präzise nachzuahmen.Neuronen (biologische oder andere) sind ein Paradebeispiel für das, was oft als "chaotisches Rechnen" bezeichnet wird.

Jedes Neuron wirkt im Wesentlichen unvorhersehbar. Wenn ein ganzes Netzwerk von Neuronen Eingaben empfängt (von der Außenwelt oder von anderen Netzwerken von Neuronen), erscheint die Signalisierung unter ihnen zunächst als wahnsinnig und zufällig. Im Laufe der Zeit, typischerweise ein Bruchteil einer Sekunde oder so, stirbt das chaotische Zusammenspiel der Neuronen ab und es entsteht ein stabiles Muster. Dieses Muster repräsentiert die "Entscheidung" des neuronalen Netzwerks.

Wenn das neuronale Netzwerk eine Mustererkennungsaufgabe ausführt (die im Übrigen den Großteil der Aktivität im menschlichen Gehirn umfasst), dann repräsentiert das emergente Muster die geeignete Erkennung.

Die Frage der San Diego Forscher war also, ob elektronische Neuronen sich neben biologischen auch in diesen chaotischen Tanz einmischen könnten.

Sie verknüpften ihre künstlichen Neuronen mit denen von spinalen Hummern in einem einzigen Netzwerk, und ihr hybrides biologisch-nicht-biologisches Netzwerk wurde auf die gleiche Weise (dh chaotisches Wechselspiel gefolgt von einem stabilen emergenten Muster) und mit der gleichen Art von Ergebnissen wie alles durchgeführt biologisches Netz von Neuronen.

Im Wesentlichen akzeptierten die biologischen Neuronen ihre elektronischen Peers. Es zeigt an, dass ihr mathematisches Modell dieser Neuronen ziemlich genau war.

Es gibt viele Projekte auf der ganzen Welt, die nichtbiologische Geräte erstellen, um die Funktionalität von menschlichen Neuronenclustern detailliert nachzubilden. Die Genauigkeit und das Ausmaß dieser Neuron-Cluster-Replikationen nehmen schnell zu.

Wir begannen mit funktionell äquivalenten Nachbildungen einzelner Neuronen, dann von Zehner- dann Hunderter- und jetzt Tausendergruppen. Technische Prozesse in einem exponentiellen Tempo zu skalieren, ist die Technologie gut.

Während die Rechenleistung zur Nachahmung des menschlichen Gehirns verfügbar wird - wir sind noch nicht da, aber wir werden in ein paar Jahrzehnten da sein - werden Projekte, die bereits laufen, um das menschliche Gehirn zu scannen, beschleunigt werden, mit dem Ziel, beides zu verstehen menschlichen Gehirns im Allgemeinen sowie eine detaillierte Beschreibung des Inhalts und des Designs bestimmter Gehirne.

Im dritten Jahrzehnt des 21. Jahrhunderts werden wir in der Lage sein, sehr detaillierte und vollständige Karten aller relevanten Merkmale aller Neuronen, neuralen Verbindungen und Synapsen im menschlichen Gehirn zu erstellen, wobei alle neuronalen Details eine Rolle spielen in das Verhalten und die Funktionalität des Gehirns, und diese Designs in entsprechend fortgeschrittenen neuronalen Computern neu zu erstellen.

Ist das menschliche Gehirn anders als ein Computer?

Ist das menschliche Gehirn anders als ein Computer?

Die Antwort hängt davon ab, was wir unter dem Wort "Computer" verstehen.

Sicher verwendet das Gehirn sehr unterschiedliche Methoden von herkömmlichen modernen Computern. Die meisten Computer sind heute digital und führen eine (oder vielleicht auch mehrere) Berechnungen gleichzeitig mit extrem hoher Geschwindigkeit durch. Im Gegensatz dazu kombiniert das menschliche Gehirn digitale und analoge Methoden mit den meisten Berechnungen im analogen Bereich.

Das Gehirn ist massiv parallel und arbeitet in der Größenordnung von hundert Billionen Berechnungen zur gleichen Zeit, aber bei extrem langsamen Geschwindigkeiten.

In Bezug auf Digital-Analog-Computing wissen wir, dass Digital Computing funktional äquivalent zu Analog-Computing sein kann (obwohl das Gegenteil nicht der Fall ist), so dass wir alle Fähigkeiten eines hybriden Digital-Analog-Netzwerks mit einem vollständig digitalen Computer ausführen können.

Auf der anderen Seite gibt es einen technischen Vorteil gegenüber analogen Schaltungen, da das analoge Rechnen potentiell um ein Tausendfaches effizienter ist. Eine analoge Berechnung kann durch einige wenige Transistoren oder im Fall von Säugetierneuronen durch spezifische elektrochemische Prozesse durchgeführt werden.

Eine digitale Berechnung erfordert dagegen Tausende oder Zehntausende von Transistoren. Es gibt also einen bedeutenden technischen Vorteil, um die analogen Methoden des Gehirns zu emulieren.

Der massive Parallelismus des menschlichen Gehirns ist der Schlüssel zu seinen Mustererkennungsfähigkeiten, die die Stärke des menschlichen Denkens widerspiegeln.

Wie ich oben schon sagte, regen Säugetierneuronen einen chaotischen Tanz an, und wenn das neuronale Netzwerk seine Lektionen gut gelernt hat, wird ein stabiles Muster entstehen, das die Entscheidung des Netzwerks widerspiegelt. Es gibt keinen Grund, warum unsere nichtbiologisch funktional äquivalenten Nachbildungen biologischer neuronaler Netze nicht mit denselben Prinzipien aufgebaut werden können, und tatsächlich gibt es Dutzende von Projekten auf der ganzen Welt, denen dies gelungen ist.

Mein eigenes technisches Gebiet ist die Mustererkennung, und die Projekte, an denen ich seit über 30 Jahren beteiligt bin, nutzen diese Form des chaotischen Rechnens.

Besonders erfolgreiche Beispiele sind die neuronalen Chips von Carver Mead, die hochparallel sind, digital gesteuertes analoges Rechnen verwenden und als funktionell ähnliche Nachbildungen von biologischen Netzwerken gedacht sind.

Objektiv und subjektiv

Die Singularität sieht die Entstehung von menschenähnlichen intelligenten Entitäten von erstaunlicher Vielfalt und Umfang vor.

Obwohl diese Entitäten in der Lage sein werden, den "Turing-Test" zu bestehen (d. H. Menschen täuschen können, dass sie Menschen sind), stellt sich die Frage, ob diese "Menschen" bei Bewusstsein sind oder nur so erscheinen.

Um einige Einsichten darüber zu gewinnen, warum dies eine äußerst subtile (wenn auch letztlich wichtige) Frage ist, ist es nützlich, einige der Paradoxien zu betrachten, die sich aus dem Konzept des Herunterladens spezifischer menschlicher Gehirne ergeben.

Obwohl ich erwarte, dass die häufigste Anwendung des Wissens, das durch das Reverse Engineering des menschlichen Gehirns gewonnen wird, intelligentere Maschinen sein wird, die nicht notwendigerweise auf spezifischen biologischen menschlichen Individuen basieren, ist das Szenario des Scannens und Wiederherstellens aller neuronalen Details von a Spezifisch Person wirft die unmittelbarsten Fragen der Identität auf.

Betrachten wir die Frage, was wir finden werden, wenn wir das tun.

Wir müssen diese Frage sowohl auf der objektiven als auch auf der subjektiven Ebene betrachten.

"Ziel" bedeutet alle außer mir, also fangen wir damit an.Objektiv gesehen, wenn wir jemandes Gehirn scannen und seine persönliche Gedankenakte in ein geeignetes Computermedium wiederherstellen, wird die neu entstehende "Person" anderen Beobachtern erscheinen, die die gleiche Persönlichkeit, Geschichte und Erinnerung haben wie die Person, die ursprünglich gescannt wurde.

Das heißt, sobald die Technologie verfeinert und perfektioniert wurde. Wie jede neue Technologie wird es auf den ersten Blick nicht perfekt sein. Aber letztendlich sind die Scans und Nachbildungen sehr genau und realistisch.

Interaktion mit der neu instanziierten Person wird sich als Interaktion mit der ursprünglichen Person fühlen.

Die neue Person wird behaupten, dieselbe alte Person zu sein und wird eine Erinnerung daran haben, diese Person gewesen zu sein. Die neue Person wird alle Muster des Wissens, der Fähigkeiten und der Persönlichkeit des Originals haben. Wir schaffen bereits funktionell äquivalente Nachbildungen von Neuronen und Neuronenclustern mit ausreichender Genauigkeit, so dass biologische Neuronen ihre nichtbiologischen Äquivalente akzeptieren und mit ihnen arbeiten, als wären sie biologisch.

Es gibt keine natürlichen Grenzen, die uns daran hindern, dasselbe mit dem hundert Milliarden Neuronencluster von Clustern zu tun, die wir das menschliche Gehirn nennen.

Subjektiv ist das Thema subtiler und tiefgründiger, aber zuerst müssen wir über ein zusätzliches objektives Thema nachdenken: unser physisches Selbst.

Die Bedeutung eines Körpers

Überlegen Sie, wie viele unserer Gedanken und Gedanken auf unseren Körper und sein Überleben, Sicherheit, Ernährung und Image gerichtet sind, ganz zu schweigen von Zuneigung, Sexualität und Fortpflanzung.

Viele, wenn nicht sogar die meisten Ziele, die wir mit unseren Gehirnen erreichen wollen, haben mit unseren Körpern zu tun: sie zu beschützen, sie mit Treibstoff zu versorgen, sie attraktiv zu machen, ihnen ein gutes Gefühl zu geben, ihre unzähligen Bedürfnisse und Wünsche zu erfüllen. Einige Philosophen behaupten, dass das Erlangen menschlicher Intelligenz ohne einen Körper unmöglich ist.

Wenn wir den Geist eines Menschen auf ein neues Computermedium portieren, sollten wir besser einen Körper bereitstellen. Ein körperloser Geist wird schnell deprimiert.

Es gibt eine Vielzahl von Organen, die wir für unsere Maschinen bereitstellen werden und die sie für sich selbst bereitstellen werden: Körper, die durch Nanotechnologie gebaut werden (dh hochkomplexe physikalische Systeme Atom für Atom), virtuelle Körper (die nur in virtueller Realität existieren), Körper aus Schwärmen von Nanobots und anderen Technologien.

Ein häufiges Szenario wird darin bestehen, das biologische Gehirn einer Person durch eine innige Verbindung mit nicht biologischer Intelligenz zu verbessern.

In diesem Fall bleibt der Körper der gute alte menschliche Körper, den wir kennen, obwohl dies auch durch die Biotechnologie (Genverstärkung und -ersatz) und später durch die Nanotechnologie erheblich verbessert wird. Eine detaillierte Untersuchung der Körper des einundzwanzigsten Jahrhunderts übersteigt den Rahmen dieses Aufsatzes, aber das Nachstellen und Verbessern unseres Körpers wird (und war) eine leichtere Aufgabe als das Wiedererlangen unseres Geistes.

Also, wer sind diese Leute?

Um auf das Problem der Subjektivität zurückzukommen, bedenken Sie: Ist der wiederhergestellte Geist das gleiche Bewusstsein wie die Person, die wir gerade gescannt haben?

Sind diese "Menschen" überhaupt bewusst? Ist das ein Geist oder nur ein Gehirn?

Das Bewusstsein in unseren Maschinen des 21. Jahrhunderts wird von entscheidender Bedeutung sein. Aber es ist nicht leicht zu lösen oder sogar leicht zu verstehen. Menschen neigen dazu, eine starke Meinung zu diesem Thema zu haben, und oft können sie einfach nicht verstehen, wie jemand anderes das Thema aus einer anderen Perspektive sehen könnte.

Marvin Minsky bemerkte, dass "etwas seltsam ist, das Bewusstsein zu beschreiben. Was auch immer Leute sagen wollen, sie können es einfach nicht klarstellen.

"

Wir sorgen uns nicht, zumindest noch nicht, um unseren Computerprogrammen Schmerzen und Leiden zuzufügen. Aber an welchem ​​Punkt betrachten wir eine Entität, einen Prozess, um bewusst zu sein, um Schmerz und Unbehagen zu empfinden, um ihre eigene Intentionalität zu haben, ihren eigenen freien Willen?

Wie bestimmen wir, ob eine Entität bei Bewusstsein ist? wenn es subjektive Erfahrung hat? Wie unterscheiden wir einen bewussten Prozess von einem, der nur handelt?

als ob es ist bewusst?

Wir können es nicht einfach fragen. Wenn es heißt "Hey, ich bin bei Bewusstsein", löst das das Problem?

Nein, wir haben heute Computerspiele, die das effektiv tun, und sie sind nicht besonders überzeugend.

Wie wäre es, wenn die Entität ist sehr überzeugend und überzeugend, wenn es heißt "Ich bin einsam, bitte halte mich in Gesellschaft." Ist damit das Problem gelöst?

Wenn wir in seine Schaltkreise schauen und im Wesentlichen die identischen Arten von Rückkopplungsschleifen und anderen Mechanismen in seinem Gehirn sehen, die wir in einem menschlichen Gehirn sehen (wenn auch mit nicht-biologischen Äquivalenten umgesetzt), löst das das Problem?

Und wer sind diese Leute überhaupt in der Maschine?

Die Antwort hängt davon ab, wen Sie fragen. Wenn Sie die Leute in der Maschine fragen, werden sie sich strikt dafür aussprechen, die ursprünglichen Personen zu sein. Zum Beispiel, wenn wir scannen - sagen wir selbst - und den genauen Zustand, Level und Position jedes Neurotransmitters, jeder Synapse, neuralen Verbindung und jedes anderen relevanten Details aufzeichnen und dann diese massive Datenbank von Informationen wiederherstellen (die ich bei Tausende von Billionen von Bytes) in einen neuralen Computer von ausreichender Kapazität, die Person, die dann in der Maschine auftaucht, wird denken, dass "er" ist (und war) ich, oder zumindest wird er so handeln.

Er wird sagen: "Ich bin in Queens, New York, aufgewachsen, habe am MIT College studiert, bin in Boston geblieben, habe ein paar Künstliche-Intelligenz-Firmen gegründet und verkauft, bin dort in einen Scanner gelaufen und hier in der Maschine aufgewacht.

Hey, diese Technologie funktioniert wirklich. "

Aber warte.

Ist das wirklich ich? Zum einen existiert der alte biologische Strahl (das bin ich) noch immer. Ich werde immer noch hier in meinem Gehirn auf der Basis von Kohlenstoffzellen sein. Ach, ich muss mich zurücklehnen und zusehen, wie der neue Ray in seinen Bemühungen Erfolg hat, von denen ich nur träumen konnte.

Ein Gedankenexperiment

Betrachten wir die Frage, wer ich bin und wer der neue Ray ein wenig sorgfältiger ist.

Zuallererst, bin ich das Zeug in meinem Gehirn und meinem Körper?

Bedenken Sie, dass sich die Partikel, aus denen sich Körper und Gehirn zusammensetzen, ständig verändern. Wir sind keineswegs permanente Sammlungen von Partikeln. Die Zellen in unseren Körpern kehren mit unterschiedlichen Geschwindigkeiten um, aber die Partikel (z.

B. Atome und Moleküle), die unsere Zellen umfassen, werden mit einer sehr schnellen Rate ausgetauscht. Ich bin einfach nicht die selbe Ansammlung von Partikeln, die ich vor einem Monat noch war.

Es sind die Muster von Materie und Energie, die semipermanent sind (dh sich nur allmählich ändern), aber unser tatsächlicher materieller Inhalt ändert sich ständig und sehr schnell. Wir sind eher wie die Muster, die Wasser in einem Strom macht. Das rauschende Wasser um eine Gesteinsformation bildet ein besonderes, einzigartiges Muster.

Dieses Muster kann über Stunden, sogar Jahre, relativ unverändert bleiben. Natürlich wird das eigentliche Material, aus dem das Muster besteht - das Wasser - in Millisekunden ersetzt. Gleiches gilt für Ray Kurzweil. Wie das Wasser in einem Strom verändern sich meine Teilchen ständig, aber das Muster, das die Menschen als Ray erkennen, hat ein vernünftiges Maß an Kontinuität.

Dies spricht dafür, dass wir unsere fundamentale Identität nicht mit einer bestimmten Gruppe von Teilchen assoziieren sollten, sondern mit dem Muster von Materie und Energie, das wir repräsentieren.

Viele zeitgenössische Philosophen scheinen Teil dieses "Identifizieren von Muster" -Arguments zu sein.

Aber (wieder) warte.

Wenn du mein Gehirn scannen würdest und den neuen Ray wiederherstellst während ich schlief, würde ich nicht unbedingt davon erfahren (mit den Nanobots wird dies ein praktikables Szenario sein).

Wenn du dann zu mir kommst und sagst: "Gute Neuigkeiten, Ray, wir haben deine Gedankenakte erfolgreich wiederhergestellt, so dass wir dein altes Gehirn nicht mehr brauchen werden", kann ich plötzlich den Fehler in dieser "Identität aus Muster erkennen" " Streit. Ich wünsche dem neuen Ray wohl und erkenne, dass er mein "Muster" teilt, aber ich würde trotzdem schlussfolgern, dass er nicht ich bin, weil ich immer noch hier bin.

Wie könnte er ich sein? Schließlich würde ich nicht unbedingt wissen, dass er überhaupt existiert hat.

Betrachten wir ein weiteres verblüffendes Szenario. Angenommen, ich ersetze eine kleine Anzahl biologischer Neuronen durch funktionell äquivalente nichtbiologische Neuronen (sie können bestimmte Vorteile wie größere Zuverlässigkeit und Langlebigkeit bieten, aber das ist für dieses Gedankenexperiment nicht relevant).

Nachdem ich diese Prozedur durchgeführt habe, bin ich immer noch dieselbe Person? Meine Freunde denken das sicher. Ich habe immer noch denselben selbstironischen Humor, dasselbe alberne Grinsen - ja, ich bin immer noch derselbe Typ.

Es sollte klar sein, wohin ich damit gehe. Stück für Stück, Region für Region, ersetze ich letztendlich mein gesamtes Gehirn durch im Wesentlichen identische (vielleicht verbesserte) nichtbiologische Äquivalente (wobei alle Neurotransmitterkonzentrationen und andere Details erhalten bleiben, die mein Lernen, Fähigkeiten und Erinnerungen repräsentieren).

An jedem Punkt waren die Verfahren erfolgreich. An jedem Punkt fühle ich, dass ich derselbe Typ bin. Nach jeder Prozedur behaupte ich, derselbe Typ zu sein. Meine Freunde stimmen zu. Es gibt keinen alten Strahl und keinen neuen Strahl, nur einen Strahl, einen, der sich nie grundlegend zu verändern scheint.

Aber bedenkt das. Dieser allmähliche Ersatz meines Gehirns durch ein nichtbiologisches Äquivalent ist im wesentlichen identisch mit der folgenden Sequenz:

  1. (i) Ray scannen und Ray's Geist-Datei in einen neuen (nichtbiologischen) Ray aufnehmen, und dann
  2. (ii) beende den alten Ray.

    Aber wir schlossen oben, dass in einem solchen Szenario der neue Strahl nicht derselbe ist wie der alte Strahl. Und wenn der alte Ray beendet ist, dann ist das das Ende von Ray.

    Das Szenario des allmählichen Ersetzens endet also im Wesentlichen mit demselben Ergebnis: Neuer Strahl wurde erschaffen, und der alte Strahl wurde zerstört, auch wenn wir ihn nie vermisst sahen.

    Was also die fortdauernde Existenz von nur einem Ray zu sein scheint, ist wirklich die Kreation eines neuen Ray und die Beendigung des alten Ray.

Auf der anderen Seite (Wir haben hier keine philosophischen Hände mehr), das allmähliche Ersetzungsszenario ist nicht ganz anders als das, was normalerweise mit unserem biologischen Selbst geschieht, da unsere Teilchen immer schnell ersetzt werden.

Also werde ich ständig durch jemand anderes ersetzt, der meinem alten Ich sehr ähnlich ist?

Ich versuche zu illustrieren, warum das Bewusstsein kein leichtes Problem ist.

Wenn wir über Bewusstsein nur als eine bestimmte Art von intelligenten Fähigkeiten sprechen: die Fähigkeit, zum Beispiel über das eigene Selbst und die Situation zu reflektieren, dann ist das Problem überhaupt nicht schwierig, weil es irgendeine Fähigkeit oder Fähigkeit oder Form von Intelligenz gibt, die man definieren möchte werden in nichtbiologischen Einheiten (dh Maschinen) innerhalb weniger Jahrzehnte repliziert.

Mit dieser Art von Zielsetzung Sicht des Bewusstseins, verschwinden die Rätsel. Aber eine vollkommen objektive Sichtweise dringt nicht in den Kern des Problems vor, weil das Wesen des Bewusstseins ist subjektiv Erfahrung, nicht objektive Korrelate dieser Erfahrung.

Werden diese zukünftigen Maschinen in der Lage sein, spirituelle Erfahrungen zu machen?

Sie werden sicherlich behaupten.

Sie werden behaupten, Menschen zu sein und die ganze Bandbreite an emotionalen und spirituellen Erfahrungen zu haben, von denen die Leute behaupten, sie zu haben. Und dies werden keine untätigen Ansprüche sein; Sie werden die Art von reichem, komplexem und subtilem Verhalten zeigen, das man mit diesen Gefühlen verbindet.

Wie hängen die Behauptungen und Verhaltensweisen, die so zwingend sind, mit der subjektiven Erfahrung dieser wiedererneuerten Menschen zusammen? Wir kommen immer wieder auf die sehr reale, aber letztlich unmessbare Frage des Bewusstseins zurück.

Menschen sprechen oft über Bewusstsein, als wäre es eine klare Eigenschaft einer Entität, die leicht identifiziert, erkannt und gemessen werden kann.Wenn es eine entscheidende Einsicht gibt, die wir machen können, warum das Problem des Bewusstseins so umstritten ist, ist es das Folgende:

Es gibt keinen objektiven Test, der sein Vorhandensein abschließend feststellen kann.

Wissenschaft geht es um objektive Messung und logische Implikationen, aber die eigentliche Natur der Objektivität ist, dass man subjektive Erfahrung nicht messen kann - man kann nur Korrelate davon messen, wie Verhalten (und durch Verhalten schließe ich die Handlungen von Komponenten einer Entität ein, wie Neuronen).

Diese Beschränkung hat mit der Natur der Begriffe "objektiv" und "subjektiv" zu tun. Grundsätzlich können wir die subjektive Erfahrung einer anderen Entität mit direkter objektiver Messung nicht durchdringen. Wir können sicherlich darüber streiten: dh "schauen Sie in das Gehirn dieser nichtmenschlichen Entität, sehen Sie, wie ihre Methoden genau wie ein menschliches Gehirn sind." Oder "sehen Sie, wie sein Verhalten genau wie menschliches Verhalten ist." Aber am Ende das bleiben nur Argumente.

Unabhängig davon, wie überzeugend das Verhalten einer wiederhergestellten Person ist, werden sich einige Beobachter weigern, das Bewusstsein einer Entität zu akzeptieren, es sei denn, sie spuckt Neurotransmitter aus oder basiert auf einer DNA-gesteuerten Proteinsynthese oder hat eine andere spezifische biologisch-menschliche Eigenschaft.

Wir nehmen an, dass andere Menschen bewusst sind, aber das ist immer noch eine Annahme, und es gibt keinen Konsens unter den Menschen über das Bewusstsein nichtmenschlicher Wesen, wie etwa höherer nicht-menschlicher Tiere.

Das Thema wird in Bezug auf künftige nichtbiologische Entitäten mit menschenähnlichem Verhalten und Intelligenz noch umstrittener sein.

Wie werden wir das beanspruchte Bewusstsein nichtbiologischer Intelligenz lösen (behauptet, das heißt von den Maschinen)?

Aus praktischer Sicht akzeptieren wir ihre Ansprüche. Denken Sie daran, dass nicht-biologische Entitäten im einundzwanzigsten Jahrhundert äußerst intelligent sein werden, so dass sie uns davon überzeugen können, dass sie bei Bewusstsein sind.

Sie werden all die zarten und emotionalen Hinweise haben, die uns heute davon überzeugen, dass Menschen bewusst sind. Sie werden uns zum Lachen und Weinen bringen. Und sie werden verrückt, wenn wir ihre Ansprüche nicht akzeptieren.

Aber im Grunde ist dies eine politische Vorhersage, kein philosophisches Argument.

Auf Tubuli und Quantencomputer

In den letzten Jahren hat Roger Penrose, ein bekannter Physiker und Philosoph, vorgeschlagen, dass feine Strukturen in den Neuronen, die Tubuli genannt werden, eine exotische Form der Berechnung namens "Quanten-Computing" ausführen. Quanten-Computing ist das Rechnen mit sogenannten "Qu-Bits" nehmen Sie alle möglichen Kombinationen von Lösungen gleichzeitig an.

Es kann als extreme Form der Parallelverarbeitung angesehen werden (weil jede Kombination von Werten der qu Bits gleichzeitig getestet wird).





Penrose schlägt vor, dass die Tubuli und ihre Quanten-Computing-Fähigkeiten das Konzept der Neubildung von Neuronen und der Wiederherstellung von Mind-Files komplizieren.

Es gibt jedoch wenig Hinweise darauf, dass die Tubuli zum Denkprozess beitragen. Selbst großzügige Modelle des menschlichen Wissens und Könnens werden durch aktuelle Schätzungen der Gehirngröße, basierend auf modernen Modellen der Neuronenfunktion, die keine Tubuli beinhalten, mehr als berücksichtigt.

Selbst bei diesen tubuluslosen Modellen scheint es, dass das Gehirn konservativ mit viel mehr Verbindungen (um mehrere Größenordnungen) konstruiert ist, als es für seine Fähigkeiten und Kapazität benötigt. Neuere Experimente (z. B. das San Diego Institut für nichtlineare wissenschaftliche Experimente), die zeigen, dass hybride biologisch-nichtbiologische Netzwerke ähnlich wie alle biologischen Netzwerke funktionieren, sind zwar nicht definitiv, sprechen jedoch stark dafür, dass unsere tubuluslosen Modelle der Neuronenfunktion adäquat sind.

Lloyd Watts 'Softwaresimulation seines komplizierten Modells der menschlichen auditiven Verarbeitung verwendet Größenordnungen weniger Berechnung als die Netzwerke von Neuronen, die er simuliert, und es gibt keinen Hinweis darauf, dass Quantencomputer benötigt werden.

Aber selbst wenn die Röhrchen wichtig sind, ändert es die oben besprochenen Projektionen nicht in nennenswertem Maße. Nach meinem Modell des computergestützten Wachstums multiplizierten die Tubuli die Komplexität der Neuronen um den Faktor Tausend (und bedenken Sie, dass unsere aktuellen tubuluslosen Neuronenmodelle bereits komplex sind, einschließlich in der Größenordnung von tausend Verbindungen pro Neuron, multiple Nichtlinearitäten und andere Details), dies würde unser Erreichen der Gehirnkapazität um nur etwa 9 Jahre verzögern.

Wenn wir um den Faktor einer Million sind, ist das nur eine Verzögerung von 17 Jahren. Ein Faktor von einer Milliarde beträgt etwa 24 Jahre (denken Sie daran, dass die Berechnung um ein doppeltes Exponential zunimmt).

In Bezug auf das Quanten-Computing gibt es wieder nichts, was darauf hindeutet, dass das Gehirn Quantencomputer macht. Nur weil die Quantentechnologie machbar ist, deutet das nicht darauf hin, dass das Gehirn dazu in der Lage ist.

Schließlich haben wir keine Laser oder gar Radios in unserem Gehirn. Obwohl einige Wissenschaftler behauptet haben, Quantenwellenkollaps im Gehirn zu entdecken, hat niemand menschliche Fähigkeiten vorgeschlagen, die tatsächlich eine Kapazität für Quantencomputer erfordern.

Aber selbst wenn das Gehirn Quantencomputer macht, ändert dies weder die Aussichten für das menschliche Computerrechnen (und darüber hinaus) noch schlägt es vor, dass das Herunterladen von Gehirn unmöglich ist.

Vor allem, wenn das Gehirn Quantencomputer macht, würde dies nur bestätigen, dass Quantencomputer machbar ist. Bei einem solchen Befund würde nichts darauf hindeuten, dass Quantencomputer auf biologische Mechanismen beschränkt sind. Biologische Quantencomputer-Mechanismen könnten, wenn sie existieren, repliziert werden.

Jüngste Experimente mit kleinen Quantencomputern scheinen tatsächlich erfolgreich zu sein. Sogar der herkömmliche Transistor beruht auf dem Quanteneffekt des Elektronentunnelns.

Penrose schlägt vor, dass es unmöglich ist, eine Reihe von Quantenzuständen perfekt zu replizieren, daher ist ein perfektes Herunterladen unmöglich.

Nun, wie perfekt muss ein Download sein? Ich bin in diesem Moment in einem ganz anderen Quantenzustand (und auch anders auf Nicht-Quanten-Weisen) als ich vor einer Minute war (sicherlich in einem ganz anderen Zustand als vor dem ich diesen Absatz geschrieben habe).

Wenn wir die Download-Technologie so weit entwickeln, dass die "Kopien" dem Original so nahe kommen, wie sich die ursprüngliche Person im Laufe einer Minute ändert, wäre das für jeden erdenklichen Zweck gut genug, erfordert aber kein Kopieren von Quantenzuständen.

Wenn sich die Technologie verbessert, könnte die Genauigkeit der Kopie so nah wie das Original innerhalb immer kürzerer Zeiträume (z. B. eine Sekunde, eine Millisekunde, eine Mikrosekunde) werden.

Als auf Penrose hingewiesen wurde, dass Neuronen (und sogar neuronale Verbindungen) zu groß für das Quantenrechnen seien, kam er auf die Tubulentheorie als möglichen Mechanismus für das neuronale Quantencomputing.

So wurden die Bedenken mit Quantencomputern und Röhrchen gemeinsam eingeführt. Wenn man nach Barrieren für die Replikation der Gehirnfunktion sucht, ist es eine geniale Theorie, aber es bringt keine echten Barrieren ein. Es gibt keine Beweise dafür, und selbst wenn es wahr ist, verzögert es die Dinge nur um ein oder zwei Jahrzehnte.

Es gibt keinen Grund zu der Annahme, dass biologische Mechanismen (einschließlich Quantencomputer) von Natur aus mit nichtbiologischen Materialien und Mechanismen nicht repliziert werden können. Dutzende von zeitgenössischen Experimenten führen gerade solche Replikationen erfolgreich durch.

Das Non-invasive Surgery-Free reversible programmierbare verteilte Gehirnimplantat, Full-Immersion Shared Virtual Reality-Umgebungen, Erfahrung Beamer und Brain Expansion

Wie werden wir Technologien anwenden, die intelligenter sind als ihre Schöpfer?

Man könnte versucht sein, vorsichtig zu antworten. Aber schauen wir uns einige Beispiele an.

Betrachten Sie einige Beispiele der Nanobot-Technologie, die auf der Grundlage von Miniaturisierungs- und Kostensenkungstendenzen innerhalb von 30 Jahren realisierbar sein wird. Zusätzlich zum Scannen Ihres Gehirns werden die Nanobots auch in der Lage sein, unsere Erfahrungen und unsere Fähigkeiten zu erweitern.

Die Nanobot-Technologie wird auf die folgende Weise eine vollständig immersive, absolut überzeugende virtuelle Realität bereitstellen.

Die Nanobots nehmen Positionen in enger physischer Nähe zu jeder von allen unseren Sinnen (z. B. Augen, Ohren, Haut) stammenden neuronalen Verbindung ein. Wir haben bereits die Technologie für elektronische Geräte, um mit Neuronen in beiden Richtungen zu kommunizieren, die keinen direkten physischen Kontakt mit den Neuronen erfordern. Zum Beispiel haben Wissenschaftler am Max-Planck-Institut "Neuron-Transistoren" entwickelt, die das Feuern eines nahegelegenen Neurons erkennen können, oder alternativ ein nahes Neuron dazu bringen können, zu feuern oder es vor dem Feuern zu unterdrücken.

Dies führt zu einer bidirektionalen Kommunikation zwischen Neuronen und den auf Elektronen basierenden Neuronentransistoren. Die Wissenschaftler des Instituts demonstrierten ihre Erfindung, indem sie die Bewegung eines lebenden Blutegels von ihrem Computer aus kontrollierten. Der Hauptaspekt der Nanobot-basierten virtuellen Realität, der noch nicht möglich ist, sind Größe und Kosten.

Wenn wir echte Realität erleben wollen, bleiben die Nanobots einfach in Position (in den Kapillaren) und tun nichts.

Wenn wir in die virtuelle Realität eintreten wollen, unterdrücken sie alle Eingaben, die von den realen Sinnen kommen, und ersetzen sie durch die Signale, die für die virtuelle Umgebung geeignet wären. Sie (dh Ihr Gehirn) könnten entscheiden, Ihre Muskeln und Glieder zu bewegen, wie Sie es normalerweise tun würden, aber die Nanobots fangen diese interneuronalen Signale wieder auf, unterdrücken Ihre realen Gliedmaßen und bewegen stattdessen Ihre virtuellen Gliedmaßen und sorgen für das Richtige Bewegung und Neuorientierung in der virtuellen Umgebung.

Das Web bietet eine Vielzahl virtueller Umgebungen, die es zu erkunden gilt.

Einige werden reale Orte neu erschaffen, andere werden phantasievolle Umgebungen sein, die kein "echtes" Gegenstück haben. Einige wären tatsächlich in der physischen Welt unmöglich (vielleicht, weil sie die Gesetze der Physik verletzen).

Wir werden in der Lage sein, selbst in diese virtuellen Umgebungen zu "gehen", oder wir werden andere Menschen dort treffen, sowohl echte Menschen als auch simulierte Menschen. Natürlich wird es letztendlich keine klare Unterscheidung zwischen den beiden geben.

Bis 2030 bedeutet das Betreten einer Website das Betreten einer virtuellen Umgebung mit vollständiger Immersion.

Diese gemeinsamen Umgebungen können nicht nur alle Sinne umfassen, sondern auch emotionale Überlagerungen, da die Nanobots die neurologischen Korrelate von Emotionen, sexuellem Vergnügen und anderen Ableitungen unserer Sinneserfahrungen und mentalen Reaktionen auslösen können.

So wie die Menschen heute ihr Leben von den Webcams in ihren Schlafzimmern ausstrahlen, werden "Beamer" um 2030 ihren gesamten Fluss von Sinneserfahrungen und, wenn gewünscht, ihre Emotionen und andere Nebenreaktionen beamen.

Wir können uns anschließen (indem wir auf die entsprechende Website gehen) und das Leben anderer Menschen erleben, wie im Handlungskonzept von "Being John Malkovich". Besonders interessante Erlebnisse können jederzeit archiviert und erlebt werden.

Wir müssen nicht bis 2030 warten, um gemeinsam genutzte Virtual-Reality-Umgebungen zu erleben, zumindest für den visuellen und auditiven Sinn.

Bis zum Ende dieses Jahrzehnts werden vollständig eintauchende visuell-auditive Umgebungen verfügbar sein, bei denen Bilder von unseren Brillen und Kontaktlinsen direkt auf unsere Netzhaut geschrieben werden.

Die gesamte Elektronik für die Berechnung, Bildrekonstruktion und kabellose Verbindung mit sehr hoher Bandbreite zum Internet wird in unsere Brille eingebettet und in unsere Kleidung eingewebt, so dass Computer als einzelne Objekte verschwinden.

Die wichtigste Auswirkung der Singularität wird meines Erachtens die Verschmelzung biologischer und nichtbiologischer Intelligenz sein.

Zunächst ist es wichtig, darauf hinzuweisen, dass lange vor dem Ende des 21. Jahrhunderts das Denken auf nichtbiologischen Substraten dominieren wird. Biologisches Denken ist bei 10 fest26 Berechnungen pro Sekunde (für alle biologischen menschlichen Gehirne), und diese Zahl wird sich auch bei biotechnologischen Veränderungen unseres Genoms nicht nennenswert ändern. Die nichtbiologische Intelligenz dagegen wächst doppelt exponentiell und wird die biologische Intelligenz weit vor der Mitte dieses Jahrhunderts weit übertreffen.

Meiner Ansicht nach sollte diese nicht-biologische Intelligenz immer noch als menschlich betrachtet werden, da sie vollständig von der Mensch-Maschine-Zivilisation abgeleitet ist.

Die Verschmelzung dieser beiden Welten der Intelligenz ist nicht nur eine Verschmelzung von biologischen und nichtbiologischen Denkmedien, sondern vor allem eine der Methode und Organisation des Denkens.

Eine der Schlüsselarten, auf die die zwei Welten einwirken können, wird durch die Nanobots sein. Die Nanobot-Technologie wird unsere Gedanken auf nahezu jede erdenkliche Weise erweitern können.

Unsere Gehirne sind heute relativ fest im Design. Obwohl wir Muster neuronaler Verbindungen und Neurotransmitterkonzentrationen als einen normalen Teil des Lernprozesses hinzufügen, ist die derzeitige Gesamtkapazität des menschlichen Gehirns stark eingeschränkt und auf lediglich hundert Billionen Verbindungen beschränkt.

Gehirnimplantate, die auf massiv verteilten intelligenten Nanobots basieren, werden unsere Erinnerungen schließlich um das Billionfache erweitern und unsere sensorischen, Mustererkennungs- und kognitiven Fähigkeiten verbessern. Da die Nanobots über ein drahtloses lokales Netzwerk miteinander kommunizieren, können sie einen beliebigen Satz neuer neuronaler Verbindungen schaffen, bestehende Verbindungen aufbrechen (durch Unterdrücken neuronaler Feuern), neue hybride biologisch-nicht-biologische Netzwerke schaffen sowie riesige Netzwerke hinzufügen neue nichtbiologische Netzwerke.

Die Verwendung von Nanobots als Gehirnverlängerer ist eine signifikante Verbesserung gegenüber der Idee von chirurgisch installierten Neuronenimplantaten, die heute verwendet werden (z.

B. Nucleus ventralis posterior, Nucleus subthalicus und ventrale laterale Thalamusneurone), um Parkinson-Krankheit und Tremor anderer neurologischer Implantate entgegenzuwirken Erkrankungen, Cochlea-Implantate und andere.) Nanobots werden ohne Operation eingeführt, im Wesentlichen nur durch Injektion oder sogar Schlucken.

Sie können alle angewiesen werden, zu gehen, so dass der Prozess leicht reversibel ist. Sie sind programmierbar, indem sie eine Minute eine virtuelle Realität und eine Vielzahl von Erweiterungen des Gehirns bereitstellen können. Sie können ihre Konfiguration ändern und ihre Software deutlich verändern.

Vielleicht am wichtigsten ist, dass sie massiv verteilt sind und daher Milliarden oder Billionen von Positionen im gesamten Gehirn einnehmen können, während ein chirurgisch eingeführtes Neuralimplantat nur an einer oder höchstens einigen Stellen platziert werden kann.

Das doppelte exponentielle Wachstum der Wirtschaft in den 1990er Jahren war keine Blase

Eine weitere Manifestation des Gesetzes der beschleunigten Rückkehr, wenn es auf die Singularität zueilt, kann in der Welt der Ökonomie gefunden werden, einer Welt, die sowohl für die Entstehung des Gesetzes der beschleunigten Rückkehr als auch für seine Implikationen lebenswichtig ist.

Es ist der wirtschaftliche Imperativ eines wettbewerbsorientierten Marktes, der die Technologie vorantreibt und das Gesetz der beschleunigten Erträge ankurbelt. Im Gegenzug verändert das Gesetz der Beschleunigung von Renditen, insbesondere wenn es sich der Singularität nähert, wirtschaftliche Beziehungen.

Praktisch alle in Wirtschaftskursen gelehrten Wirtschaftsmodelle, die vom Federal Reserve Board zur Festlegung der Geldpolitik durch staatliche Stellen zur Festlegung der Wirtschaftspolitik verwendet werden, und von Wirtschaftsmeteorologen aller Art sind grundsätzlich fehlerhaft, da sie auf der intuitiven linearen Sichtweise von Geschichte statt die historisch basierte exponentielle Sicht.

Der Grund, warum diese linearen Modelle für eine Weile zu funktionieren scheinen, ist der gleiche Grund, warum die meisten Leute die intuitive lineare Ansicht überhaupt annehmen: exponentielle Trends scheinen linear zu sein, wenn sie für eine kurze Zeitspanne betrachtet (und erlebt) werden in den frühen Phasen eines exponentiellen Trends, wenn nicht viel passiert. Aber sobald das "Knie der Kurve" erreicht ist und das exponentielle Wachstum explodiert, brechen die linearen Modelle zusammen.

Die exponentiellen Trends, die dem Produktivitätswachstum zugrunde liegen, beginnen gerade diese explosive Phase.

Die Wirtschaft (insgesamt oder pro Kopf gesehen) hat in diesem Jahrhundert exponentiell zugenommen:

Es gibt auch eine zweite Ebene des exponentiellen Wachstums, aber bis vor kurzem war der zweite Exponent in der frühen Phase, so dass das Wachstum der Wachstumsrate nicht bemerkt wurde.

Dies hat sich jedoch im letzten Jahrzehnt geändert, in dem die Wachstumsrate merklich exponentiell war.

Die Produktivität (Wirtschaftsleistung pro Arbeitnehmer) hat ebenfalls exponentiell zugenommen. Selbst diese Statistiken werden stark unterbewertet, weil sie nicht signifikante Verbesserungen der Qualität und Merkmale von Produkten und Dienstleistungen widerspiegeln.

Es ist nicht der Fall, dass "ein Auto ein Auto ist", es gab bedeutende Verbesserungen in der Sicherheit, in der Zuverlässigkeit und in den Eigenschaften. Es gibt eine Unzahl solcher Beispiele. Arzneimittel sind zunehmend wirksam. Lebensmittel, die in fünf Minuten im Internet bestellt und an Ihre Haustür geliefert werden, sind mehr wert als Lebensmittel in einem Supermarktregal, die Sie selbst abholen müssen.

Kleidung, die für Ihren einzigartigen Körperscan hergestellt wird, ist mehr wert als Kleidung, die Sie zufällig auf einem Regal finden. Diese Art von Verbesserungen gelten für die meisten Produktkategorien und keiner davon spiegelt sich in den Produktivitätsstatistiken wider.

Die statistischen Methoden, die den Produktivitätsmessungen zugrunde liegen, tendieren dazu, Gewinne zu neutralisieren, indem wir im Wesentlichen zu dem Schluss kommen, dass wir nur einen Dollar Produkte und Dienstleistungen für einen Dollar bekommen, obwohl wir für einen Dollar viel mehr bekommen vor zehn Jahren).

Professor Pete Klenow von der University of Chicago und Professor Mark Bils von der University of Rochester schätzen, dass der Wert bestehender Güter in den letzten 20 Jahren aufgrund qualitativer Verbesserungen um 1,5% pro Jahr gestiegen ist. Die Einführung völlig neuer Produkte und Produktkategorien ist damit noch nicht berücksichtigt. Das Bureau of Labor Statistics, das für die Inflationsstatistik zuständig ist, verwendet ein Modell, das eine Schätzung des Qualitätswachstums von nur 0,5% pro Jahr beinhaltet, was eine systematische Unterschätzung der Qualitätsverbesserung und eine daraus resultierende Überschätzung der Inflation um mindestens 1 Prozent pro Jahr widerspiegelt Jahr.

Trotz dieser Schwächen bei den produktivitätsstatistischen Methoden erreichen die Produktivitätsgewinne nun den steilen Teil der Exponentialkurve.

Die Arbeitsproduktivität stieg bis 1994 um 1,6% pro Jahr, stieg dann um 2,4% pro Jahr und wächst jetzt noch schneller. In dem Quartal, das am 30. Juli 2000 endete, stieg die Arbeitsproduktivität um 5,3%. Die Produktionsproduktivität stieg von 1995 bis 1999 um jährlich 4,4%, die Herstellung von Gebrauchsgütern um 6,5% pro Jahr.

Aufmerksamkeit auf




Top

Leave a Reply