Wie wir die erste künstliche Superintelligenz erschaffen: Die Zukunft der künstlichen Intelligenz P3

IMAGE CREDIT: Quantenlauf

Wie wir die erste künstliche Superintelligenz erschaffen: Die Zukunft der künstlichen Intelligenz P3

    Mitten im Zweiten Weltkrieg rollten Nazi-Streitkräfte durch weite Teile Europas. Sie hatten fortschrittliche Waffen, eine effiziente Kriegsindustrie, eine fanatisch getriebene Infanterie, aber vor allem hatten sie eine Maschine namens Enigma. Dieses Gerät ermöglichte es den Nazi-Streitkräften, über große Entfernungen sicher zusammenzuarbeiten, indem sie morsecodierte Nachrichten über Standardkommunikationsleitungen aneinander sendeten. es war eine Chiffriermaschine, die für menschliche Codeknacker uneinnehmbar war. 

    Zum Glück fanden die Alliierten eine Lösung. Sie brauchten keinen menschlichen Verstand mehr, um Enigma zu brechen. Stattdessen bauten die Alliierten durch eine Erfindung des verstorbenen Alan Turing ein revolutionäres neues Werkzeug namens Britische Bombe, ein elektromechanisches Gerät, das schließlich den Geheimcode der Nazis entschlüsselte und ihnen letztendlich half, den Krieg zu gewinnen.

    Diese Bombe legte den Grundstein für das, was der moderne Computer wurde.

    Neben Turing arbeitete während des Bombe-Entwicklungsprojekts IJ Good, ein britischer Mathematiker und Kryptologe. Er sah schon früh das Endspiel, das dieses neue Gerät eines Tages hervorbringen könnte. In einem 1965 Papier, er schrieb:

    „Lassen Sie eine ultraintelligente Maschine als eine Maschine definieren, die alle intellektuellen Aktivitäten eines noch so schlauen Menschen weit übertreffen kann. Da das Design von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine ultraintelligente Maschine noch bessere Maschinen entwerfen; es würde dann zweifellos eine "Intelligenzexplosion" geben, und die Intelligenz des Menschen würde weit zurückbleiben ... Somit ist die erste ultraintelligente Maschine die letzte Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist fügsam genug, uns zu sagen, wie um es unter Kontrolle zu halten.“

    Erschaffung der ersten künstlichen Superintelligenz

    Bisher haben wir in unserer Serie „Die Zukunft der künstlichen Intelligenz“ die drei großen Kategorien der künstlichen Intelligenz (KI) definiert künstliche schmale intelligenz (ANI) zu künstliche allgemeine Intelligenz (AGI), aber in diesem Serienkapitel konzentrieren wir uns auf die letzte Kategorie – diejenige, die bei KI-Forschern entweder Aufregung oder Panikattacken auslöst – künstliche Superintelligenz (ASI).

    Um zu verstehen, was ein ASI ist, müssen Sie an das letzte Kapitel zurückdenken, in dem wir skizziert haben, wie KI-Forscher glauben, dass sie das erste AGI erstellen werden. Im Grunde wird es eine Kombination aus Big Data brauchen, die bessere Algorithmen füttern (solche, die auf Selbstverbesserung und menschenähnliche Lernfähigkeiten spezialisiert sind), die in immer leistungsfähigerer Computerhardware untergebracht sind.

    In diesem Kapitel haben wir auch skizziert, wie ein AGI-Verstand (sobald er diese Selbstverbesserungs- und Lernfähigkeiten erlangt, die wir Menschen für selbstverständlich halten) schließlich den menschlichen Verstand durch überlegene Denkgeschwindigkeit, verbessertes Gedächtnis, unermüdliche Leistung und mehr übertreffen wird sofortige Aufrüstbarkeit.

    Aber hier ist es wichtig zu beachten, dass sich ein AGI nur bis zu den Grenzen der Hardware und der Daten, auf die es Zugriff hat, selbst verbessert; Diese Grenze kann groß oder klein sein, abhängig von dem Roboterkörper, den wir ihm geben, oder der Größe der Computer, auf die wir ihm Zugriff gewähren.

    Unterdessen besteht der Unterschied zwischen einem AGI und einem ASI darin, dass letzteres theoretisch niemals in physischer Form existieren wird. Es wird vollständig innerhalb eines Supercomputers oder eines Netzwerks von Supercomputern betrieben. Abhängig von den Zielen seiner Ersteller kann es auch vollen Zugriff auf alle im Internet gespeicherten Daten sowie auf jedes Gerät oder jeden Menschen erhalten, der Daten in und über das Internet einspeist. Dies bedeutet, dass es keine praktische Grenze dafür gibt, wie viel dieser ASI lernen und wie viel er sich selbst verbessern kann. 

    Und das ist der Haken. 

    Die Intelligenzexplosion verstehen

    Dieser Prozess der Selbstverbesserung, den KIs schließlich gewinnen werden, wenn sie AGIs werden (ein Prozess, den die KI-Community als rekursive Selbstverbesserung bezeichnet), kann möglicherweise eine positive Rückkopplungsschleife auslösen, die ungefähr so ​​​​aussieht:

    Ein neues AGI wird erstellt, erhält Zugang zu einem Roboterkörper oder einem großen Datensatz und erhält dann die einfache Aufgabe, sich weiterzubilden, seine Intelligenz zu verbessern. Zunächst wird dieser AGI den IQ eines Säuglings haben, der darum kämpft, neue Konzepte zu verstehen. Mit der Zeit lernt es genug, um den IQ eines durchschnittlichen Erwachsenen zu erreichen, aber hier hört es nicht auf. Mit diesem neu entdeckten Erwachsenen-IQ wird es viel einfacher und schneller, diese Verbesserung bis zu einem Punkt fortzusetzen, an dem sein IQ mit dem der klügsten bekannten Menschen übereinstimmt. Aber auch hier hört es nicht auf.

    Dieser Prozess verstärkt sich auf jeder neuen Intelligenzebene und folgt dem Gesetz der beschleunigten Rendite, bis er die unkalkulierbare Ebene der Superintelligenz erreicht – mit anderen Worten, wenn er unkontrolliert bleibt und unbegrenzte Ressourcen erhält, wird sich ein AGI selbst zu einem ASI, einem Intellekt, der sich verbessert hat es in der Natur noch nie gegeben.

    Dies ist, was IJ Good zuerst identifizierte, als er diese „Intelligenzexplosion“ beschrieb, oder was moderne KI-Theoretiker wie Nick Bostrom das „Startereignis“ der KI nennen.

    Verständnis einer künstlichen Superintelligenz

    An diesem Punkt denken einige von Ihnen wahrscheinlich, dass der Hauptunterschied zwischen der menschlichen Intelligenz und der Intelligenz eines ASI darin besteht, wie schnell beide Seiten denken können. Und obwohl es stimmt, dass diese theoretische zukünftige ASI schneller denken wird als Menschen, ist diese Fähigkeit im heutigen Computersektor bereits ziemlich alltäglich – unser Smartphone denkt (rechnet) schneller als ein menschlicher Verstand, a Supercomputer denkt millionenfach schneller als ein Smartphone, und ein zukünftiger Quantencomputer wird noch schneller denken. 

    Nein, Geschwindigkeit ist nicht das Merkmal von Intelligenz, das wir hier erklären. Es ist die Qualität. 

    Sie können das Gehirn Ihres Samojeden oder Corgis so viel beschleunigen, wie Sie wollen, aber das führt nicht zu einem neuen Verständnis, wie Sprache oder abstrakte Ideen zu interpretieren sind. Selbst mit ein oder zwei zusätzlichen Jahrzehnten werden diese Doggos plötzlich nicht verstehen, wie man Werkzeuge herstellt oder benutzt, geschweige denn die feineren Unterschiede zwischen einem kapitalistischen und einem sozialistischen Wirtschaftssystem verstehen.

    Wenn es um Intelligenz geht, bewegen sich Menschen auf einer anderen Ebene als Tiere. Sollte ein ASI sein volles theoretisches Potenzial erreichen, wird sein Verstand auf einer Ebene arbeiten, die weit außerhalb der Reichweite des durchschnittlichen modernen Menschen liegt. Schauen wir uns für etwas Kontext die Anwendungen dieser ASI an.

    Wie könnte eine künstliche Superintelligenz neben der Menschheit arbeiten?

    Angenommen, eine bestimmte Regierung oder ein bestimmtes Unternehmen ist erfolgreich bei der Erstellung eines ASI, wie könnten sie es verwenden? Laut Bostrom gibt es drei separate, aber verwandte Formen, die diese ASI annehmen können:

    • Oracle. Hier würden wir mit einem ASI genauso interagieren, wie wir es bereits mit der Google-Suchmaschine tun; wir werden ihr eine Frage stellen, aber egal wie komplex diese Frage ist, die ASI wird sie perfekt und auf eine Weise beantworten, die auf Sie und den Kontext Ihrer Frage zugeschnitten ist.
    • Genie. In diesem Fall weisen wir einem ASI eine bestimmte Aufgabe zu und es wird wie befohlen ausgeführt. Erforschen Sie ein Heilmittel für Krebs. Fertig. Finden Sie alle Planeten, die im Rückstand von 10 Jahren Bildern des Hubble-Weltraumteleskops der NASA verborgen sind. Fertig. Baue einen funktionierenden Fusionsreaktor, um den Energiebedarf der Menschheit zu decken. Abrakadabra.
    • Sovereign. Hier wird der ASI eine unbefristete Mission zugewiesen und die Freiheit gegeben, sie auszuführen. Stehlen Sie die F&E-Geheimnisse unseres Konkurrenten. "Einfach." Entdecken Sie die Identitäten aller ausländischen Spione, die sich innerhalb unserer Grenzen verstecken. "Darauf." Gewährleistung des anhaltenden wirtschaftlichen Wohlstands der Vereinigten Staaten. "Kein Problem."

    Nun, ich weiß, was du denkst, das klingt alles ziemlich weit hergeholt. Deshalb ist es wichtig, sich daran zu erinnern, dass alle Probleme/Herausforderungen da draußen, selbst die, die die klügsten Köpfe der Welt bisher verblüfft haben, alle lösbar sind. Aber die Schwierigkeit eines Problems wird an dem Intellekt gemessen, der es angeht.

    Mit anderen Worten, je stärker der Geist einer Herausforderung gewidmet ist, desto einfacher wird es, eine Lösung für diese Herausforderung zu finden. Jede Herausforderung. Es ist, als würde ein Erwachsener einem Säugling dabei zusehen, wie er versucht zu verstehen, warum er keinen quadratischen Block in eine runde Öffnung passt – für den Erwachsenen wäre es ein Kinderspiel, dem Säugling zu zeigen, dass der Block durch die quadratische Öffnung passen sollte.

    Sollte diese zukünftige ASI ihr volles Potenzial erreichen, würde dieser Verstand ebenso zum mächtigsten Intellekt im bekannten Universum werden – mächtig genug, um jede noch so komplexe Herausforderung zu lösen. 

    Aus diesem Grund bezeichnen viele KI-Forscher die ASI als die letzte Erfindung, die der Mensch jemals machen muss. Wenn wir überzeugt sind, an der Seite der Menschheit zu arbeiten, kann es uns helfen, alle dringendsten Probleme der Welt zu lösen. Wir können es sogar bitten, alle Krankheiten zu beseitigen und das Altern, wie wir es kennen, zu beenden. Die Menschheit kann zum ersten Mal dem Tod dauerhaft ein Schnippchen schlagen und in ein neues Zeitalter des Wohlstands eintreten.

    Aber auch das Gegenteil ist möglich. 

    Intelligenz ist Macht. Wenn diese ASI von schlechten Schauspielern schlecht verwaltet oder angewiesen wird, könnte sie zum ultimativen Unterdrückungswerkzeug werden oder die Menschheit mit Hochdruck ausrotten – denken Sie an Skynet aus Terminator oder The Architect aus den Matrix-Filmen.

    In Wahrheit ist kein Extrem wahrscheinlich. Die Zukunft ist immer viel chaotischer, als Utopisten und Distopisten vorhersagen. Nachdem wir nun das Konzept eines ASI verstanden haben, wird der Rest dieser Serie untersuchen, wie sich ein ASI auf die Gesellschaft auswirken wird, wie sich die Gesellschaft gegen ein bösartiges ASI verteidigen wird und wie die Zukunft aussehen könnte, wenn Menschen und KI Seite an Seite leben -Seite. Weiter lesen.

    Reihe Zukunft der Künstlichen Intelligenz

    Künstliche Intelligenz ist der Strom von morgen: Zukunft der künstlichen Intelligenz Serie P1

    Wie die erste Künstliche Allgemeine Intelligenz die Gesellschaft verändern wird: Zukunft der Künstlichen Intelligenz Reihe P2

    Wird eine künstliche Superintelligenz die Menschheit ausrotten?: Die Zukunft der künstlichen Intelligenz Serie P4

    Wie Menschen sich gegen eine künstliche Superintelligenz verteidigen werden: Die Zukunft der künstlichen Intelligenz Serie P5

    Werden Menschen in einer von künstlichen Intelligenzen dominierten Zukunft friedlich leben?: Zukunft der künstlichen Intelligenz Serie P6

    Nächstes geplantes Update für diese Prognose

    2023-04-27

    Prognosereferenzen

    Für diese Prognose wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    Intelligenz.org
    Intelligenz.org
    Intelligenz.org
    YouTube - Weltwirtschaftsforum

    Für diese Prognose wurde auf die folgenden Quantumrun-Links verwiesen: