Hoe we de eerste kunstmatige superintelligentie zullen creëren: toekomst van kunstmatige intelligentie P3

BEELDKREDIET: Kwantumrun

Hoe we de eerste kunstmatige superintelligentie zullen creëren: toekomst van kunstmatige intelligentie P3

    Diep in de Tweede Wereldoorlog stoomden nazi-troepen door een groot deel van Europa. Ze hadden geavanceerde wapens, een efficiënte oorlogsindustrie, fanatiek gedreven infanterie, maar bovenal hadden ze een machine genaamd Enigma. Met dit apparaat konden nazi-troepen veilig samenwerken over lange afstanden door Morse-gecodeerde berichten naar elkaar te sturen via standaard communicatielijnen; het was een codeermachine die onneembaar was voor menselijke codebrekers. 

    Gelukkig hebben de geallieerden een oplossing gevonden. Ze hadden niet langer een menselijke geest nodig om Enigma te breken. In plaats daarvan bouwden de geallieerden, door een uitvinding van wijlen Alan Turing, een revolutionair nieuw instrument genaamd de Britse Bombe, een elektromechanisch apparaat dat uiteindelijk de geheime code van de nazi's ontcijferde en hen uiteindelijk hielp de oorlog te winnen.

    Deze Bombe legde de basis voor wat de moderne computer werd.

    Tijdens het ontwikkelingsproject van Bombe werkte IJ Good, een Britse wiskundige en cryptoloog, samen met Turing. Hij zag al vroeg in het eindspel dat dit nieuwe apparaat ooit zou kunnen opleveren. In een 1965 papier, Hij schreef:

    “Laat een ultraintelligente machine worden gedefinieerd als een machine die alle intellectuele activiteiten van een man, hoe slim ook, ver kan overtreffen. Aangezien het ontwerpen van machines een van deze intellectuele activiteiten is, zou een ultraintelligente machine nog betere machines kunnen ontwerpen; er zou dan ongetwijfeld een "intelligentie-explosie" zijn en de intelligentie van de mens zou ver achterblijven... De eerste ultraintelligente machine is dus de laatste uitvinding die de mens ooit hoeft te doen, op voorwaarde dat de machine volgzaam genoeg is om ons te vertellen hoe om het onder controle te houden.”

    De eerste kunstmatige superintelligentie creëren

    Tot dusver hebben we in onze serie Future of Artificial Intelligence de drie brede categorieën van kunstmatige intelligentie (AI) gedefinieerd, van: kunstmatige smalle intelligentie (ANI) naar kunstmatige algemene intelligentie (AGI), maar in deze serie zullen we ons concentreren op de laatste categorie - de categorie die opwinding of paniekaanvallen veroorzaakt bij AI-onderzoekers - kunstmatige superintelligentie (ASI).

    Om te begrijpen wat een ASI is, moet je terugdenken aan het laatste hoofdstuk waarin we hebben geschetst hoe AI-onderzoekers denken dat ze de eerste AGI zullen creëren. Kortom, er is een combinatie van big data nodig die betere algoritmen (die gespecialiseerd zijn in zelfverbetering en mensachtige leervaardigheden) voeden, ondergebracht in steeds krachtigere computerhardware.

    In dat hoofdstuk hebben we ook geschetst hoe een AGI-geest (zodra hij deze zelfverbeterings- en leervaardigheden heeft verworven die wij mensen als vanzelfsprekend beschouwen) uiteindelijk beter zal presteren dan de menselijke geest door middel van superieure denksnelheid, verbeterd geheugen, onvermoeibare prestaties en onmiddellijke upgradebaarheid.

    Maar hier is het belangrijk op te merken dat een AGI zichzelf alleen zal verbeteren tot de limieten van de hardware en gegevens waartoe het toegang heeft; deze limiet kan groot of klein zijn, afhankelijk van het robotlichaam dat we het geven of de schaal van computers waartoe we het toegang geven.

    Ondertussen is het verschil tussen een AGI en een ASI dat de laatste, theoretisch, nooit in fysieke vorm zal bestaan. Het zal volledig werken binnen een supercomputer of netwerk van supercomputers. Afhankelijk van de doelen van zijn makers, kan het ook volledige toegang krijgen tot alle gegevens die op internet zijn opgeslagen, evenals tot elk apparaat of persoon die gegevens op en via internet invoert. Dit betekent dat er geen praktische limiet is aan hoeveel deze ASI kan leren en hoeveel hij zichzelf kan verbeteren. 

    En dat is de kneep. 

    De intelligentie-explosie begrijpen

    Dit proces van zelfverbetering dat AI's uiteindelijk zullen krijgen als ze AGI's worden (een proces dat de AI-gemeenschap recursieve zelfverbetering noemt) kan mogelijk een positieve feedbacklus doen ontwijken die er ongeveer zo uitziet:

    Er wordt een nieuwe AGI gemaakt, die toegang krijgt tot een robotlichaam of een grote dataset, en vervolgens de eenvoudige taak krijgt om zichzelf op te leiden, om zijn intelligentie te verbeteren. In het begin zal deze AGI het IQ hebben van een baby die worstelt om nieuwe concepten te begrijpen. Na verloop van tijd leert het genoeg om het IQ van een gemiddelde volwassene te bereiken, maar hier stopt het niet. Met behulp van dit nieuwe IQ voor volwassenen wordt het veel gemakkelijker en sneller om deze verbetering voort te zetten tot een punt waarop het IQ overeenkomt met dat van de slimste bekende mensen. Maar nogmaals, daar blijft het niet bij.

    Dit proces verergert op elk nieuw niveau van intelligentie, waarbij de wet van het versnellen van rendementen wordt gevolgd totdat het het onberekenbare niveau van superintelligentie bereikt - met andere woorden, als het niet wordt gecontroleerd en onbeperkte middelen krijgt, zal een AGI zichzelf verbeteren tot een ASI, een intellect dat heeft nooit eerder in de natuur bestaan.

    Dit is wat IJ Good voor het eerst ontdekte toen hij deze 'intelligentie-explosie' beschreef of wat moderne AI-theoretici, zoals Nick Bostrom, de 'start'-gebeurtenis van de AI noemen.

    Een kunstmatige superintelligentie begrijpen

    Op dit moment denken sommigen van jullie waarschijnlijk dat het belangrijkste verschil tussen menselijke intelligentie en de intelligentie van een KSI is hoe snel beide partijen kunnen denken. En hoewel het waar is dat deze theoretische toekomstige KSI sneller zal denken dan mensen, is dit vermogen al vrij alledaags in de computersector van vandaag - onze smartphone denkt (rekent) sneller dan een menselijke geest, een supercomputer denkt miljoenen keren sneller dan een smartphone, en een toekomstige kwantumcomputer zal nog sneller denken. 

    Nee, snelheid is niet het kenmerk van intelligentie dat we hier uitleggen. Het is de kwaliteit. 

    Je kunt de hersenen van je Samojeed of Corgi versnellen zoveel je wilt, maar dat vertaalt zich niet in een nieuw begrip hoe je taal of abstracte ideeën moet interpreteren. Zelfs met een extra decennium of twee zullen deze doggo's niet ineens begrijpen hoe ze gereedschappen moeten maken of gebruiken, laat staan ​​de fijnere verschillen tussen een kapitalistisch en socialistisch economisch systeem begrijpen.

    Als het om intelligentie gaat, opereren mensen op een ander vlak dan dieren. Evenzo, als een KSI zijn volledige theoretische potentieel bereikt, zal hun geest werken op een niveau dat ver buiten het bereik van de gemiddelde moderne mens ligt. Laten we voor een bepaalde context eens kijken naar de toepassingen van deze ASI.

    Hoe zou een kunstmatige superintelligentie naast de mensheid kunnen werken?

    Ervan uitgaande dat een bepaalde overheid of onderneming succesvol is in het creëren van een ASI, hoe zouden ze die dan kunnen gebruiken? Volgens Bostrom zijn er drie afzonderlijke, maar verwante vormen die deze ASI kan aannemen:

    • Orakel. Hier zouden we op dezelfde manier met een ASI communiceren als we al doen met de Google-zoekmachine; we zullen het een vraag stellen, maar hoe complex de vraag ook is, de ASI zal het perfect beantwoorden en op een manier die is afgestemd op u en de context van uw vraag.
    • Geest. In dit geval zullen we een ASI een specifieke taak toewijzen en deze uitvoeren zoals opgedragen. Onderzoek een geneesmiddel voor kanker. Gedaan. Vind alle planeten die verborgen zijn in de achterstand van 10 jaar aan afbeeldingen van NASA's Hubble-ruimtetelescoop. Gedaan. Bouw een werkende fusiereactor om aan de energievraag van de mensheid te voldoen. Abracadabra.
    • Soeverein. Hier krijgt de ASI een missie met een open einde toegewezen en de vrijheid om deze uit te voeren. Steel de R&D-geheimen van onze zakelijke concurrent. "Eenvoudig." Ontdek de identiteit van alle buitenlandse spionnen die zich binnen onze grenzen verbergen. "Ben ermee bezig." Zorgen voor de voortdurende economische welvaart van de Verenigde Staten. "Geen probleem."

    Nu, ik weet wat je denkt, dit klinkt allemaal nogal vergezocht. Daarom is het belangrijk om te onthouden dat elk probleem/uitdaging die er is, zelfs degene die de slimste geesten van de wereld tot nu toe heeft verbaasd, ze allemaal oplosbaar zijn. Maar de moeilijkheid van een probleem wordt afgemeten aan het intellect dat het aanpakt.

    Met andere woorden, hoe groter de geest die op een uitdaging wordt gericht, hoe gemakkelijker het wordt om een ​​oplossing voor die uitdaging te vinden. Elke uitdaging. Het is alsof een volwassene een baby ziet worstelen om te begrijpen waarom hij geen vierkant blok in een ronde opening kan passen - voor de volwassene zou het kinderspel zijn om de baby te laten zien dat het blok door de vierkante opening moet passen.

    Evenzo, als deze toekomstige ASI zijn volledige potentieel zou bereiken, zou deze geest het krachtigste intellect in het bekende universum worden - krachtig genoeg om elke uitdaging op te lossen, hoe complex ook. 

    Dit is de reden waarom veel AI-onderzoekers de ASI de laatste uitvinding noemen die de mens ooit zal moeten maken. Als het overtuigd is om naast de mensheid te werken, kan het ons helpen om alle dringendste problemen ter wereld op te lossen. We kunnen het zelfs vragen om alle ziekten uit te bannen en een einde te maken aan de veroudering zoals we die kennen. De mensheid kan voor het eerst de dood permanent bedriegen en een nieuw tijdperk van welvaart binnengaan.

    Maar het tegenovergestelde is ook mogelijk. 

    Intelligentie is macht. Als het slecht wordt beheerd of geïnstrueerd door slechte acteurs, kan deze ASI het ultieme instrument van onderdrukking worden, of kan het de mensheid helemaal uitroeien - denk aan Skynet uit de Terminator of de architect uit de Matrix-films.

    In werkelijkheid is geen van beide extreem waarschijnlijk. De toekomst is altijd veel rommeliger dan utopisten en distopisten voorspellen. Dat is de reden waarom, nu we het concept van een KSI begrijpen, de rest van deze serie zal onderzoeken hoe een KSI de samenleving zal beïnvloeden, hoe de samenleving zich zal verdedigen tegen een malafide KSI en hoe de toekomst eruit zou kunnen zien als mensen en AI naast elkaar leven -kant. Lees verder.

    Serie over de toekomst van kunstmatige intelligentie

    Kunstmatige intelligentie is de elektriciteit van morgen: Future of Artificial Intelligence-serie P1

    Hoe de eerste kunstmatige algemene intelligentie de samenleving zal veranderen: serie over de toekomst van kunstmatige intelligentie P2

    Zal een kunstmatige superintelligentie de mensheid uitroeien?: Future of Artificial Intelligence-serie P4

    Hoe mensen zich zullen verdedigen tegen een kunstmatige superintelligentie: toekomst van kunstmatige intelligentie-serie P5

    Zullen mensen vreedzaam leven in een toekomst die wordt gedomineerd door kunstmatige intelligentie?: Future of Artificial Intelligence-serie P6

    Volgende geplande update voor deze prognose

    2023-04-27

    Prognose referenties

    Voor deze prognose werd verwezen naar de volgende populaire en institutionele links:

    Inlichtingen.org
    Inlichtingen.org
    Universiteit van Manchester
    Inlichtingen.org
    YouTube - Wereld Economisch Forum

    Voor deze voorspelling werd verwezen naar de volgende Quantumrun-links: