Sådan skaber vi den første Artificial Superintelligence: Future of Artificial Intelligence P3

BILLEDKREDIT: Quantumrun

Sådan skaber vi den første Artificial Superintelligence: Future of Artificial Intelligence P3

    Dybt inde i Anden Verdenskrig dampede nazistiske styrker gennem store dele af Europa. De havde avancerede våben, effektiv krigsindustri, fanatisk drevet infanteri, men frem for alt havde de en maskine kaldet Enigma. Denne enhed gjorde det muligt for nazistiske styrker at samarbejde sikkert over lange afstande ved at sende morsekodede beskeder til hinanden over standard kommunikationslinjer; det var en chiffermaskine, der var uindtagelig for menneskelige kodeknusere. 

    Heldigvis fandt de allierede en løsning. De havde ikke længere brug for et menneskeligt sind for at bryde Enigma. I stedet byggede de allierede gennem en opfindelse af afdøde Alan Turing et revolutionært nyt værktøj kaldet britiske bombe, en elektromekanisk enhed, der endelig dechifrerede nazisternes hemmelige kode og i sidste ende hjalp dem med at vinde krigen.

    Denne Bombe lagde grunden til, hvad der blev den moderne computer.

    IJ Good, en britisk matematiker og kryptolog, arbejdede sammen med Turing under Bombe-udviklingsprojektet. Han så tidligt i slutspillet, at denne nye enhed en dag kunne skabe. I en 1965 papir, han skrev:

    "Lad en ultraintelligent maskine defineres som en maskine, der langt kan overgå alle intellektuelle aktiviteter hos enhver mand, uanset hvor klog den er. Da design af maskiner er en af ​​disse intellektuelle aktiviteter, kunne en ultraintelligent maskine designe endnu bedre maskiner; der ville så utvivlsomt være en "intelligenseksplosion", og menneskets intelligens ville blive efterladt langt tilbage... Den første ultraintelligente maskine er således den sidste opfindelse, som mennesket nogensinde behøver at lave, forudsat at maskinen er føjelig nok til at fortælle os, hvordan at holde det under kontrol.”

    Oprettelse af den første kunstige superintelligens

    Indtil videre i vores Future of Artificial Intelligence-serie har vi defineret de tre brede kategorier af kunstig intelligens (AI), fra kunstig smal intelligens (ANI) til kunstig generel intelligens (AGI), men i dette seriekapitel vil vi fokusere på den sidste kategori – den, der avler enten spænding eller panikanfald blandt AI-forskere – kunstig superintelligens (ASI).

    For at vikle dit hoved omkring, hvad en ASI er, skal du tænke tilbage på det sidste kapitel, hvor vi skitserede, hvordan AI-forskere tror, ​​de vil skabe den første AGI. Dybest set vil det kræve en kombination af big data feeding bedre algoritmer (dem, der specialiserer sig i selvforbedring og menneskelignende indlæringsevner) placeret i stadig mere kraftfuld computerhardware.

    I dette kapitel skitserede vi også, hvordan et AGI-sind (når det først opnår disse selvforbedrings- og indlæringsevner, som vi mennesker tager for givet) til sidst vil udkonkurrere det menneskelige sind i form af overlegen tankehastighed, forbedret hukommelse, utrættelig ydeevne og øjeblikkelig opgradering.

    Men her er det vigtigt at bemærke, at en AGI kun vil forbedre sig selv til grænserne for den hardware og data, den har adgang til; denne grænse kan være stor eller lille afhængigt af den robotkrop, vi giver den, eller omfanget af computere, vi giver den adgang til.

    I mellemtiden er forskellen mellem en AGI og en ASI, at sidstnævnte teoretisk set aldrig vil eksistere i en fysisk form. Det vil fungere udelukkende inden for en supercomputer eller netværk af supercomputere. Afhængigt af målene for dens skabere, kan den også få fuld adgang til alle data, der er gemt på internettet, såvel som hvilken som helst enhed eller menneske, der feeder data ind i og over internettet. Det betyder, at der ikke vil være nogen praktisk grænse for, hvor meget denne ASI kan lære, og hvor meget den kan forbedre sig selv. 

    Og det er gniden. 

    Forståelse af efterretningseksplosionen

    Denne proces med selvforbedring, som AI'er i sidste ende vil opnå, når de bliver AGI'er (en proces, som AI-fællesskabet kalder rekursiv selvforbedring) kan potentielt udløse en positiv feedback-loop, der ser sådan ud:

    En ny AGI oprettes, får adgang til en robotkrop eller et stort datasæt, og får derefter den simple opgave at uddanne sig selv, at forbedre sin intelligens. Til at begynde med vil denne AGI have IQ som et spædbarn, der kæmper for at forstå nye koncepter. Med tiden lærer den nok til at nå en gennemsnitlig voksens IQ, men det stopper ikke her. Ved at bruge denne nyfundne voksne IQ bliver det meget nemmere og hurtigere at fortsætte denne forbedring til et punkt, hvor dens IQ matcher de smarteste kendte menneskers. Men igen, det stopper ikke der.

    Denne proces forstærkes på hvert nyt intelligensniveau og følger loven om at accelerere tilbagevenden, indtil den når det uoverskuelige niveau af superintelligens – med andre ord, hvis den ikke kontrolleres og får ubegrænsede ressourcer, vil en AGI selv forbedre sig til en ASI, et intellekt der har aldrig før eksisteret i naturen.

    Dette er, hvad IJ Good først identificerede, da han beskrev denne 'intelligenseksplosion', eller hvad moderne AI-teoretikere, som Nick Bostrom, kalder AI's 'start'-begivenhed.

    Forståelse af en kunstig superintelligens

    På dette tidspunkt tænker nogle af jer sikkert, at den vigtigste forskel mellem menneskelig intelligens og en ASI's intelligens er, hvor hurtigt begge sider kan tænke. Og selvom det er rigtigt, at denne teoretiske fremtidige ASI vil tænke hurtigere end mennesker, er denne evne allerede ret almindelig i dagens computersektor – vores smartphone tænker (beregner) hurtigere end et menneskeligt sind, en supercomputer tænker millioner af gange hurtigere end en smartphone, og en fremtidig kvantecomputer vil stadig tænke hurtigere. 

    Nej, hastighed er ikke den egenskab ved intelligens, vi forklarer her. Det er kvaliteten. 

    Du kan fremskynde hjernen på din samojed eller corgi, alt hvad du vil, men det oversættes ikke til en ny forståelse af, hvordan man fortolker sprog eller abstrakte ideer. Selv med et ekstra årti eller to, vil disse hunde ikke pludselig forstå, hvordan man laver eller bruger værktøjer, endsige forstå de finere forskelle mellem et kapitalistisk og socialistisk økonomisk system.

    Når det kommer til intelligens, opererer mennesker på et andet plan end dyr. Ligeledes, hvis en ASI når sit fulde teoretiske potentiale, vil deres sind fungere på et niveau langt uden for rækkevidde af det gennemsnitlige moderne menneske. For en vis sammenhæng, lad os se på anvendelserne af disse ASI.

    Hvordan kan en kunstig superintelligens arbejde sammen med menneskeheden?

    Forudsat at en bestemt regering eller virksomhed har succes med at skabe en ASI, hvordan kan de så bruge den? Ifølge Bostrom er der tre separate, men relaterede former, som disse ASI kan tage:

    • Oracle. Her ville vi interagere med en ASI på samme måde, som vi allerede gør med Google-søgemaskinen; vi stiller det et spørgsmål, men uanset hvor komplekst spørgsmålet er, vil ASI besvare det perfekt og på en måde, der er skræddersyet til dig og dit spørgsmåls kontekst.
    • Genie. I dette tilfælde vil vi tildele en ASI en specifik opgave, og den vil udføre som befalet. Undersøg en kur mod kræft. Færdig. Find alle planeterne gemt inde i efterslæbet af 10 års billeder fra NASAs Hubble-rumteleskop. Færdig. Konstruer en fungerende fusionsreaktor for at løse menneskehedens energibehov. Abracadabra.
    • Sovereign. Her er ASI tildelt en åben mission og givet frihed til at udføre den. Stjæl R&D-hemmelighederne fra vores virksomhedskonkurrent. "Let." Opdag identiteten på alle udenlandske spioner, der gemmer sig inden for vores grænser. "På det." Sikre USA's fortsatte økonomiske velstand. "Intet problem."

    Nu, jeg ved hvad du tænker, det hele lyder ret langt søgt. Derfor er det vigtigt at huske, at ethvert problem/udfordring derude, selv dem, der har ramt verdens klogeste hoveder til dato, de er alle løselige. Men sværhedsgraden af ​​et problem måles ved, at intellektet tackler det.

    Med andre ord, jo større sindet er til en udfordring, jo lettere bliver det at finde en løsning på udfordringen. Enhver udfordring. Det er ligesom en voksen, der ser et spædbarn kæmpe for at forstå, hvorfor det ikke kan passe en firkantet blok ind i en rund åbning – for den voksne ville det være en barneleg at vise spædbarnet, at blokken skulle passe gennem den firkantede åbning.

    Ligeledes, hvis denne fremtidige ASI når sit fulde potentiale, ville dette sind blive det mest magtfulde intellekt i det kendte univers – kraftfuldt nok til at løse enhver udfordring, uanset hvor kompleks den er. 

    Det er grunden til, at mange AI-forskere kalder ASI'en for den sidste opfindelse, som mennesket nogensinde bliver nødt til at lave. Hvis det bliver overbevist om at arbejde sammen med menneskeheden, kan det hjælpe os med at løse alle verdens mest presserende problemer. Vi kan endda bede den om at fjerne al sygdom og afslutte aldring, som vi kender den. Menneskeheden kan for første gang snyde døden permanent og gå ind i en ny tidsalder med velstand.

    Men det modsatte er også muligt. 

    Intelligens er magt. Hvis dårlig styret eller instrueret af dårlige skuespillere, kan denne ASI blive det ultimative værktøj til undertrykkelse, eller den kan udrydde menneskeheden helt – tænk Skynet fra Terminator eller Arkitekten fra Matrix-filmene.

    I sandhed er ingen af ​​ekstremerne sandsynlige. Fremtiden er altid langt mere rodet, end utopister og distopister forudsiger. Det er derfor, nu hvor vi forstår konceptet med en ASI, vil resten af ​​denne serie undersøge, hvordan en ASI vil påvirke samfundet, hvordan samfundet vil forsvare sig mod en slyngel ASI, og hvordan fremtiden kan se ud, hvis mennesker og AI lever side om side. -side. Læs videre.

    Future of Artificial Intelligence-serien

    Artificial Intelligence er morgendagens elektricitet: Future of Artificial Intelligence serie P1

    Hvordan den første Artificial General Intelligence vil ændre samfundet: Future of Artificial Intelligence serie P2

    Vil en kunstig superintelligens udrydde menneskeheden?: Future of Artificial Intelligence serie P4

    Hvordan mennesker vil forsvare sig mod en Artificial Superintelligence: Future of Artificial Intelligence serie P5

    Vil mennesker leve fredeligt i en fremtid domineret af kunstig intelligens?: Future of Artificial Intelligence-serien P6

    Næste planlagte opdatering af denne prognose

    2023-04-27

    Forecast referencer

    Følgende populære og institutionelle links blev refereret til denne prognose:

    Intelligence.org
    Intelligence.org
    Intelligence.org
    YouTube - World Economic Forum

    Følgende Quantumrun-links blev refereret til denne prognose: