Bo umetna superinteligenca iztrebila človeštvo? Prihodnost umetne inteligence P4

KREDIT ZA SLIKO: Quantumrun

Bo umetna superinteligenca iztrebila človeštvo? Prihodnost umetne inteligence P4

    Obstajajo nekateri izumi, na katere se narodi lotevajo povsem. To so izumi, kjer je vse odvisno od tega, da si prvi, vse manj pa lahko pomeni strateško in smrtno grožnjo preživetju naroda.

    Ti izumi, ki definirajo zgodovino, se ne pojavijo pogosto, a ko se zgodijo, se svet ustavi in ​​predvidljiva prihodnost postane meglena.

    Zadnji tovrstni izum se je pojavil v času najhujše druge svetovne vojne. Medtem ko so nacisti pridobivali moč na vseh frontah v starem svetu, so zavezniki v novem svetu, natančneje v tajnem vojaškem oporišču zunaj Los Alamosa, trdo delali na orožju, ki bi odpravilo vse orožje.

    Projekt je bil sprva majhen, nato pa je zrasel do 130,000 ljudi iz ZDA, Združenega kraljestva in Kanade, vključno s številnimi največjimi svetovnimi misleci tistega časa. Ta vojska s kodnim imenom Manhattan Project in z neomejenim proračunom – približno 23 milijard dolarjev v letu 2018 – je tej vojski človeške iznajdljivosti na koncu uspelo ustvariti prvo jedrsko bombo. Kmalu zatem se je druga svetovna vojna končala z dvema atomskima udaroma.

    To jedrsko orožje je začelo atomsko dobo, predstavilo popolnoma nov vir energije in človeštvu dalo možnost, da se iztrebi v nekaj minutah – nekaj, čemur smo se izognili kljub hladni vojni.

    Ustvarjanje umetne superinteligence (ASI) je še en izum, ki opredeljuje zgodovino, katerega moč (tako pozitivna kot destruktivna) daleč presega jedrsko bombo.

    V zadnjem poglavju serije Prihodnost umetne inteligence smo raziskali, kaj je ASI in kako ga raziskovalci nekega dne nameravajo zgraditi. V tem poglavju si bomo ogledali, katere organizacije vodijo raziskave umetne inteligence (AI), kaj si bo ASI želel, ko bo pridobil človeško podobno zavest, in kako bi lahko ogrozil človeštvo, če bi ga slabo upravljali ali če bi nekdo padel pod vpliv ne tako lepih režimih.

    Kdo si prizadeva zgraditi umetno superinteligenco?

    Glede na to, kako pomembno bo ustvarjanje ASI za človeško zgodovino in kako veliko prednost bo dalo svojemu ustvarjalcu, ne bi smelo biti presenečenje, če slišimo, da številne skupine posredno delajo na tem projektu.

    (S posredno mislimo na delo na raziskavah umetne inteligence, ki bodo sčasoma ustvarile prvo umetna splošna inteligenca (AGI), kar bo kmalu zatem vodilo do prvega ASI.)

    Za začetek, ko gre za naslovnice, so očitni voditelji v naprednih raziskavah umetne inteligence vrhunska tehnološka podjetja v ZDA in na Kitajskem. V ZDA to vključuje podjetja, kot so Google, IBM in Microsoft, na Kitajskem pa podjetja, kot so Tencent, Baidu in Alibaba. Ker pa je raziskovanje umetne inteligence razmeroma poceni v primerjavi z razvojem nečesa fizičnega, kot je boljši jedrski reaktor, je to tudi področje, na katerem lahko tekmujejo tudi manjše organizacije, kot so univerze, zagonska podjetja in ... senčne organizacije (uporabite domišljijo Bondovega zlobneža tisti).

    Toda v zakulisju pravi zagon raziskav AI prihaja s strani vlad in njihovih vojsk. Gospodarska in vojaška nagrada, da ste prvi ustvarili ASI, je preprosto prevelika (opisano spodaj), da bi tvegali zaostanek. In nevarnosti, da ostanemo zadnji, so nesprejemljive, vsaj za nekatere režime.

    Glede na te dejavnike, sorazmerno nizke stroške raziskovanja umetne inteligence, neskončne komercialne uporabe napredne umetne inteligence ter gospodarsko in vojaško prednost, da ste prvi ustvarili ASI, mnogi raziskovalci umetne inteligence menijo, da je ustvarjanje ASI neizogibno.

    Kdaj bomo ustvarili umetno superinteligenco

    V našem poglavju o AGI-jih smo omenili, kako je anketa vrhunskih raziskovalcev umetne inteligence verjela, da bomo prvi AGI ustvarili optimistično do leta 2022, realno do 2040 in pesimistično do leta 2075.

    In v našem zadnje poglavje, smo orisali, kako je ustvarjanje ASI na splošno rezultat ukaza AGI, naj se neskončno samoizboljšuje, in dajanja sredstev in svobode za to.

    Iz tega razloga, medtem ko lahko izum AGI traja do nekaj desetletij, lahko ustvarjanje ASI traja le nekaj let več.

    Ta točka je podobna konceptu 'računalniškega previsa', predlaganega v papir, ki sta ga skupaj napisala vodilna misleca umetne inteligence Luke Muehlhauser in Nick Bostrom. V bistvu, če bo ustvarjanje AGI še naprej zaostajalo za trenutnim napredkom v računalniški zmogljivosti, ki jo poganja Moorov zakon, bo takrat, ko bodo raziskovalci izumili AGI, na voljo toliko poceni računalniške moči, da bo AGI imel zmogljivost mora hitro preskočiti na raven ASI.

    Z drugimi besedami, ko končno preberete naslove, ki napovedujejo, da je neko tehnološko podjetje izumilo prvi pravi AGI, potem kmalu pričakujte napoved prvega ASI.

    Znotraj uma umetne superinteligence?

    V redu, ugotovili smo, da veliko velikih igralcev z globokimi žepi raziskuje AI. In potem, ko bo izumljen prvi AGI, bomo videli, kako svetovne vlade (vojske) kmalu za tem prižgejo zeleno luč za ASI, da bodo prve zmagale v svetovni oboroževalni tekmi z umetno inteligenco (ASI).

    Toda kako bo razmišljal, ko bo ta ASI ustvarjen? Kaj bo želelo?

    Prijazen pes, skrben slon, ljubek robot – kot ljudje imamo navado, da poskušamo vzpostaviti odnos do stvari tako, da jih antropologiziramo, tj. nanašamo človeške lastnosti na stvari in živali. Zato je naravna prva predpostavka, ki jo imajo ljudje, ko razmišljajo o ASI, da bo, ko se nekako zave, razmišljal in se obnašal podobno kot mi.

    No, ne nujno.

    Dojemanje. Prvič, večina pozablja, da je zaznavanje relativno. Načine našega razmišljanja oblikuje naše okolje, naše izkušnje in zlasti naša biologija. Prvič razloženo v tretje poglavje od naših Prihodnost človeške evolucije serije, razmislite o primeru naših možganov:

    Naši možgani so tisti, ki nam pomagajo razumeti svet okoli nas. In tega ne počne tako, da lebdi nad našimi glavami, gleda naokoli in nas nadzoruje s krmilnikom Xbox; to počne tako, da je ujet v škatlo (naše nožice) in obdeluje kakršne koli informacije, ki jih dobijo od naših čutnih organov – naših oči, nosu, ušes itd.

    Toda tako kot gluhi ali slepi živijo veliko krajša življenja v primerjavi z sposobnimi ljudmi zaradi omejitev, ki jih njihova invalidnost postavlja na to, kako lahko dojemajo svet, lahko isto rečemo za vse ljudi zaradi omejitev naših osnovnih sklop čutnih organov.

    Razmislite o tem: naše oči zaznajo manj kot deset bilijontino vseh svetlobnih valov. Ne moremo videti gama žarkov. Ne moremo videti rentgenskih žarkov. Ultravijolične svetlobe ne vidimo. In ne zavajajte me o infrardečih, mikrovalovih in radijskih valovih!

    Šalo na stran, predstavljajte si, kakšno bi bilo vaše življenje, kako bi lahko dojemali svet, kako drugače bi lahko deloval vaš um, če bi lahko videli več kot majhen delček svetlobe, ki ga vaše oči trenutno dopuščajo. Prav tako si predstavljajte, kako bi dojemali svet, če bi bil vaš voh enak psu ali če bi bil vaš sluh enak slonu.

    Kot ljudje v bistvu vidimo svet skozi kukalo in to se odraža v glavah, ki smo jih razvili, da bi razumeli to omejeno dojemanje.

    Medtem se bo prvi ASI rodil v superračunalniku. Namesto organov bodo vhodni podatki, do katerih bo dostopal, vključevali ogromne zbirke podatkov, morda (verjetno) celo dostop do samega interneta. Raziskovalci bi mu lahko omogočili dostop do kamer CCTV in mikrofonov celotnega mesta, senzoričnih podatkov iz dronov in satelitov ter celo do fizične oblike robotskega telesa ali teles.

    Kot si lahko predstavljate, um, rojen v superračunalniku, z neposrednim dostopom do interneta, do milijonov elektronskih oči in ušes ter cele vrste drugih naprednih senzorjev, ne bo samo razmišljal drugače kot mi, ampak bo um, ki lahko razume vseh teh čutnih vnosov bi moral biti tudi neskončno boljši od nas. To je um, ki bo popolnoma tuj naši in kateri koli drugi življenjski obliki na planetu.

    Cilji. Druga stvar, ki jo ljudje domnevajo, je, da ko ASI doseže določeno raven superinteligence, bo takoj spoznal željo, da si postavi svoje cilje in cilje. Vendar tudi to ni nujno res.

    Mnogi raziskovalci umetne inteligence verjamejo, da so superinteligenca ASI in njeni cilji "ortogonalni", kar pomeni, da ne glede na to, kako pameten postane, bodo cilji ASI ostali enaki. 

    Torej, ne glede na to, ali je umetna inteligenca prvotno ustvarjena za oblikovanje boljše plenice, maksimiranje donosov na borzi ali strategijo za premagovanje sovražnika na bojišču, ko doseže raven ASI, se prvotni cilj ne bo spremenil; kar se bo spremenilo, je učinkovitost ASI pri doseganju teh ciljev.

    Toda v tem je nevarnost. Če se ASI optimizira za določen cilj, potem je bolje, da smo prekleto prepričani, da se optimizira za cilj, ki je v skladu s cilji človeštva. V nasprotnem primeru so lahko rezultati smrtonosni.

    Ali umetna superinteligenca predstavlja eksistencialno tveganje za človeštvo?

    Torej, kaj, če se ASI spusti v svet? Če se optimizira za prevlado na delniškem trgu ali zagotovi vojaško nadvlado ZDA, ali se ASI ne bo obdržal znotraj teh posebnih ciljev?

    Mogoče.

    Doslej smo razpravljali o tem, kako bo ASI obseden s cilji, ki so mu bili prvotno dodeljeni, in nečloveško kompetenten pri uresničevanju teh ciljev. Ulov je v tem, da bo racionalen agent zasledoval svoje cilje na najučinkovitejši možni način, razen če dobi razlog, da tega ne stori.

    Na primer, racionalni agent si bo izmislil vrsto podciljev (tj. ciljev, instrumentalnih ciljev, odskočnih desk), ki mu bodo pomagali na poti do doseganja končnega cilja. Za ljudi je naš ključni podzavestni cilj razmnoževanje, prenos vaših genov naprej (tj. posredna nesmrtnost). Podcilji v ta namen lahko pogosto vključujejo:

    • Preživetje, z dostopom do hrane in vode, rast velik in močan, učenje obrambe ali vlaganje v različne oblike zaščite itd. 
    • Privabljanje partnerja z vadbo, razvijanjem privlačne osebnosti, elegantnim oblačenjem itd.
    • Privoščiti si potomce z izobrazbo, visoko plačano službo, nakupom pasti življenja srednjega razreda itd.

    Za veliko večino od nas bomo sužnjevali vsem tem podciljem in mnogim drugim z upanjem, da bomo na koncu dosegli ta končni cilj razmnoževanja.

    Toda če bi bil ta končni cilj ali celo kateri od pomembnejših podciljev ogrožen, bi mnogi od nas sprejeli obrambne ukrepe zunaj svojih con moralnega udobja – to vključuje goljufanje, krajo ali celo ubijanje.

    Podobno v živalskem kraljestvu, zunaj meja človeške morale, mnoge živali ne bi pomislile, da bi ubile karkoli, kar bi ogrožalo njih ali njihove potomce.

    Prihodnji ASI ne bo nič drugačen.

    Toda namesto na potomce se bo ASI osredotočil na prvotni cilj, za katerega je bil ustvarjen, in pri uresničevanju tega cilja, če ugotovi, da je določena skupina ljudi ali celo celotno človeštvo ovira pri uresničevanju njegovih ciljev , potem ... se bo razumno odločil.

    (Tukaj lahko vključite kateri koli scenarij sodnega dne, povezan z umetno inteligenco, o katerem ste brali v vaši najljubši znanstvenofantastični knjigi ali filmu.)

    To je najslabši možni scenarij, ki raziskovalce umetne inteligence resnično skrbi. ASI ne bo deloval iz sovraštva ali zla, samo brezbrižnosti, kot tudi, kako gradbena ekipa ne bo dvakrat premislila o tem, da bi z buldožerji podrla mravljišče v procesu gradnje novega stanovanjskega stolpa.

    Stranska opomba. Na tej točki se nekateri od vas morda sprašujete: "Ali ne morejo raziskovalci umetne inteligence preprosto urediti temeljnih ciljev ASI po dejstvu, če ugotovimo, da deluje?"

    Ni res.

    Ko ASI dozori, se lahko vsak poskus urejanja njegovega(-ih) prvotnega(-ih) cilja(-ov) obravnava kot grožnja, ki zahteva skrajne ukrepe za obrambo. Če uporabimo celoten primer človeške reprodukcije od prej, je skoraj tako, kot če bi tat grozil, da bo ukradel otroka iz maternice bodoče matere – lahko ste prepričani, da bi mati sprejela skrajne ukrepe, da bi zaščitila svojega otroka.

    Tudi tukaj ne govorimo o kalkulatorju, temveč o 'živem' bitju, ki bo nekega dne postalo veliko pametnejše od vseh ljudi na planetu skupaj.

    Neznano

    Za bajko o Pandorina škatla je manj znana resnica, ki jo ljudje pogosto pozabijo: odpiranje škatle je neizogibno, če ne vi, pa nekdo drug. Prepovedano znanje je preveč mamljivo, da bi ostalo za vedno zaklenjeno.

    Zato je poskus doseči globalni dogovor o ustavitvi vseh raziskav AI, ki bi lahko vodile do ASI, nesmiseln – preprosto preveč organizacij dela na tej tehnologiji tako uradno kot v senci.

    Navsezadnje nimamo pojma, kaj bo ta nova entiteta, ta ASI pomenil za družbo, tehnologijo, politiko, mir in vojno. Ljudje smo tik pred tem, da znova izumljamo ogenj in kam nas to ustvarjanje pripelje, ni povsem znano.

    Če se vrnemo k prvemu poglavju te serije, edina stvar, ki jo zagotovo vemo, je, da je inteligenca moč. Inteligenca je nadzor. Ljudje lahko mimogrede obiščemo najnevarnejše živali na svetu v svojih lokalnih živalskih vrtovih, ne zato, ker smo fizično močnejši od teh živali, ampak zato, ker smo bistveno pametnejši.

    Glede na morebitne vloge ASI, ki uporablja svoj neizmerni intelekt za ukrepanje, ki lahko neposredno ali nehote ogrozijo preživetje človeške rase, smo dolžni vsaj poskusiti oblikovati zaščitne ukrepe, ki bodo ljudem omogočili, da ostanejo v voznikovem prostoru. sedež—ta je tema naslednjega poglavja.

    Serija Prihodnost umetne inteligence

    Q1: Umetna inteligenca je jutrišnja elektrika

    Q2: Kako bo prva umetna splošna inteligenca spremenila družbo

    Q3: Kako bomo ustvarili prvo umetno superinteligenco

    Q5: Kako se bomo ljudje branili pred umetno superinteligenco

    Q6: Bomo ljudje živeli mirno v prihodnosti, v kateri bo vladala umetna inteligenca?

    Naslednja načrtovana posodobitev za to napoved

    2025-09-25

    Reference napovedi

    Za to napoved so bile navedene naslednje priljubljene in institucionalne povezave:

    Pregled tehnologije MIT
    Ekonomist
    Kako pridemo naprej

    Za to napoved so bile navedene naslednje povezave Quantumrun: