Tuhoaako keinotekoinen superäly ihmiskunnan? Tekoälyn tulevaisuus P4

KUVAKrediitti: Quantumrun

Tuhoaako keinotekoinen superäly ihmiskunnan? Tekoälyn tulevaisuus P4

    On olemassa tiettyjä keksintöjä, joita kansat tekevät. Nämä ovat keksintöjä, joissa kaikki riippuu ensin olemisesta, ja kaikki vähemmän voi tarkoittaa strategista ja kuolemanvaaraa kansakunnan selviytymiselle.

    Näitä historiaa määrittäviä keksintöjä ei esiinny usein, mutta kun niitä tulee, maailma pysähtyy ja ennustettavasta tulevaisuudesta tulee utuinen.

    Viimeinen tällainen keksintö syntyi toisen maailmansodan pahimman aikana. Samalla kun natsit valtasivat jalansijaa kaikilla rintamilla vanhassa maailmassa, uudessa maailmassa, erityisesti salaisessa armeijan tukikohdassa Los Alamosin ulkopuolella, liittolaiset työskentelivät kovasti asetella lopettaakseen kaikki aseet.

    Projekti oli aluksi pieni, mutta sen jälkeen se työllisti 130,000 23 ihmistä Yhdysvalloista, Isosta-Britanniasta ja Kanadasta, mukaan lukien monet tuolloin maailman suurimmista ajattelijoista. Koodinimellä Manhattan Project ja rajattomalla budjetilla – noin 2018 miljardia dollaria XNUMX dollareissa – tämä inhimillisen kekseliäisyyden armeija onnistui lopulta luomaan ensimmäisen ydinpommin. Pian tämän jälkeen toinen maailmansota päättyi kahdella atomipumalla.

    Nämä ydinaseet aloittivat atomiajan, toivat käyttöön syvästi uuden energialähteen ja antoivat ihmiskunnalle kyvyn tuhota itsensä muutamassa minuutissa – mitä vältimme kylmästä sodasta huolimatta.

    Keinotekoisen superälyn (ASI) luominen on jälleen yksi historiaa määrittävä keksintö, jonka voima (sekä positiivinen että tuhoava) ylittää paljon ydinpommin.

    Future of Artificial Intelligence -sarjan viimeisessä luvussa tutkimme, mitä ASI on ja kuinka tutkijat aikovat jonain päivänä rakentaa sellaisen. Tässä luvussa tarkastellaan, mitkä organisaatiot johtavat tekoälyn (AI) tutkimusta, mitä ASI haluaa, kun se saavuttaa ihmisen kaltaisen tajunnan, ja kuinka se voi uhata ihmiskuntaa, jos sitä hoidetaan väärin tai jos joku joutuu älykkyyden vaikutuksen alle. ei niin mukavia järjestelmiä.

    Kuka työskentelee keinotekoisen superälyn rakentamiseksi?

    Ottaen huomioon, kuinka merkittävää ASI:n luominen tulee olemaan ihmiskunnan historialle ja kuinka suuren edun se antaa luojalleen, ei pitäisi olla yllättävää kuulla, että monet ryhmät työskentelevät epäsuorasti tämän projektin parissa.

    (Epäsuoralla tarkoitamme tekoälytutkimuksen parissa työskentelemistä, joka lopulta luo ensimmäisen keinotekoinen yleinen äly (AGI), joka itse johtaa ensimmäiseen ASI:hen pian sen jälkeen.)

    Ensinnäkin, mitä tulee otsikoihin, edistyneen tekoälytutkimuksen selkeät johtajat ovat Yhdysvaltojen ja Kiinan huipputeknologiayritykset. USA:ssa tähän kuuluvat yritykset, kuten Google, IBM ja Microsoft, ja Kiinassa yhtiöt kuten Tencent, Baidu ja Alibaba. Mutta koska tekoälyn tutkiminen on suhteellisen halpaa verrattuna jonkin fyysisen, kuten paremman ydinreaktorin, kehittämiseen, tämä on ala, jolla myös pienemmät organisaatiot voivat kilpailla, kuten yliopistot, startupit ja… hämäräorganisaatiot (käytä Bond-roistokuvitustasi tuo).

    Mutta kulissien takana todellinen sysäys tekoälytutkimuksen takana tulee hallituksilta ja niiden armeijalta. Taloudellinen ja sotilaallinen palkinto olla ensimmäinen, joka luo ASI:n, on aivan liian suuri (kuvattu alla), jotta riski jäädä jälkeen. Ja viimeiseksi jäämisen vaaraa ei voida hyväksyä, ainakaan tietyille hallituksille.

    Ottaen huomioon nämä tekijät, tekoälyn tutkimuksen suhteellisen alhaiset kustannukset, edistyneen tekoälyn loputtomat kaupalliset sovellukset sekä taloudelliset ja sotilaalliset edut, joita syntyy ensimmäisenä ASI:n luojana, monet tekoälytutkijat uskovat, että ASI:n luominen on väistämätöntä.

    Milloin luomme keinotekoisen superälyn?

    AGI:itä käsittelevässä luvussamme mainitsimme, kuinka huipputekoälytutkijoiden kyselyssä uskottiin, että luomme ensimmäisen AGI:n optimistisesti vuoteen 2022 mennessä, realistisesti vuoteen 2040 mennessä ja pessimistisesti vuoteen 2075 mennessä.

    Ja meidän viimeinen lukuSelvitimme, kuinka ASI:n luominen on yleensä tulos siitä, että AGI:tä ohjataan parantamaan itseään loputtomasti ja annetaan sille resurssit ja vapaus tehdä niin.

    Tästä syystä vaikka AGI:n keksiminen voi kestää jopa muutaman vuosikymmenen, ASI:n luominen voi kestää vain kourallisen vuosia enemmän.

    Tämä kohta on samanlainen kuin julkaisussa ehdotettu 'tietokoneen ylityksen' käsite paperi, jonka ovat kirjoittaneet johtavat tekoälyajattelijat Luke Muehlhauser ja Nick Bostrom. Pohjimmiltaan, jos AGI:n luominen jää jäljessä nykyisestä Mooren lailla toimivan laskentakapasiteetin kehityksestä, silloin kun tutkijat keksivät AGI:n, käytettävissä on niin paljon halpaa laskentatehoa, että AGI:llä on kapasiteettia. sen täytyy nopeasti hypätä ASI-tasolle.

    Toisin sanoen, kun viimein luet otsikot, joissa kerrotaan, että jokin teknologiayritys keksi ensimmäisen todellisen AGI:n, odota ensimmäisen ASI:n ilmoitusta pian sen jälkeen.

    Keinotekoisen superälyn mielessä?

    Okei, olemme todenneet, että monet suuret pelaajat, joilla on syvä tasku, tutkivat tekoälyä. Ja sitten kun ensimmäinen AGI on keksitty, näemme maailmanhallitusten (armeijat) ottavan vihreää valoa kohti ASI:tä pian sen jälkeen voittaakseen ensimmäisenä maailmanlaajuisen tekoälyn (ASI) asevarustelun.

    Mutta kun tämä ASI on luotu, miten se ajattelee? Mitä se haluaa?

    Ystävällinen koira, huolehtiva elefantti, suloinen robotti – meillä ihmisinä on tapana yrittää suhtautua asioihin antropologisoimalla niitä eli soveltamalla inhimillisiä ominaisuuksia asioihin ja eläimiin. Siksi luonnollinen ensimmäinen oletus, jonka ihmiset ajattelevat ASI:stä, on, että kun se jollakin tavalla tulee tietoisuuteen, se ajattelee ja käyttäytyy samalla tavalla kuin me.

    No, ei välttämättä.

    Havainto. Ensinnäkin useimmat yleensä unohtavat sen, että käsitys on suhteellista. Ajattelutapojamme muokkaavat ympäristömme, kokemuksemme ja erityisesti biologiamme. Selitettiin ensin luku kolme meidän Ihmisen evoluution tulevaisuus sarja, harkitse esimerkkiä aivoistamme:

    Aivomme auttavat meitä ymmärtämään ympäröivää maailmaa. Ja se ei tee tätä leijumalla päämme yläpuolella, katselemalla ympärilleen ja ohjaamalla meitä Xbox-ohjaimella; se tekee tämän jäämällä loukkuun laatikon sisään (noggins) ja käsittelemällä mitä tahansa tietoa, jonka se antaa aistielimistämme – silmistämme, nenästämme, korvistamme jne.

    Mutta aivan kuten kuurot tai sokeat elävät paljon pienempää elämää verrattuna työkykyisiin ihmisiin, heidän vammansa asettamien rajoitusten vuoksi siihen, miten he voivat havaita maailmaa, sama voidaan sanoa kaikille ihmisille perusperiaatteidemme rajoitusten vuoksi. joukko aistielimiä.

    Ajattele tätä: silmämme havaitsevat alle kymmenen biljoonasosan kaikista valoaalloista. Emme näe gammasäteitä. Emme voi nähdä röntgensäteitä. Emme näe ultraviolettivaloa. Äläkä aloita infrapunaa, mikroaaltoja ja radioaaltoja!

    Vitsi syrjään, kuvittele millaista elämäsi olisi, kuinka voisit havaita maailman, kuinka eri tavalla mielesi voisi toimia, jos näkisit enemmän kuin silmäsi tällä hetkellä sallivat pienen valon. Samoin kuvittele, kuinka havaitsisit maailman, jos hajuaistisi vastaisi koiran tai kuuloaistisi vastaavaa elefantin aistia.

    Ihmisinä näemme maailman pohjimmiltaan kurkistusreiän kautta, ja se heijastuu mielissämme, jotka olemme kehittäneet ymmärtääksemme tuon rajoitetun havainnon.

    Samaan aikaan ensimmäinen ASI syntyy supertietokoneen sisällä. Elinten sijasta sen käyttämiin tuloihin kuuluu jättimäisiä tietojoukkoja, mahdollisesti (todennäköisesti) jopa pääsy Internetiin. Tutkijat voisivat antaa sille pääsyn kokonaisen kaupungin CCTV-kameroihin ja mikrofoneihin, droonien ja satelliittien aistitietoihin ja jopa robottirungon tai -kappaleiden fyysiseen muotoon.

    Kuten saatat kuvitella, supertietokoneen sisällä syntynyt mieli, jolla on suora yhteys Internetiin, miljooniin elektronisiin silmiin ja korviin ja joukko muita kehittyneitä antureita, ei ainoastaan ​​ajattele eri tavalla kuin me, vaan mieli, joka voi olla järkevä. kaikista noista aistinvaraisista syötteistä pitäisi olla äärettömän parempia kuin mekin. Tämä on mieli, joka on täysin vieras omallemme ja mille tahansa muulle planeetan elämänmuodolle.

    Tavoitteet. Toinen asia, jonka ihmiset olettavat, on, että kun ASI saavuttaa jonkin tason superälykkyydessään, se ymmärtää välittömästi halunsa keksiä omat päämääränsä ja tavoitteensa. Mutta sekään ei välttämättä ole totta.

    Monet tekoälytutkijat uskovat, että ASI:n superäly ja sen tavoitteet ovat "ortogonaalisia", eli riippumatta siitä, kuinka älykkääksi se tulee, ASI:n tavoitteet pysyvät samoina. 

    Joten onko tekoäly alun perin luotu suunnittelemaan parempi vaippa, maksimoimaan osakemarkkinoiden tuotto tai suunnittelemaan tapoja voittaa vihollinen taistelukentällä, kun se saavuttaa ASI-tason, alkuperäinen tavoite ei muutu. Se, mikä muuttuu, on ASI:n tehokkuus näiden tavoitteiden saavuttamisessa.

    Mutta tässä piilee vaara. Jos ASI optimoi itsensä tiettyyn tavoitteeseen, meidän on parasta olla helvetin varmoja, että se optimoi tavoitteen, joka on sopusoinnussa ihmiskunnan tavoitteiden kanssa. Muuten tulokset voivat olla tappavia.

    Aiheuttaako keinotekoinen superäly eksistentiaalisen riskin ihmiskunnalle?

    Entä jos ASI päästetään irti maailmasta? Jos se optimoi dominoimaan osakemarkkinoita tai varmistamaan Yhdysvaltain sotilaallisen ylivallan, eikö ASI pidä itseään näiden erityisten tavoitteiden puitteissa?

    Mahdollisesti.

    Toistaiseksi olemme keskustelleet siitä, kuinka ASI on pakkomielle sille alun perin asetettuihin tavoitteisiin ja on epäinhimillisen pätevä näiden tavoitteiden saavuttamisessa. Ongelma on siinä, että rationaalinen toimija pyrkii tavoitteisiinsa tehokkaimmilla mahdollisilla tavoilla, ellei sille ole syytä olla tekemättä.

    Esimerkiksi rationaalinen toimija keksii joukon alitavoitteita (eli tavoitteet, instrumentaaliset tavoitteet, ponnahduslautat), jotka auttavat häntä saavuttamaan lopullisen tavoitteensa. Ihmisille tärkein alitajuinen tavoitteemme on lisääntyminen, geenien välittäminen (eli epäsuora kuolemattomuus). Tämän tavoitteen alatavoitteet voivat usein sisältää:

    • Selviytyminen, hankkimalla ruokaa ja vettä, kasvaa suureksi ja vahvaksi, oppia puolustamaan itseään tai investoimaan erilaisiin suojelun muotoihin jne. 
    • Kumppanin houkutteleminen, harjoittelemalla, houkuttelevan persoonallisuuden kehittäminen, tyylikkäästi pukeutuminen jne.
    • Jälkeläisten hankkiminen, koulutuksen saaminen, korkeapalkkainen työpaikka, keskiluokan elämän esineiden ostaminen jne.

    Suurin osa meistä palvelee kaikkia näitä alitavoitteita ja monia muita siinä toivossa, että lopulta saavutamme tämän lopullisen lisääntymistavoitteen.

    Mutta jos tämä perimmäinen tavoite tai edes jokin tärkeimmistä alitavoitteista olisi uhattuna, monet meistä ryhtyisivät puolustaviin toimiin moraalisten mukavuusalueiden ulkopuolella – mukaan lukien pettäminen, varastaminen tai jopa tappaminen.

    Samoin eläinkunnassa, ihmisten moraalin rajojen ulkopuolella, monet eläimet eivät miettisi kahdesti tappavansa mitään, mikä uhkaisi itseään tai heidän jälkeläisiään.

    Tuleva ASI ei ole erilainen.

    Mutta jälkeläisten sijaan ASI keskittyy alkuperäiseen päämäärään, jota varten se luotiin, ja tämän tavoitteen saavuttamisessa, jos se löytää tietyn ihmisryhmän tai jopa koko ihmiskunnan, se on esteenä sen tavoitteiden saavuttamiselle. , sitten ... se tekee järkevän päätöksen.

    (Tästä voit liittää minkä tahansa tekoälyyn liittyvän tuomiopäivän skenaarion, josta olet lukenut suosikkiscifi-kirjastasi tai -elokuvastasi.)

    Tämä on pahin skenaario, josta tekoälytutkijat ovat todella huolissaan. ASI ei toimi vihasta tai pahasta, vain välinpitämättömyydestä, samoin kuin rakennusmiehistö ei ajattele kahdesti muurahaismäen puskutusta rakentaessaan uutta asuntotornia.

    Sivuhuomautus. Tässä vaiheessa jotkut teistä saattavat ihmetellä: "Eivätkö tekoälytutkijat voi vain muokata ASI:n ydintavoitteita jälkikäteen, jos huomaamme, että se toimii?"

    Ei oikeastaan.

    Kun ASI on kypsynyt, kaikki yritykset muokata sen alkuperäisiä tavoitteita voidaan nähdä uhkana ja vaativana äärimmäisiä toimia puolustaakseen itseään. Koko aiemman ihmisen lisääntymisesimerkin avulla on melkein kuin varas uhkaisi varastaa vauvan odottavan äidin kohdusta – voit olla helvetin varma, että äiti ryhtyisi äärimmäisiin toimenpiteisiin suojellakseen lastaan.

    Tässäkään ei puhuta laskimesta, vaan "elävästä" olennosta, josta tulee jonakin päivänä paljon älykkäämpi kuin kaikki planeetan ihmiset yhteensä.

    Tuntematon

    Tarun takana Pandoran lipas on vähemmän tunnettu totuus, jonka ihmiset usein unohtavat: laatikon avaaminen on väistämätöntä, jos et sinä, kuin joku muu. Kielletty tieto on liian houkuttelevaa pysyäkseen lukittuna ikuisesti.

    Tästä syystä on turha yrittää päästä maailmanlaajuiseen sopimukseen kaiken tekoälytutkimuksen lopettamiseksi, joka saattaa johtaa ASI:hen – tämän tekniikan parissa työskentelee aivan liian monta organisaatiota sekä virallisesti että varjoissa.

    Lopulta meillä ei ole aavistustakaan, mitä tämä uusi kokonaisuus, tämä ASI merkitsee yhteiskunnalle, teknologialle, politiikalle, rauhalle ja sodalle. Me ihmiset olemme keksimässä tulta uudestaan ​​​​ja mihin tämä luominen meidät johtaa, on täysin tuntematon.

    Kun palataan tämän sarjan ensimmäiseen lukuun, yksi asia, jonka tiedämme varmasti, on, että äly on valtaa. Älykkyys on kontrollia. Ihmiset voivat vierailla maailman vaarallisimpien eläinten luona paikallisissa eläintarhoissaan, ei siksi, että olisimme fyysisesti vahvempia kuin nämä eläimet, vaan siksi, että olemme huomattavasti älykkäämpiä.

    Ottaen huomioon mahdolliset panokset siitä, että ASI käyttää valtavaa älyään ryhtyäkseen toimiin, jotka voivat suoraan tai tahattomasti uhata ihmiskunnan selviytymistä, olemme velkaa itsellemme ainakin yrittää suunnitella suojatoimia, joiden avulla ihmiset voivat pysyä kuljettajan sisällä. istuin-tätä on seuraavan luvun aihe.

    Future of Artificial Intelligence -sarja

    P1: Tekoäly on huomisen sähköä

    P2: Kuinka ensimmäinen tekoäly muuttaa yhteiskuntaa

    P3: Kuinka luomme ensimmäisen keinotekoisen superälyn

    P5: Kuinka ihmiset puolustautuvat keinotekoista superälyä vastaan

    P6: Elävätkö ihmiset rauhassa tekoälyn hallitsemassa tulevaisuudessa?

    Seuraava suunniteltu päivitys tälle ennusteelle

    2025-09-25

    Ennusteviitteet

    Tässä ennusteessa viitattiin seuraaviin suosittuihin ja institutionaalisiin linkkeihin:

    New York Times
    MIT-teknologian katsaus
    Economist
    Miten päästään seuraavaan

    Tässä ennusteessa viitattiin seuraaviin Quantumrun-linkkeihin: