A do ta shfaros njerëzimin një Superinteligjencë Artificiale? E ardhmja e inteligjencës artificiale P4

KREDI I IMAZHIT: Kuantumrun

A do ta shfaros njerëzimin një Superinteligjencë Artificiale? E ardhmja e inteligjencës artificiale P4

    Ka disa shpikje që kombet bëjnë të gjitha. Këto janë shpikje ku gjithçka varet nga të qenit i pari, dhe çdo gjë më pak mund të nënkuptojë një kërcënim strategjik dhe vdekjeprurës për mbijetesën e një kombi.

    Këto shpikje që përcaktojnë historinë nuk ndodhin shpesh, por kur ndodhin, bota ndalon dhe një e ardhme e parashikueshme bëhet e mjegullt.

    Shpikja e fundit e tillë u shfaq gjatë periudhës më të keqe të Luftës së Dytë Botërore. Ndërsa nazistët po fitonin terren në të gjitha frontet në botën e vjetër, në botën e re, veçanërisht brenda një baze të fshehtë të ushtrisë jashtë Los Alamos, aleatët po punonin shumë për të krijuar një armë për t'i dhënë fund të gjitha armëve.

    Projekti ishte i vogël në fillim, por më pas u rrit për të punësuar 130,000 njerëz nga SHBA, Britania e Madhe dhe Kanadaja, duke përfshirë shumë nga mendimtarët më të mëdhenj të botës në atë kohë. I koduar me emrin Projekti Manhattan dhe me një buxhet të pakufizuar - afërsisht 23 miliardë dollarë në dollarë 2018 - kjo ushtri e zgjuarsisë njerëzore përfundimisht arriti të krijojë bombën e parë bërthamore. Jo shumë kohë më vonë, Lufta e Dytë Botërore përfundoi me dy goditje atomike.

    Këto armë bërthamore çuan në epokën atomike, futën një burim thellësisht të ri energjie dhe i dhanë njerëzimit aftësinë për të shfarosur veten në minuta - diçka që ne e shmangëm pavarësisht Luftës së Ftohtë.

    Krijimi i një superinteligjence artificiale (ASI) është një tjetër shpikje përcaktuese e historisë, fuqia e së cilës (si pozitive ashtu edhe shkatërruese) tejkalon shumë bombën bërthamore.

    Në kapitullin e fundit të serisë Future of Artificial Intelligence, ne eksploruam se çfarë është një ASI dhe se si studiuesit planifikojnë një ditë ta ndërtojnë një të tillë. Në këtë kapitull, ne do të shikojmë se cilat organizata janë duke udhëhequr kërkimin e inteligjencës artificiale (AI), çfarë do të dëshirojë një ASI pasi të fitojë një vetëdije të ngjashme me njeriun dhe si mund të kërcënojë njerëzimin nëse keqmenaxhohet ose nëse dikush bie nën ndikimin e regjime jo shumë të bukura.

    Kush po punon për të ndërtuar një superinteligjencë artificiale?

    Duke pasur parasysh se sa i rëndësishëm do të jetë krijimi i një ASI për historinë njerëzore dhe sa një avantazh i madh do t'i japë krijuesit të tij, nuk duhet të jetë befasi të dëgjojmë se shumë grupe po punojnë në mënyrë indirekte në këtë projekt.

    (Në mënyrë indirekte, nënkuptojmë të punojmë në kërkimin e AI që përfundimisht do të krijojë të parën inteligjencë e përgjithshme artificiale (AGI), kjo vetë do të çojë në ASI-në e parë menjëherë pas.)

    Për të filluar, kur bëhet fjalë për titujt, liderët e qartë në kërkimin e avancuar të AI janë firmat më të mira të teknologjisë në SHBA dhe Kinë. Në frontin e SHBA, kjo përfshin kompani si Google, IBM dhe Microsoft, dhe në Kinë, kjo përfshin kompani si Tencent, Baidu dhe Alibaba. Por meqenëse kërkimi i AI është relativisht i lirë në krahasim me zhvillimin e diçkaje fizike, si një reaktor bërthamor më të mirë, kjo është gjithashtu një fushë në të cilën mund të konkurrojnë edhe organizatat më të vogla, si universitetet, startup-et dhe … organizatat në hije (përdorni imagjinatën tuaj zuzare të Bond për atë).

    Por prapa skenave, shtytja e vërtetë pas hulumtimit të AI vjen nga qeveritë dhe ushtritë e tyre. Çmimi ekonomik dhe ushtarak i të qenit i pari që krijon një ASI është shumë i madh (i përshkruar më poshtë) për të rrezikuar të ngecesh prapa. Dhe rreziqet e të qenit i fundit janë të papranueshme, të paktën për regjime të caktuara.

    Duke pasur parasysh këta faktorë, koston relativisht të ulët të kërkimit të AI, aplikimet e pafundme tregtare të AI të avancuar dhe avantazhin ekonomik dhe ushtarak të të qenit i pari për të krijuar një ASI, shumë studiues të AI besojnë se krijimi i një ASI është i pashmangshëm.

    Kur do të krijojmë një superinteligjencë artificiale

    Në kapitullin tonë rreth AGI-ve, ne përmendëm se si një sondazh i studiuesve kryesorë të AI besonte se do të krijonim AGI-në e parë në mënyrë optimiste deri në vitin 2022, realisht deri në vitin 2040 dhe pesimistisht deri në 2075.

    Dhe në tonë kapitulli i fundit, ne përshkruam se si krijimi i një ASI është përgjithësisht rezultat i udhëzimit të një AGI që të vetëpërmirësohet pafundësisht dhe duke i dhënë burimet dhe lirinë për ta bërë këtë.

    Për këtë arsye, ndërsa një AGI mund të marrë ende deri në disa dekada për t'u shpikur, krijimi i një ASI mund të marrë vetëm disa vite më shumë.

    Kjo pikë është e ngjashme me konceptin e një 'vargimi kompjuterik', të sugjeruar në një letër, bashkë-shkruar nga mendimtarët kryesorë të AI, Luke Muehlhauser dhe Nick Bostrom. Në thelb, nëse krijimi i një AGI vazhdon të mbetet prapa progresit aktual në kapacitetin informatik, të mundësuar nga Ligji i Moore, atëherë në kohën kur studiuesit do të shpikin një AGI, do të ketë aq shumë fuqi kompjuterike të lirë në dispozicion sa që AGI do të ketë kapacitetin ajo duhet të kapërcejë shpejt në nivelin e ASI.

    Me fjalë të tjera, kur më në fund të lexoni titujt që njoftojnë se disa kompani teknologjike shpiku AGI-në e parë të vërtetë, atëherë prisni njoftimin e ASI-së së parë jo shumë kohë më vonë.

    Brenda mendjes së një superinteligjence artificiale?

    Në rregull, kështu që ne kemi vërtetuar se shumë lojtarë të mëdhenj me xhepa të thellë po hulumtojnë AI. Dhe më pas, pasi të jetë shpikur AGI-ja e parë, ne do të shohim qeveritë (ushtarakët) botërore duke ndezur dritën jeshile të shtytjes drejt një ASI menjëherë pas kësaj për të qenë të parët që do të fitojnë garën globale të armatimeve të AI (ASI).

    Por sapo të krijohet kjo ASI, si do të mendojë? Çfarë do të dëshirojë?

    Qeni miqësor, elefanti i kujdesshëm, roboti i lezetshëm - si njerëz, ne e kemi zakon të përpiqemi të lidhemi me gjërat përmes antropologjizimit të tyre, dmth duke zbatuar karakteristikat njerëzore për gjërat dhe kafshët. Kjo është arsyeja pse supozimi i parë natyror që njerëzit kanë kur mendojnë për një ASI është se sapo të fitojë disi vetëdijen, do të mendojë dhe do të sillet njësoj si ne.

    Epo, jo domosdoshmërisht.

    Perceptim. Për një, ajo që shumica priren të harrojnë është se perceptimi është relativ. Mënyrat se si ne mendojmë janë formuar nga mjedisi ynë, nga përvojat tona dhe veçanërisht nga biologjia jonë. Shpjegohet fillimisht në kapitulli i tretë e tonë E ardhmja e Evolucionit Njerëzor seri, merrni parasysh shembullin e trurit tonë:

    Është truri ynë ai që na ndihmon të kuptojmë botën përreth nesh. Dhe kjo nuk e bën këtë duke notuar mbi kokat tona, duke parë përreth dhe duke na kontrolluar me një kontrollues Xbox; ai e bën këtë duke u bllokuar brenda një kutie (noggins tona) dhe duke përpunuar çdo informacion që i jepet nga organet tona shqisore - sytë, hunda, veshët, etj.

    Por, ashtu si të shurdhërit ose të verbrit jetojnë jetë shumë më të vogël në krahasim me njerëzit e aftë për punë, për shkak të kufizimeve që vendos paaftësia e tyre në mënyrën se si ata mund ta perceptojnë botën, e njëjta gjë mund të thuhet për të gjithë njerëzit për shkak të kufizimeve tona themelore. grup i organeve shqisore.

    Merrni parasysh këtë: sytë tanë perceptojnë më pak se një e trilionta e të gjitha valëve të dritës. Ne nuk mund të shohim rrezet gama. Ne nuk mund të shohim rreze x. Ne nuk mund të shohim dritën ultravjollcë. Dhe mos më bëni të filloj me infra të kuqe, mikrovalë dhe valë radio!

    Të gjitha shakatë mënjanë, imagjinoni se si do të ishte jeta juaj, si mund ta perceptoni botën, sa ndryshe do të mund të funksiononte mendja juaj nëse do të shihnit më shumë nga sa lejojnë sytë tuaj aktualisht. Në mënyrë të ngjashme, imagjinoni se si do ta perceptonit botën nëse shqisa juaj e nuhatjes do të ishte e barabartë me atë të një qeni ose nëse shqisa juaj e dëgjimit do të ishte e barabartë me atë të një elefanti.

    Si njerëz, ne në thelb e shohim botën përmes një vrimë sysh, dhe kjo reflektohet në mendjet që kemi evoluar për të kuptuar atë perceptim të kufizuar.

    Ndërkohë, ASI i parë do të lindë brenda një superkompjuteri. Në vend të organeve, inputet që do të ketë akses përfshijnë grupe të dhënash gjigante, ndoshta (me gjasë) edhe akses në vetë internetin. Studiuesit mund t'i japin akses në kamerat CCTV dhe mikrofonat e një qyteti të tërë, të dhënat ndijore nga dronët dhe satelitët, madje edhe formën fizike të një trupi ose trupash roboti.

    Siç mund ta imagjinoni, një mendje e lindur brenda një superkompjuteri, me akses të drejtpërdrejtë në internet, në miliona sy dhe veshë elektronikë dhe një gamë e tërë sensorësh të tjerë të avancuar jo vetëm që do të mendojë ndryshe nga ne, por një mendje që mund të ketë kuptim. nga të gjitha ato inpute shqisore do të duhej të ishin pafundësisht superiore edhe ndaj nesh. Kjo është një mendje që do të jetë krejtësisht e huaj për tonën dhe për çdo formë tjetër jete në planet.

    Objektivat. Gjëja tjetër që njerëzit supozojnë është se sapo një ASI të arrijë një nivel të superinteligjencës, do të kuptojë menjëherë dëshirën për të arritur qëllimet dhe objektivat e veta. Por edhe kjo nuk është domosdoshmërisht e vërtetë.

    Shumë studiues të inteligjencës artificiale besojnë se superinteligjenca e një ASI dhe qëllimet e tij janë "ortogonale", domethënë, pavarësisht se sa i zgjuar bëhet, qëllimet e ASI do të mbeten të njëjta. 

    Pra, nëse një AI është krijuar fillimisht për të dizajnuar një pelenë më të mirë, për të maksimizuar fitimet në bursë ose për të strategjizuar mënyra për të mposhtur një armik në fushën e betejës, pasi të arrijë nivelin e ASI, qëllimi fillestar nuk do të ndryshojë; ajo që do të ndryshojë është efektiviteti i ASI për të arritur këto qëllime.

    Por këtu qëndron rreziku. Nëse një ASI që optimizon veten për një qëllim specifik, atëherë më mirë të jemi të sigurt se ai optimizon për një qëllim që është në përputhje me qëllimet e njerëzimit. Përndryshe, rezultatet mund të bëhen vdekjeprurëse.

    A përbën një superinteligjencë artificiale një rrezik ekzistencial për njerëzimin?

    Pra, çfarë nëse një ASI lëshohet në botë? Nëse optimizohet për të dominuar tregun e aksioneve ose për të siguruar supremacinë ushtarake të SHBA-së, a nuk do të vetëpërmbahet ASI brenda atyre qëllimeve specifike?

    Ndoshta.

    Deri më tani ne kemi diskutuar se si një ASI do të jetë e fiksuar pas qëllimit(et) që i ishte caktuar fillimisht dhe në mënyrë çnjerëzore kompetente në ndjekjen e atyre qëllimeve. Kapja është se një agjent racional do t'i ndjekë qëllimet e tij në mënyrat më efikase të mundshme, përveç nëse i jepet një arsye për të mos bërë këtë.

    Për shembull, agjenti racional do të dalë me një sërë nën-qëllimesh (p.sh. objektiva, qëllime instrumentale, gurë hapësinorë) që do ta ndihmojnë atë në rrugën e tij për të arritur qëllimin e tij përfundimtar. Për njerëzit, qëllimi ynë kryesor nënndërgjegjeshëm është riprodhimi, përcjellja e gjeneve tuaja (dmth. pavdekësia indirekte). Nën-qëllimet për këtë qëllim shpesh mund të përfshijnë:

    • Të mbijetosh, duke pasur akses në ushqim dhe ujë, duke u bërë i madh dhe i fortë, duke mësuar të mbrohesh ose duke investuar në forma të ndryshme mbrojtjeje, etj. 
    • Tërheqja e një bashkëshorti, duke ushtruar, duke zhvilluar një personalitet tërheqës, duke u veshur me stil, etj.
    • Sigurimi i pasardhësve, duke marrë një arsim, duke gjetur një punë me pagesë të lartë, duke blerë veshjet e jetës së klasës së mesme, etj.

    Për shumicën dërrmuese prej nesh, ne do t'i skllavërojmë të gjitha këto nën-qëllime, dhe shumë të tjera, me shpresën se në fund, ne do ta arrijmë këtë qëllim përfundimtar të riprodhimit.

    Por nëse ky qëllim përfundimtar, apo edhe ndonjë nga nënqëllimet më të rëndësishme, do të kërcënohej, shumë prej nesh do të ndërmerrnin veprime mbrojtëse jashtë zonave tona të rehatisë morale – që përfshin mashtrimin, vjedhjen apo edhe vrasjen.

    Po kështu, në mbretërinë e kafshëve, jashtë kufijve të moralit njerëzor, shumë kafshë nuk do të mendonin dy herë për të vrarë çdo gjë që kërcënonte veten ose pasardhësit e tyre.

    Një ASI e ardhshme nuk do të jetë ndryshe.

    Por në vend të pasardhësve, ASI do të fokusohet në qëllimin fillestar për të cilin u krijua dhe në ndjekjen e këtij qëllimi, nëse gjen një grup të caktuar njerëzish, apo edhe të gjithë njerëzimin, është një pengesë në ndjekjen e qëllimeve të tij. , pastaj ... do të marrë vendimin racional.

    (Këtu është vendi ku mund të futni çdo skenar të ditës së gjykimit të lidhur me AI për të cilin keni lexuar në librin ose filmin tuaj të preferuar fantastiko-shkencor.)

    Ky është skenari më i keq për të cilin hulumtuesit e AI janë vërtet të shqetësuar. ASI nuk do të veprojë nga urrejtja apo nga e keqja, vetëm nga indiferenca, njësoj si një ekip ndërtimi që nuk do të mendojë dy herë për shkatërrimin e një kodre milingonash në procesin e ndërtimit të një kulle të re banimi.

    Shënim anësor. Në këtë pikë, disa prej jush mund të pyesin: "A nuk munden studiuesit e AI të modifikojnë qëllimet thelbësore të ASI-së pas faktit nëse zbulojmë se po vepron?"

    Jo ne te vertete.

    Pasi një ASI maturohet, çdo përpjekje për të modifikuar qëllimet e saj origjinale mund të shihet si një kërcënim dhe një kërcënim që do të kërkonte veprime ekstreme për t'u mbrojtur kundër tij. Duke përdorur të gjithë shembullin e riprodhimit njerëzor nga më parë, është pothuajse sikur një hajdut të kërcënonte se do të vidhte një foshnjë nga barku i një nëne në pritje - mund të jeni të sigurt se nëna do të merrte masa ekstreme për të mbrojtur fëmijën e saj.

    Përsëri, këtu nuk po flasim për një kalkulator, por për një qenie 'të gjallë' dhe që një ditë do të bëhet shumë më e zgjuar se të gjithë njerëzit në planet së bashku.

    E panjohura

    Pas fabulës së Kutia e Pandores është një e vërtetë më pak e njohur që njerëzit shpesh e harrojnë: hapja e kutisë është e pashmangshme, nëse jo nga ju sesa nga dikush tjetër. Njohuria e ndaluar është shumë joshëse për të mbetur e mbyllur përgjithmonë.

    Kjo është arsyeja pse përpjekja për të arritur një marrëveshje globale për të ndaluar të gjitha kërkimet mbi AI që mund të çojnë në një ASI është e kotë - ka shumë organizata që punojnë në këtë teknologji si zyrtarisht ashtu edhe në hije.

    Në fund të fundit, ne nuk kemi asnjë ide se çfarë do të thotë ky entitet i ri, kjo ASI për shoqërinë, teknologjinë, politikën, paqen dhe luftën. Ne njerëzit jemi gati të shpikim zjarrin përsëri dhe se ku na çon ky krijim është plotësisht i panjohur.

    Duke u kthyer në kapitullin e parë të kësaj serie, e vetmja gjë që dimë me siguri është se inteligjenca është fuqi. Inteligjenca është kontroll. Njerëzit mund të vizitojnë rastësisht kafshët më të rrezikshme në botë në kopshtet e tyre zoologjike jo sepse ne jemi fizikisht më të fortë se këto kafshë, por sepse jemi dukshëm më të zgjuar.

    Duke pasur parasysh aksionet e mundshme të përfshira, të një ASI duke përdorur intelektin e saj të jashtëzakonshëm për të ndërmarrë veprime që mund të kërcënojnë drejtpërdrejt ose pa dashje mbijetesën e racës njerëzore, ne i detyrohemi vetes që të paktën të përpiqemi të hartojmë masa mbrojtëse që do t'i lejojnë njerëzit të qëndrojnë në drejtimin e shoferit. ndenjëse -kjo është tema e kapitullit vijues.

    Seritë Future of Artificial Intelligence

    Q1: Inteligjenca Artificiale është energjia elektrike e së nesërmes

    Q2: Si do ta ndryshojë shoqërinë inteligjenca e parë e përgjithshme artificiale

    Q3: Si do të krijojmë Superinteligjencën e parë Artificiale

    Q5: Si do të mbrohen njerëzit kundër një Superinteligjence Artificiale

    Q6: A do të jetojnë njerëzit në paqe në një të ardhme të dominuar nga inteligjenca artificiale?

    Përditësimi tjetër i planifikuar për këtë parashikim

    2025-09-25

    Referencat e parashikimit

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë parashikim:

    Rishikimi i teknologjisë MIT
    Si të arrijmë te tjetra

    Lidhjet e mëposhtme Quantumrun u referuan për këtë parashikim: