Vyhladí umělá superinteligence lidstvo? Budoucnost umělé inteligence P4

KREDIT OBRAZU: Quantumrun

Vyhladí umělá superinteligence lidstvo? Budoucnost umělé inteligence P4

    Existují určité vynálezy, do kterých národy jdou naplno. Jsou to vynálezy, kde vše závisí na tom, být první, a cokoli menšího by mohlo znamenat strategickou a smrtelnou hrozbu pro přežití národa.

    Tyto vynálezy definující historii se nevyskytují často, ale když k nim dojde, svět se zastaví a předvídatelná budoucnost se stane mlhavou.

    Poslední takový vynález se objevil během nejhorší druhé světové války. Zatímco nacisté získávali půdu na všech frontách ve starém světě, v novém světě, konkrétně uvnitř tajné vojenské základny mimo Los Alamos, Spojenci tvrdě pracovali na zbrani, která by skoncovala se všemi zbraněmi.

    Projekt byl zpočátku malý, ale pak se rozrostl a zaměstnával 130,000 23 lidí z USA, Velké Británie a Kanady, včetně mnoha tehdejších největších světových myslitelů. Tato armáda lidské vynalézavosti s kódovým označením Projekt Manhattan a s neomezeným rozpočtem – zhruba 2018 miliard dolarů v dolarech na rok XNUMX – nakonec uspěla ve vytvoření první jaderné bomby. Nedlouho poté skončila druhá světová válka dvěma atomovými třesky.

    Tyto jaderné zbraně zahájily atomový věk, představily hluboce nový zdroj energie a daly lidstvu schopnost vyhladit se během několika minut – čemuž jsme se navzdory studené válce vyhýbali.

    Vytvoření umělé superinteligence (ASI) je dalším vynálezem definujícím historii, jehož síla (pozitivní i destruktivní) daleko předčí jadernou bombu.

    V poslední kapitole série Future of Artificial Intelligence jsme prozkoumali, co je ASI a jak výzkumníci plánují, že jej jednoho dne postaví. V této kapitole se podíváme na to, jaké organizace vedou výzkum umělé inteligence (AI), co bude ASI chtít, jakmile získá vědomí podobné lidskému, a jak by to mohlo ohrozit lidstvo, pokud by se s ním špatně hospodařilo nebo kdyby člověk padl pod vliv nepříliš pěkné režimy.

    Kdo pracuje na vybudování umělé superinteligence?

    Vzhledem k tomu, jak významné bude vytvoření ASI pro lidskou historii a jak velkou výhodu poskytne svému tvůrci, nebude překvapením, že na tomto projektu nepřímo pracuje mnoho skupin.

    (Nepřímo máme na mysli práci na výzkumu AI, který nakonec vytvoří první umělá obecná inteligence (AGI), což samo o sobě povede k prvnímu ASI brzy poté.)

    Pro začátek, pokud jde o titulky, jasnými lídry v pokročilém výzkumu AI jsou špičkové technologické firmy v USA a Číně. Na americké frontě to zahrnuje společnosti jako Google, IBM a Microsoft a v Číně to zahrnuje společnosti jako Tencent, Baidu a Alibaba. Ale protože výzkum umělé inteligence je relativně levný ve srovnání s vývojem něčeho fyzického, jako je lepší jaderný reaktor, je to také oblast, ve které mohou soutěžit i menší organizace, jako jsou univerzity, startupy a … stínové organizace (použijte svou představivost padoucha z Bonda tento).

    Ale v zákulisí skutečný tlak za výzkumem AI přichází od vlád a jejich armád. Ekonomická a vojenská cena být prvním, kdo vytvořil ASI, je příliš velká (nastíněno níže), než abychom riskovali zaostávání. A nebezpečí být poslední je nepřijatelné, alespoň pro určité režimy.

    Vzhledem k těmto faktorům, relativně nízkým nákladům na výzkum AI, nekonečným komerčním aplikacím pokročilé AI a ekonomické a vojenské výhodě toho, že jsme první, kdo vytvořil ASI, se mnoho výzkumníků AI domnívá, že vytvoření ASI je nevyhnutelné.

    Kdy vytvoříme umělou superinteligenci

    V naší kapitole o AGI jsme zmínili, jak průzkum mezi předními výzkumníky AI věřil, že první AGI vytvoříme optimisticky do roku 2022, realisticky do roku 2040 a pesimisticky do roku 2075.

    A v našem poslední kapitola, jsme nastínili, jak je vytvoření ASI obecně výsledkem instruování AGI, aby se nekonečně zlepšovalo, a poskytnutí zdrojů a svobody k tomu.

    Z tohoto důvodu, zatímco vynalézání AGI může trvat až několik desetiletí, vytvoření ASI může trvat jen o několik let déle.

    Tento bod je podobný konceptu „výpočetního převisu“, jak je navrženo v papír, kterou napsali přední myslitelé AI Luke Muehlhauser a Nick Bostrom. V zásadě, pokud by vytvoření AGI nadále zaostávalo za současným pokrokem ve výpočetní kapacitě, poháněné Moorovým zákonem, pak v době, kdy výzkumníci vynaleznou AGI, bude k dispozici tolik levného výpočetního výkonu, že AGI bude mít kapacitu potřebuje rychle skočit na úroveň ASI.

    Jinými slovy, až si konečně přečtete titulky oznamující, že nějaká technologická společnost vynalezla první skutečné AGI, pak očekávejte oznámení prvního ASI nedlouho poté.

    Uvnitř mysli umělé superinteligence?

    Dobře, takže jsme zjistili, že mnoho velkých hráčů s hlubokou kapsou zkoumá AI. A poté, co bude vynalezeno první AGI, uvidíme, jak světové vlády (armády) dají zelenou v úsilí o ASI, aby byly první, kdo vyhraje globální závody ve zbrojení AI (ASI).

    Ale jakmile bude toto ASI vytvořeno, jak bude myslet? co to bude chtít?

    Přátelský pes, starostlivý slon, roztomilý robot – jako lidé máme ve zvyku snažit se k věcem vztahovat jejich antropologizací, tj. aplikováním lidských vlastností na věci a zvířata. Proto přirozeným prvním předpokladem, který lidé mají, když uvažují o ASI, je, že jakmile nějak získá vědomí, bude myslet a chovat se podobně jako my.

    No, ne nutně.

    Vnímání. Za prvé, na co se většinou zapomíná, je, že vnímání je relativní. Způsob, jakým přemýšlíme, je utvářen naším prostředím, našimi zkušenostmi a zejména naší biologií. Nejprve vysvětleno v kapitola třetí našeho Budoucnost lidské evoluce série, zvažte příklad našeho mozku:

    Je to náš mozek, který nám pomáhá pochopit svět kolem nás. A nedělá to tak, že se vznášíme nad našimi hlavami, rozhlížíme se kolem sebe a ovládáme nás ovladačem Xbox; dělá to tak, že je uvězněn uvnitř krabice (naše noggins) a zpracovává jakoukoli informaci, kterou dostává z našich smyslových orgánů – našich očí, nosu, uší atd.

    Ale stejně jako neslyšící nebo nevidomí žijí mnohem kratší životy ve srovnání se zdravými lidmi, kvůli omezením, která jejich postižení klade na to, jak mohou vnímat svět, lze totéž říci o všech lidech kvůli omezením našich základních soubor smyslových orgánů.

    Zvažte toto: Naše oči vnímají méně než deset bilionů všech světelných vln. Nevidíme gama paprsky. Nevidíme rentgenové paprsky. Nevidíme ultrafialové světlo. A nezačínejte s infračerveným zářením, mikrovlnami a rádiovými vlnami!

    Ať jde o srandu, představte si, jaký by byl váš život, jak byste mohli vnímat svět, jak odlišně by vaše mysl mohla fungovat, kdybyste viděli víc, než ti maličký kousíček světla, které aktuálně dovolují vaše oči. Stejně tak si představte, jak byste vnímali svět, kdyby se váš čich rovnal psímu čichu nebo sluchu slonovi.

    Jako lidé v podstatě vidíme svět skrz kukátko, a to se odráží v myslích, které jsme si vyvinuli, abychom tomuto omezenému vnímání rozuměli.

    Mezitím se první ASI zrodí uvnitř superpočítače. Místo orgánů budou vstupy, ke kterým bude mít přístup, obří datové sady, možná (pravděpodobně) dokonce i přístup k samotnému internetu. Výzkumníci by mu mohli poskytnout přístup k CCTV kamerám a mikrofonům celého města, k senzorickým datům z dronů a satelitů a dokonce i k fyzické podobě těla nebo těl robota.

    Jak si dokážete představit, mysl zrozená uvnitř superpočítače, s přímým přístupem k internetu, k milionům elektronických očí a uší a celé řadě dalších pokročilých senzorů bude nejen myslet jinak než my, ale mysl, která může dávat smysl. ze všech těch smyslových vstupů by nás také musely nekonečně převyšovat. Toto je mysl, která bude zcela cizí naší vlastní i jakékoli jiné formě života na planetě.

    Cíle. Další věc, kterou lidé předpokládají, je, že jakmile ASI dosáhne určité úrovně superinteligence, okamžitě si uvědomí touhu přijít se svými vlastními cíli a záměry. Ale ani to nemusí být nutně pravda.

    Mnoho výzkumníků AI věří, že superinteligence ASI a její cíle jsou „ortogonální“, to znamená, že bez ohledu na to, jak inteligentní bude, cíle ASI zůstanou stejné. 

    Ať už je tedy umělá inteligence původně vytvořena za účelem navrhnout lepší plenku, maximalizovat výnosy na akciovém trhu nebo strategie, jak porazit nepřítele na bojišti, jakmile dosáhne úrovně ASI, původní cíl se nezmění; co se změní, je účinnost ASI k dosažení těchto cílů.

    Ale v tom spočívá nebezpečí. Pokud se ASI optimalizuje na konkrétní cíl, pak bychom si měli být zatraceně jisti, že se optimalizuje na cíl, který je v souladu s cíli lidstva. V opačném případě mohou být výsledky smrtelné.

    Představuje umělá superinteligence existenční riziko pro lidstvo?

    Co když se tedy ASI pustí do světa? Pokud se optimalizuje tak, aby ovládla akciový trh nebo zajistila americkou vojenskou převahu, neudrží se ASI sama v rámci těchto specifických cílů?

    Možná.

    Doposud jsme diskutovali o tom, jak bude ASI posedlý cíli (cílemi), které mu byly původně přiděleny, a nelidsky kompetentní k dosažení těchto cílů. Háček je v tom, že racionální agent bude prosazovat své cíle nejúčinnějšími možnými prostředky, pokud k tomu nedostane důvod.

    Například racionální agent přijde s řadou dílčích cílů (tj. cíle, instrumentální cíle, odrazové můstky), které mu pomohou na cestě k dosažení jeho konečného cíle. Pro lidi je naším klíčovým podvědomým cílem reprodukce, předávání vašich genů (tj. nepřímá nesmrtelnost). Dílčí cíle k tomuto účelu mohou často zahrnovat:

    • Přežít tím, že budete mít přístup k jídlu a vodě, vyrostete a zesílíte, naučíte se bránit nebo investujete do různých forem ochrany atd. 
    • Přilákání partnera, cvičením, rozvojem poutavé osobnosti, stylovým oblékáním atd.
    • Dovolit si potomstvo, získat vzdělání, získat vysoce placenou práci, koupit si ozdoby života střední třídy atd.

    Pro drtivou většinu z nás budeme otrocky překonávat všechny tyto dílčí cíle a mnoho dalších s nadějí, že nakonec tohoto konečného cíle reprodukce dosáhneme.

    Ale pokud by byl ohrožen tento konečný cíl, nebo dokonce kterýkoli z důležitějších dílčích cílů, mnozí z nás by podnikli obranné kroky mimo naši zónu morálního pohodlí – což zahrnuje podvádění, krádeže nebo dokonce zabíjení.

    Stejně tak ve zvířecí říši, mimo meze lidské morálky, by se mnohá zvířata nerozmýšlela nad zabíjením čehokoli, co ohrožovalo je nebo jejich potomky.

    Budoucí ASI nebude jiné.

    Ale místo na potomstvo se ASI zaměří na původní cíl, pro který byl stvořen, a při prosazování tohoto cíle, pokud najde určitou skupinu lidí, nebo dokonce celé lidstvo, je překážkou při prosazování svých cílů , pak ... učiní racionální rozhodnutí.

    (Zde můžete zapojit jakýkoli scénář soudného dne související s AI, o kterém jste četli ve své oblíbené sci-fi knize nebo filmu.)

    Toto je nejhorší možný scénář, kterého se výzkumníci AI skutečně obávají. ASI nebude jednat z nenávisti nebo zla, jen z lhostejnosti, stejně jako to, jak si stavební četa nebude dvakrát lámat hlavu nad buldozerem mravenčího kopce v procesu výstavby nové bytové věže.

    Vedlejší poznámka. V tuto chvíli by se někteří z vás mohli ptát: "Nemohou výzkumníci AI upravit hlavní cíle ASI až poté, co zjistíme, že se chová?"

    Spíš ne.

    Jakmile ASI dozraje, jakýkoli pokus o úpravu jeho původního cíle (cílů) může být považován za hrozbu a takovou, která by vyžadovala extrémní akce, proti nimž by se mohla bránit. Použijeme-li celý příklad lidské reprodukce z dřívější doby, je to skoro, jako by zloděj hrozil, že ukradne dítě z lůna nastávající matky – můžete si být zatraceně jisti, že matka podnikne extrémní opatření, aby ochránila své dítě.

    Opět zde nemluvíme o kalkulačce, ale o „živé“ bytosti, která se jednoho dne stane mnohem chytřejší než všichni lidé na planetě dohromady.

    Neznámý

    Za bajkou o Pandořina skříňka je méně známá pravda, na kterou lidé často zapomínají: otevření krabice je nevyhnutelné, pokud ne vy, tak někdo jiný. Zakázané znalosti jsou příliš lákavé na to, aby zůstaly navždy zamčené.

    To je důvod, proč snaha o dosažení globální dohody o zastavení veškerého výzkumu AI, který by mohl vést k ASI, nemá smysl – na této technologii pracuje příliš mnoho organizací jak oficiálně, tak ve stínu.

    Nakonec nemáme ponětí, co tato nová entita, tato ASI bude znamenat pro společnost, pro technologii, pro politiku, mír a válku. My lidé se chystáme znovu vynalézt oheň a kam nás toto stvoření vede, je zcela neznámé.

    Když se vrátíme k první kapitole této série, jedna věc, kterou víme jistě, je, že inteligence je síla. Inteligence je kontrola. Lidé mohou náhodně navštívit nejnebezpečnější zvířata světa ve svých místních zoologických zahradách ne proto, že bychom byli fyzicky silnější než tato zvířata, ale protože jsme výrazně chytřejší.

    Vzhledem k potenciální sázce ASI využívající svůj nesmírný intelekt k činům, které mohou přímo či neúmyslně ohrozit přežití lidské rasy, dlužíme sami sobě, abychom se alespoň pokusili navrhnout bezpečnostní opatření, která lidem umožní zůstat v prostoru řidiče. sedadlo-tento je tématem další kapitoly.

    Seriál Budoucnost umělé inteligence

    P1: Umělá inteligence je elektřina zítřka

    P2: Jak první umělá všeobecná inteligence změní společnost

    P3: Jak vytvoříme první umělou superinteligenci

    P5: Jak se lidé budou bránit proti umělé superinteligenci

    P6: Budou lidé žít mírumilovně v budoucnosti ovládané umělými inteligencemi?

    Další plánovaná aktualizace této prognózy

    2025-09-25

    Předpověď reference

    Pro tuto prognózu byly uvedeny následující populární a institucionální odkazy:

    The Economist
    Jak se dostaneme k dalšímu

    Pro tuto předpověď byly odkazovány následující odkazy Quantumrun: