Արդյո՞ք արհեստական ​​գերհետախուզությունը կկործանի մարդկությանը: Արհեստական ​​ինտելեկտի ապագան P4

ՊԱՏԿԵՐԻ ՎԱՐԿ. Quantumrun

Արդյո՞ք արհեստական ​​գերհետախուզությունը կկործանի մարդկությանը: Արհեստական ​​ինտելեկտի ապագան P4

    Կան որոշակի գյուտեր, որոնց վրա ազգերը գնում են: Սրանք գյուտեր են, որտեղ ամեն ինչ կախված է առաջինը լինելուց, և ավելի քիչ բան կարող է նշանակել ռազմավարական և մահացու սպառնալիք ազգի գոյատևման համար:

    Պատմությունը սահմանող այս գյուտերը հաճախ չեն հանդիպում, բայց երբ լինում են, աշխարհը կանգ է առնում, և կանխատեսելի ապագան մշուշոտ է դառնում:

    Վերջին նման գյուտը հայտնվեց Երկրորդ համաշխարհային պատերազմի վատթարագույն ժամանակաշրջանում: Մինչ նացիստները գրավում էին հին աշխարհի բոլոր ճակատներում, նոր աշխարհում, մասնավորապես Լոս Ալամոսից դուրս գտնվող գաղտնի բանակային բազայում, դաշնակիցները դժվարությամբ էին աշխատում զենքի վրա, որը վերջ կդնի բոլոր զենքերին:

    Նախագիծը սկզբում փոքր էր, բայց այնուհետև աշխատեցրեց 130,000 մարդ ԱՄՆ-ից, Մեծ Բրիտանիայից և Կանադայից, ներառյալ այն ժամանակվա աշխարհի մեծագույն մտածողներից շատերը: Մանհեթենի նախագիծը ծածկագրված և անսահմանափակ բյուջեով (մոտ 23 միլիարդ դոլար 2018 թվականին) այս մարդկային հնարամտության բանակը ի վերջո հաջողվեց ստեղծել առաջին միջուկային ռումբը: Շատ չանցած Երկրորդ համաշխարհային պատերազմն ավարտվեց երկու ատոմային պայթյուններով:

    Այս միջուկային զենքերը սկիզբ դրեցին ատոմային դարաշրջանին, ներմուծեցին էներգիայի խորապես նոր աղբյուր և մարդկությանը հնարավորություն տվեցին իրեն ոչնչացնել րոպեների ընթացքում, ինչից մենք խուսափում էինք չնայած Սառը պատերազմին:

    Արհեստական ​​գերհետախուզության (ASI) ստեղծումը պատմության ևս մեկ գյուտ է, որի ուժը (և դրական և կործանարար) շատ գերազանցում է միջուկային ռումբին:

    Արհեստական ​​ինտելեկտի ապագան շարքի վերջին գլխում մենք ուսումնասիրեցինք, թե ինչ է ASI-ն և ինչպես են հետազոտողները նախատեսում մի օր կառուցել այն: Այս գլխում մենք կանդրադառնանք, թե որ կազմակերպություններն են առաջատար արհեստական ​​ինտելեկտի (AI) հետազոտությունը, ինչ կցանկանա ASI-ն, երբ ձեռք բերի մարդու նման գիտակցություն, և ինչպես այն կարող է սպառնալ մարդկությանը, եթե սխալ կառավարվի կամ ընկնի ազդեցության տակ: ոչ այնքան գեղեցիկ ռեժիմներ.

    Ո՞վ է աշխատում արհեստական ​​գերհետախուզություն ստեղծելու վրա:

    Հաշվի առնելով, թե որքան կարևոր է ASI-ի ստեղծումը մարդկության պատմության համար և որքան մեծ առավելություն կտա այն իր ստեղծողին, զարմանալի չէ, որ շատ խմբեր անուղղակիորեն աշխատում են այս նախագծի վրա:

    (Անուղղակի ասելով՝ մենք նկատի ունենք AI հետազոտության վրա աշխատելը, որն ի վերջո կստեղծի առաջինը արհեստական ​​ընդհանուր հետախուզություն (AGI), դա ինքնին կհանգեցնի առաջին ASI-ին շուտով:

    Սկզբում, երբ խոսքը վերնագրերի մասին է, առաջադեմ արհեստական ​​ինտելեկտի հետազոտության ակնհայտ առաջատարները ԱՄՆ-ի և Չինաստանի առաջատար տեխնոլոգիական ընկերություններն են: ԱՄՆ ճակատում սա ներառում է այնպիսի ընկերություններ, ինչպիսիք են Google-ը, IBM-ը և Microsoft-ը, իսկ Չինաստանում՝ Tencent-ը, Baidu-ն և Alibaba-ն: Բայց քանի որ արհեստական ​​ինտելեկտի հետազոտությունը համեմատաբար էժան է ֆիզիկական ինչ-որ բան մշակելու համեմատ, ինչպիսին է ավելի լավ միջուկային ռեակտորը, սա նաև այն ոլորտն է, որտեղ կարող են մրցակցել նաև փոքր կազմակերպությունները, ինչպիսիք են համալսարանները, ստարտափները և ... ստվերային կազմակերպությունները (օգտագործեք ձեր Բոնդի չարագործի երևակայությունը: այդ մեկը):

    Բայց կուլիսների հետևում, արհեստական ​​ինտելեկտի հետազոտության իրական մղումը գալիս է կառավարություններից և նրանց զինվորականներից: ASI առաջինը ստեղծելու տնտեսական և ռազմական մրցանակը պարզապես չափազանց մեծ է (նշված է ստորև) հետ մնալու ռիսկի համար: Իսկ վերջինը լինելու վտանգներն անընդունելի են առնվազն որոշակի ռեժիմների համար։

    Հաշվի առնելով այս գործոնները, AI-ի հետազոտման համեմատաբար ցածր արժեքը, առաջադեմ AI-ի անսահման կոմերցիոն կիրառությունները և ASI առաջինը լինելու տնտեսական և ռազմական առավելությունը, AI շատ հետազոտողներ կարծում են, որ ASI-ի ստեղծումն անխուսափելի է:

    Ե՞րբ ենք ստեղծելու արհեստական ​​գերհետախուզություն

    AGI-ների մասին մեր գլխում մենք նշեցինք, թե ինչպես AI-ի լավագույն հետազոտողների հարցումը կարծում էր, որ մենք առաջին AGI-ն լավատեսորեն կստեղծենք մինչև 2022 թվականը, իրատեսորեն մինչև 2040 թվականը և հոռետեսորեն մինչև 2075 թվականը:

    Իսկ մեր մեջ վերջին գլուխը, մենք ուրվագծեցինք, թե ինչպես է ASI-ի ստեղծումը, ընդհանուր առմամբ, արդյունք է AGI-ին ինքնակատարելագործվելու անսահմանորեն ինքնակատարելագործվելու և դա անելու ռեսուրսներ և ազատություն տալու հրահանգով:

    Այդ իսկ պատճառով, չնայած AGI-ի ստեղծմանը կարող է տևել մինչև մի քանի տասնամյակ, ASI ստեղծելը կարող է տևել ընդամենը մի քանի տարի ավելի:

    Այս կետը նման է «հաշվողական գերխնդիր» հասկացությանը, որն առաջարկվել է այստեղ մի թուղթ, գրված է առաջատար AI մտածողներ Լյուկ Մյուելհաուզերի և Նիք Բոստրոմի կողմից: Ըստ էության, եթե AGI-ի ստեղծումը շարունակի հետ մնալ հաշվողական հզորության ներկայիս առաջընթացից, որը սնուցվում է Մուրի օրենքով, ապա մինչ հետազոտողները կհայտնեն AGI, այնքան մատչելի կլինի հաշվողական հզորությունը, որ AGI-ն կունենա այդ հզորությունը: այն պետք է արագ ցատկել ASI-ի մակարդակին:

    Այլ կերպ ասած, երբ վերջապես կարդում եք վերնագրերը, որոնք հայտարարում են, որ ինչ-որ տեխնոլոգիական ընկերություն հորինել է առաջին իսկական AGI-ն, ապա սպասեք առաջին ASI-ի հայտարարությանը շատ չանցած:

    Արհեստական ​​գերինտելեկտու՞մ մտքի ներսում:

    Լավ, այնպես որ մենք պարզեցինք, որ խոր գրպաններ ունեցող շատ մեծ խաղացողներ ուսումնասիրում են AI-ն: Եվ այնուհետև առաջին AGI-ի հայտնագործումից հետո մենք կտեսնենք, որ համաշխարհային կառավարությունները (զինվորները) կանաչ լույս կտան դեպի ASI-ի մղումը, որից անմիջապես հետո առաջինը հաղթեն AI (ASI) սպառազինությունների համաշխարհային մրցավազքում:

    Բայց երբ այս ASI-ն ստեղծվի, ինչպե՞ս կմտածի: Ի՞նչ է դա ուզում:

    Ընկերասեր շունը, հոգատար փիղը, սրամիտ ռոբոտը. մենք՝ որպես մարդիկ, սովորություն ունենք փորձել առնչվել իրերի հետ՝ դրանք մարդաբանության միջոցով, այսինքն՝ կիրառելով մարդկային հատկանիշներ իրերի և կենդանիների նկատմամբ: Ահա թե ինչու մարդկանց առաջին բնական ենթադրությունը, երբ մտածում են ASI-ի մասին, այն է, որ երբ այն ինչ-որ կերպ գիտակցություն ձեռք բերի, այն կմտածի և կվարվի այնպես, ինչպես մեզ:

    Դե, պարտադիր չէ:

    Ըմբռնում. Մեկը, այն, ինչ շատերը հակված են մոռանալու, այն է, որ ընկալումը հարաբերական է: Մեր մտածելակերպը ձևավորվում է մեր միջավայրի, մեր փորձառությունների և հատկապես մեր կենսաբանության շնորհիվ: Առաջին անգամ բացատրվել է գլուխ երրորդ մեր Մարդկային էվոլյուցիայի ապագան շարքը, հաշվի առեք մեր ուղեղի օրինակը.

    Դա մեր ուղեղն է, որն օգնում է մեզ հասկանալ մեզ շրջապատող աշխարհը: Եվ դա անում է ոչ թե մեր գլխավերեւում լողալով, շուրջը նայելով և մեզ Xbox կարգավորիչով կառավարելով. նա դա անում է՝ փակվելով տուփի մեջ (մեր նոգինները) և մշակելով այն տեղեկատվությունը, որը տրված է մեր զգայական օրգաններից՝ աչքերից, քթից, ականջներից և այլն:

    Բայց ինչպես խուլերը կամ կույրերը շատ ավելի փոքր կյանքով են ապրում աշխատունակ մարդկանց համեմատ, նրանց հաշմանդամության պատճառով աշխարհը ընկալելու սահմանափակման պատճառով, նույնը կարելի է ասել բոլոր մարդկանց համար՝ մեր հիմնական սահմանափակումների պատճառով: զգայական օրգանների հավաքածու.

    Մտածեք հետևյալի մասին. մեր աչքերը ընկալում են բոլոր լույսի ալիքների տասը տրիլիոներորդ մասը: Մենք չենք կարող տեսնել գամմա ճառագայթներ: Մենք չենք կարող տեսնել ռենտգենյան ճառագայթներ: Մենք չենք կարող տեսնել ուլտրամանուշակագույն լույսը: Եվ ինձ մի սկսեք ինֆրակարմիր, միկրոալիքային և ռադիոալիքների վրա:

    Կատակելը մի կողմ, պատկերացրեք, թե ինչպիսին կլիներ ձեր կյանքը, ինչպես կարող եք ընկալել աշխարհը, որքան տարբեր կարող է աշխատել ձեր միտքը, եթե կարողանայիք տեսնել ավելին, քան ձեր աչքերը թույլ են տալիս ներկայումս թույլ լույսի փոքր մասնիկը: Նմանապես, պատկերացրեք, թե ինչպես կընկալեիք աշխարհը, եթե ձեր հոտառությունը հավասարվեր շան հոտառությանը կամ եթե ձեր լսողությունը հավասարվեր փղի զգայարանին:

    Որպես մարդիկ, մենք, ըստ էության, աշխարհը տեսնում ենք դիտակի միջով, և դա արտացոլվում է այն մտքերում, որոնք մենք զարգացրել ենք, որպեսզի իմաստավորենք այդ սահմանափակ ընկալումը:

    Մինչդեռ առաջին ASI-ն կծնվի սուպերհամակարգչի ներսում: Օրգանների փոխարեն մուտքերը, որոնց նա հասանելի կլինի, ներառում է տվյալների հսկա հավաքածուներ, հնարավոր է (հավանաբար) նույնիսկ մուտք դեպի ինտերնետ: Հետազոտողները կարող են նրան հասանելի դարձնել մի ամբողջ քաղաքի CCTV տեսախցիկներ և խոսափողներ, անօդաչու սարքերի և արբանյակների զգայական տվյալները և նույնիսկ ռոբոտի մարմնի կամ մարմինների ֆիզիկական ձևը:

    Ինչպես կարող եք պատկերացնել, մի միտք, որը ծնվում է սուպերհամակարգչի ներսում, ուղիղ մուտքով դեպի ինտերնետ, միլիոնավոր էլեկտրոնային աչքեր ու ականջներ և այլ առաջադեմ սենսորների մի ամբողջ շարք, ոչ միայն մեզանից տարբերվող, այլև այն միտքը, որը կարող է իմաստալից լինել: այդ բոլոր զգայական մուտքերը պետք է անսահմանորեն գերազանցեին նաև մեզ: Սա մի միտք է, որը լիովին խորթ կլինի մեր սեփական և մոլորակի ցանկացած այլ կյանքի ձևի համար:

    Նպատակները. Մյուս բանը, որ մարդիկ ենթադրում են, այն է, որ երբ ASI-ն հասնի գերհետախուզության ինչ-որ մակարդակի, նա անմիջապես կգիտակցի իր սեփական նպատակներն ու խնդիրներն առաջադրելու ցանկությունը: Բայց դա նույնպես անպայմանորեն ճիշտ չէ:

    Արհեստական ​​ինտելեկտի շատ հետազոտողներ կարծում են, որ ASI-ի գերհետախուզությունը և նրա նպատակները «ուղղանկյուն» են, այսինքն՝ անկախ նրանից, թե որքան խելացի կլինի, ASI-ի նպատակները կմնան նույնը: 

    Այսպիսով, անկախ նրանից, թե AI-ն ի սկզբանե ստեղծվել է ավելի լավ անձեռոցիկ նախագծելու, ֆոնդային շուկայում առավելագույն եկամտաբերությունը կամ մարտադաշտում թշնամուն հաղթելու ուղիներ մշակելու համար, երբ այն հասնի ASI-ի մակարդակին, սկզբնական նպատակը չի փոխվի. ինչ կփոխվի, ASI-ի արդյունավետությունն է այդ նպատակներին հասնելու համար:

    Բայց ահա վտանգը. Եթե ​​ASI-ն, որն իրեն օպտիմիզացնում է կոնկրետ նպատակի համար, ապա մենք ավելի լավ է վստահ լինենք, որ այն օպտիմալացնում է նպատակին, որը համահունչ է մարդկության նպատակներին: Հակառակ դեպքում արդյունքները կարող են մահացու դառնալ:

    Արդյո՞ք արհեստական ​​գերհետախուզությունը վտանգ է ներկայացնում մարդկության համար:

    Ուրեմն ի՞նչ, եթե ASI-ն բաց թողնվի աշխարհում: Եթե ​​այն օպտիմիզացնի ֆոնդային շուկայում գերիշխելու կամ ԱՄՆ-ի ռազմական գերակայությունն ապահովելու համար, արդյոք ASI-ն չի՞ զսպի իրեն այդ հատուկ նպատակների շրջանակներում:

    Հնարավոր է:

    Մինչ այժմ մենք քննարկել ենք, թե ինչպես է ASI-ն տարված կլինի այն նպատակով (նպատակներով), որն ի սկզբանե նշանակված էր և անմարդկային իրավասու է այդ նպատակներին հասնելու համար: Բռնելն այն է, որ ռացիոնալ գործակալն իր նպատակներին հասնելու է հնարավորինս արդյունավետ միջոցներով, եթե դրա համար պատճառ չտրվի:

    Օրինակ, ռացիոնալ գործակալը հանդես կգա մի շարք ենթանպատակներով (այսինքն՝ նպատակներ, գործիքային նպատակներ, ելակետային քարեր), որոնք կօգնեն նրան հասնելու իր վերջնական նպատակին: Մարդկանց համար մեր հիմնական ենթագիտակցական նպատակը վերարտադրումն է՝ ձեր գեների փոխանցումը (այսինքն՝ անուղղակի անմահությունը): Այդ նպատակով ենթանպատակները հաճախ կարող են ներառել.

    • Գոյատևել, սնունդ և ջուր ձեռք բերելով, մեծանալով և ուժեղանալով, սովորել պաշտպանվել կամ ներդրումներ կատարել պաշտպանության տարբեր ձևերում և այլն: 
    • Զուգակցին գրավել, մարզվելով, գրավիչ անհատականություն զարգացնելով, ոճային հագնվելով և այլն:
    • Սերունդ ձեռք բերելը, կրթություն ստանալը, բարձր վարձատրվող աշխատանք գտնելը, միջին խավի կյանքի պարագաները գնելը և այլն:

    Մեզանից ճնշող մեծամասնության համար մենք կվերացնենք այս բոլոր ենթանպատակները, և շատ ուրիշներ՝ հույս ունենալով, որ ի վերջո մենք կհասնենք վերարտադրության այս վերջնական նպատակին:

    Բայց եթե այս վերջնական նպատակը կամ նույնիսկ ավելի կարևոր ենթանպատակներից որևէ մեկը վտանգի ենթարկվեր, մեզանից շատերը կձեռնարկեին պաշտպանական գործողություններ մեր բարոյական հարմարավետության գոտիներից դուրս, որոնք ներառում են խաբեություն, գողություն կամ նույնիսկ սպանություն:

    Նմանապես, կենդանիների թագավորությունում, մարդկային բարոյականության սահմաններից դուրս, շատ կենդանիներ երկու անգամ չէին մտածում սպանելու այն մասին, ինչը սպառնում էր իրենց կամ իրենց սերունդներին:

    Ապագա ASI-ն չի տարբերվի:

    Բայց սերունդների փոխարեն, ASI-ն կկենտրոնանա սկզբնական նպատակի վրա, որի համար ստեղծվել է, և այդ նպատակին հասնելու համար, եթե գտնի մարդկանց որոշակի խումբ, կամ նույնիսկ ողջ մարդկությունը, խոչընդոտ է հանդիսանում իր նպատակներին հասնելու համար: , ապա ... դա կկայացնի ռացիոնալ որոշումը.

    (Ահա, որտեղ դուք կարող եք միացնել AI-ի հետ կապված ցանկացած, դատաստանի օրվա սցենար, որի մասին կարդացել եք ձեր սիրելի գիտաֆանտաստիկ գրքում կամ ֆիլմում):

    Սա ամենավատ դեպքն է, որով AI հետազոտողներն իսկապես անհանգստացած են: ASI-ն չի գործի ատելությունից կամ չարությունից, պարզապես անտարբերությունից, ինչպես շինարարական բրիգադը երկու անգամ չմտածի մրջյունների բլուրը բուլդոզահարելու մասին նոր աշտարակի կառուցման գործընթացում:

    Կողքի նշում. Այս պահին ձեզանից ոմանք կարող են հետաքրքրվել. «Արդյո՞ք արհեստական ​​ինտելեկտի հետազոտողները չեն կարող պարզապես խմբագրել ASI-ի հիմնական նպատակները այն բանից հետո, երբ մենք գտնենք, որ այն գործում է»:

    Ոչ, իրականում:

    Երբ ASI-ն հասունանա, իր սկզբնական նպատակ(ներ)ը խմբագրելու ցանկացած փորձ կարող է դիտվել որպես սպառնալիք, որը կպահանջի ծայրահեղ գործողություններ իրենից պաշտպանվելու համար: Օգտագործելով մարդու վերարտադրության ողջ օրինակը նախկինում, գրեթե այնպես է թվում, եթե գողը սպառնացել է գողանալ երեխային ապագա մոր արգանդից. դուք կարող եք վստահ լինել, որ մայրը ծայրահեղ միջոցներ կձեռնարկի իր երեխային պաշտպանելու համար:

    Կրկին, այստեղ մենք խոսում ենք ոչ թե հաշվիչի, այլ «կենդանի» էակի մասին, որը մի օր կդառնա շատ ավելի խելացի, քան մոլորակի բոլոր մարդիկ միասին վերցրած:

    Անհայտը

    Առակի հետևում Պանդորայի արկղը քիչ հայտնի ճշմարտություն է, որը մարդիկ հաճախ մոռանում են. տուփի բացումն անխուսափելի է, եթե ոչ քո կողմից, այլ մեկ ուրիշի կողմից: Արգելված գիտելիքը չափազանց գայթակղիչ է ընդմիշտ փակ մնալու համար:

    Ահա թե ինչու գլոբալ համաձայնության հասնելու փորձերը՝ դադարեցնելու AI-ի վերաբերյալ բոլոր հետազոտությունները, որոնք կարող են հանգեցնել ASI-ի, անիմաստ է. պարզապես կան չափազանց շատ կազմակերպություններ, որոնք աշխատում են այս տեխնոլոգիայի վրա և՛ պաշտոնապես, և՛ ստվերում:

    Ի վերջո, մենք պատկերացում չունենք, թե այս նոր կազմավորումը, այս ASI-ն ինչ նշանակություն կունենա հասարակության, տեխնոլոգիայի, քաղաքականության, խաղաղության և պատերազմի համար: Մենք՝ մարդիկս, պատրաստվում ենք նորից կրակ հորինել, և թե ուր է մեզ տանում այս ստեղծագործությունը, բոլորովին անհայտ է:

    Վերադառնալով այս շարքի առաջին գլխին, մի բան, որ մենք հաստատ գիտենք, այն է, որ բանականությունը ուժ է: Բանականությունը վերահսկողություն է: Մարդիկ կարող են պատահաբար այցելել աշխարհի ամենավտանգավոր կենդանիներին իրենց տեղական կենդանաբանական այգիներում ոչ այն պատճառով, որ մենք ֆիզիկապես ավելի ուժեղ ենք, քան այս կենդանիները, այլ այն պատճառով, որ մենք զգալիորեն ավելի խելացի ենք:

    Հաշվի առնելով հնարավոր խաղադրույքները, երբ ASI-ն օգտագործում է իր հսկայական ինտելեկտը՝ գործողություններ ձեռնարկելու համար, որոնք կարող են ուղղակիորեն կամ ակամա սպառնալ մարդկային ցեղի գոյատևմանը, մենք պարտավոր ենք գոնե փորձել նախագծել այնպիսի երաշխիքներ, որոնք թույլ կտան մարդկանց մնալ վարորդի մեջ: նստատեղ-սա հաջորդ գլխի թեման է:

    Արհեստական ​​ինտելեկտի ապագան

    P1: Արհեստական ​​ինտելեկտը վաղվա էլեկտրաէներգիան է

    P2: Ինչպես առաջին արհեստական ​​ընդհանուր բանականությունը կփոխի հասարակությունը

    P3: Ինչպես ենք մենք ստեղծելու առաջին արհեստական ​​գերհետախուզությունը

    P5: Ինչպես են մարդիկ պաշտպանվելու արհեստական ​​գերբանականության դեմ

    P6: Արդյո՞ք մարդիկ խաղաղ կապրեն արհեստական ​​ինտելեկտի գերիշխող ապագայում:

    Այս կանխատեսման հաջորդ պլանավորված թարմացումը

    2025-09-25

    Կանխատեսման հղումներ

    Այս կանխատեսման համար հղում են արվել հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումներին.

    MIT տեխնոլոգիաների ակնարկ
    Ինչպես ենք մենք հասնում հաջորդին

    Այս կանխատեսման համար հղում են արվել հետևյալ Quantumrun հղումներին.