Жасанды суперинтеллект адамзатты жоя ма? Жасанды интеллекттің болашағы P4

Кредит суреті: Квантумрун

Жасанды суперинтеллект адамзатты жоя ма? Жасанды интеллекттің болашағы P4

    Халықтар қолданатын белгілі бір өнертабыстар бар. Бұл өнертабыстар, онда бәрі бірінші болуға байланысты, ал одан кем нәрсе ұлттың өмір сүруіне стратегиялық және өлім қаупін білдіруі мүмкін.

    Бұл тарихты анықтайтын өнертабыстар жиі бола бермейді, бірақ олар пайда болған кезде әлем тоқтап, болжамды болашақ бұлыңғыр болады.

    Мұндай соңғы өнертабыс Екінші дүниежүзілік соғыстың ең ауыр кезінде пайда болды. Нацистер ескі әлемдегі барлық майдандарда, жаңа әлемде, атап айтқанда, Лос-Аламостың сыртындағы жасырын армия базасында жеңіске жеткен кезде, одақтастар барлық қару-жарақтарды жою үшін қару-жарақпен жұмыс істеді.

    Жоба бастапқыда шағын болды, бірақ кейін АҚШ, Ұлыбритания және Канададан келген 130,000 23 адамды, соның ішінде сол кездегі әлемнің көптеген ұлы ойшылдарын жұмыспен қамтыды. Манхэттен жобасы деп кодталған және шексіз бюджетті ескере отырып, 2018 долларында шамамен XNUMX миллиард долларды құрайтын бұл адам тапқырлық армиясы ақырында алғашқы ядролық бомбаны жасай алды. Көп ұзамай Екінші дүниежүзілік соғыс екі атомдық жарылыспен аяқталды.

    Бұл ядролық қарулар атом дәуірін бастады, энергияның түбегейлі жаңа көзін енгізді және адамзатқа бірнеше минут ішінде өзін-өзі жою мүмкіндігін берді — қырғи-қабақ соғысқа қарамастан біз одан аулақ болдық.

    Жасанды супер интеллект (ASI) құру - бұл қуаты (оң және жойғыш) ядролық бомбадан әлдеқайда асып түсетін өнертабысты анықтайтын тағы бір тарих.

    «Жасанды интеллект болашағы» сериясының соңғы тарауында біз ASI деген не екенін және зерттеушілер бір күні оны қалай құруды жоспарлайтынын зерттедік. Бұл тарауда біз қандай ұйымдар жасанды интеллект (AI) зерттеулерін жүргізіп жатқанын, ASI адамға ұқсайтын санаға ие болғаннан кейін нені қалайтынын және дұрыс басқарылмаса немесе оның ықпалына түссе, адамзатқа қалай қауіп төндіретінін қарастырамыз. соншалықты жақсы емес режимдер.

    Жасанды интеллект құру үшін кім жұмыс істейді?

    ASI құру адамзат тарихы үшін қаншалықты маңызды болатынын және оның жасаушыға қаншалықты үлкен артықшылық беретінін ескере отырып, көптеген топтардың бұл жобада жанама түрде жұмыс істеп жатқанын есту таңқаларлық емес.

    (Жанама түрде біз AI зерттеулерімен жұмыс істеуді айтамыз, ол ақырында біріншісін жасайды жасанды жалпы интеллект (AGI), бұл көп ұзамай бірінші ASI-ге әкеледі.)

    Бастау үшін, тақырыптарға келетін болсақ, алдыңғы қатарлы AI зерттеулерінің айқын көшбасшылары АҚШ пен Қытайдағы жетекші технологиялық фирмалар болып табылады. АҚШ-та бұған Google, IBM және Microsoft сияқты компаниялар кіреді, ал Қытайда Tencent, Baidu және Alibaba сияқты компаниялар бар. Бірақ AI-ны зерттеу физикалық нәрсені, мысалы, жақсырақ ядролық реакторды жасаумен салыстырғанда салыстырмалы түрде арзан болғандықтан, бұл университеттер, стартаптар және ... көлеңкелі ұйымдар сияқты кішігірім ұйымдар да бәсекеге түсе алатын сала болып табылады (Bond зұлымдық қиялдарын пайдалану үшін). Осы).

    Бірақ сахна артында AI зерттеулерінің артындағы нақты күш үкіметтер мен олардың әскерлерінен келеді. Бірінші болып ASI құрудың экономикалық және әскери сыйлығы артта қалу қаупі үшін тым үлкен (төменде көрсетілген). Ал соңғы болу қаупі, кем дегенде, белгілі бір режимдер үшін қабылданбайды.

    Осы факторларды ескере отырып, AI-ны зерттеудің салыстырмалы түрде төмен құны, озық AI-ның шексіз коммерциялық қолданбалары және ASI-ді бірінші болып жасаудың экономикалық және әскери артықшылығы, көптеген AI зерттеушілері ASI құру сөзсіз деп санайды.

    Жасанды интеллект қашан құрылады

    AGI туралы тарауда біз AI зерттеушілерінің сауалнамасы 2022 жылға қарай бірінші AGI оптимистік, 2040 жылға қарай шынайы және 2075 жылға қарай пессимистік түрде жасаймыз деп сенгенін айттық.

    Ал біздің соңғы тарау, біз ASI құру әдетте AGI-ге өзін-өзі шексіз жетілдіруге нұсқау берудің және оған ресурстар мен еркіндік берудің нәтижесі екенін сипаттадық.

    Осы себепті, AGI ойлап табу үшін әлі бірнеше онжылдықтар қажет болуы мүмкін, ал ASI құру бірнеше жыл ғана қажет болуы мүмкін.

    Бұл тармақта ұсынылған «есептеудің асып кетуі» тұжырымдамасына ұқсас қағаз, жетекші AI ойшылдары Люк Мюлхаузер мен Ник Бостром бірлесіп жазған. Негізінде, егер AGI құру Мур заңымен негізделген есептеу қабілетінің қазіргі прогресінен артта қала берсе, зерттеушілер AGI ойлап тапқан кезде, AGI сыйымдылығы соншалықты арзан есептеуіш қуат болады. ол ASI деңгейіне тез секіруі керек.

    Басқаша айтқанда, сіз кейбір технологиялық компания бірінші шынайы AGI ойлап тапқаны туралы хабарлайтын тақырыптарды оқыған кезде, көп ұзамай бірінші ASI хабарландыруын күтіңіз.

    Жасанды интеллект санасының ішінде ме?

    Жарайды, сондықтан біз қалталары терең көптеген ірі ойыншылардың AI-ны зерттеп жатқанын анықтадық. Содан кейін бірінші AGI ойлап табылғаннан кейін, біз әлемдік үкіметтердің (әскерилердің) жаһандық AI (ASI) қарулану жарысында бірінші болып жеңіске жету үшін ASI-ға ұмтылуын көреміз.

    Бірақ бұл ASI құрылғаннан кейін ол қалай ойлайды? Ол нені қалайды?

    Мейірімді ит, қамқор піл, сүйкімді робот — адамдар болғандықтан, біз заттарды антропологиялау арқылы, яғни адамдық қасиеттерді заттар мен жануарларға қолдану арқылы байланыстыруға тырысамыз. Сондықтан адамдар ASI туралы ойлаған кездегі табиғи алғашқы болжам - ол қандай да бір түрде санаға ие болғаннан кейін, ол біз сияқты ойлайды және әрекет етеді.

    Міндетті емес.

    қабылдау. Біріншіден, көбісі қабылдаудың салыстырмалы екенін ұмытады. Біздің ойлау тәсілдерімізді қоршаған орта, тәжірибеміз, әсіресе биологиямыз қалыптастырады. Алдымен түсіндірілді үшінші тарау біздің Адам эволюциясының болашағы сериясы, біздің миымыздың мысалын қарастырыңыз:

    Бұл біздің миымыз бізді қоршаған әлемді түсінуге көмектеседі. Бұл біздің басымыздың үстінен қалқып, айналамызға қарап, Xbox контроллері арқылы бізді басқару арқылы емес; ол мұны қораптың ішінде (біздің түйіршіктеріміз) қамалып, сезім мүшелерімізден – көзімізден, мұрнымыздан, құлақтарымыздан және т.б. берілген кез келген ақпаратты өңдеу арқылы жасайды.

    Бірақ саңыраулар немесе соқырлар еңбекке қабілетті адамдарға қарағанда әлдеқайда аз өмір сүретіні сияқты, олардың мүгедектіктері әлемді қабылдауына байланысты шектеулерге байланысты, біздің негізгі мүмкіндіктеріміз шектеулі болғандықтан, барлық адамдар үшін бірдей нәрсені айтуға болады. сезім мүшелерінің жиынтығы.

    Мынаны қарастырайық: біздің көздер барлық жарық толқындарының он триллионнан бір бөлігін ғана қабылдайды. Біз гамма-сәулелерді көре алмаймыз. Біз рентген сәулелерін көре алмаймыз. Біз ультракүлгін сәулені көре алмаймыз. Мені инфрақызыл, микротолқындар және радиотолқындармен жұмыс істеуге кіріспеңіз!

    Барлық әзіл-қалжыңды былай қойғанда, сіздің өміріңіздің қандай болатынын, әлемді қалай қабылдауға болатынын, егер сіз қазіргі уақытта сіздің көзіңіз рұқсат ететін кішкентай жарықтан көп нәрсені көре алсаңыз, сіздің ойыңыз қаншалықты басқаша жұмыс істейтінін елестетіп көріңіз. Сол сияқты, егер сіздің иіс сезіміңіз иттікіне тең болса немесе есту сезіміңіз пілдікіне тең болса, әлемді қалай қабылдайтыныңызды елестетіп көріңіз.

    Адамдар ретінде біз әлемді саңылау арқылы көреміз және бұл шектеулі қабылдауды түсіну үшін дамыған санада көрінеді.

    Сонымен қатар, суперкомпьютердің ішінде бірінші ASI пайда болады. Органдардың орнына, ол қол жеткізетін кірістер үлкен деректер жиынын қамтиды, мүмкін (мүмкін) тіпті Интернетке қол жетімділік. Зерттеушілер оған бүкіл қаланың бейнебақылау камералары мен микрофондарына, дрондар мен спутниктердің сенсорлық деректеріне, тіпті робот денесінің немесе денелерінің физикалық пішініне қол жеткізуге мүмкіндік бере алады.

    Сіз ойлағандай, интернетке, миллиондаған электронды көздер мен құлақтарға және басқа да жетілдірілген сенсорларға тікелей қол жеткізе алатын суперкомпьютердің ішінде туылған ақыл бізден басқаша ойлап қана қоймайды, сонымен қатар мағынасы бар ақыл. барлық осы сенсорлық кірістердің бізден де шексіз жоғары болуы керек еді. Бұл біздің және планетадағы кез келген басқа тіршілік формасына мүлдем жат болатын ақыл.

    мақсаттары. Адамдар болжайтын тағы бір нәрсе, ASI қандай да бір супер интеллект деңгейіне жеткенде, ол өзінің мақсаттары мен міндеттерін орындауға деген ұмтылысты бірден жүзеге асырады. Бірақ бұл да міндетті түрде дұрыс емес.

    Көптеген AI зерттеушілері ASI супер интеллектісі мен оның мақсаттары «ортогональды» деп санайды, яғни ол қаншалықты ақылды болғанына қарамастан, ASI мақсаттары өзгеріссіз қалады. 

    Сонымен, AI бастапқыда жақсырақ жөргек жасау, қор нарығындағы кірісті арттыру немесе ұрыс даласында жауды жеңу жолдарын стратегиялау үшін жасалды ма, ол ASI деңгейіне жеткенде, бастапқы мақсат өзгермейді; өзгеретін нәрсе - бұл мақсаттарға жету үшін ASI тиімділігі.

    Бірақ қауіп осында жатыр. Егер ASI өзін белгілі бір мақсатқа оңтайландырса, оның адамзат мақсаттарына сәйкес келетін мақсатқа оңтайландырылғанына сенімді болғанымыз жөн. Әйтпесе, нәтиже өлімге әкелуі мүмкін.

    Жасанды интеллект адамзатқа экзистенциалды қауіп төндіреді ме?

    Егер ASI әлемде босатылса ше? Егер ол қор нарығында үстемдік ету үшін оңтайландырылса немесе АҚШ-тың әскери үстемдігін қамтамасыз етсе, ASI осы нақты мақсаттарда өзін-өзі ұстай алмайды ма?

    Мүмкін.

    Осы уақытқа дейін біз ASI бастапқыда тағайындалған мақсатқа (мақсаттарға) қалай құмар болатынын және сол мақсаттарға жетуде адамгершілікке жатпайтын құзыретті болатынын талқыладық. Ақылға қонымды агент өз мақсаттарын орындамауға себеп болмаса, мүмкіндігінше тиімді құралдармен ұмтылады.

    Мысалы, ұтымды агент өзінің түпкі мақсатына жету жолында көмектесетін бірқатар ішкі мақсаттарды (яғни міндеттер, аспаптық мақсаттар, баспалдақтар) ұсынады. Адамдар үшін біздің негізгі подсознание мақсатымыз – көбею, сіздің гендеріңізді беру (яғни жанама өлмеу). Осы мақсаттағы ішкі мақсаттар жиі мыналарды қамтуы мүмкін:

    • Тірі қалу, тамақ пен суға қол жеткізу, үлкен және күшті өсу, өзіңізді қорғауды үйрену немесе әртүрлі қорғаныс түрлеріне инвестиция салу және т.б. 
    • Жарын тарту, жаттығу арқылы, тартымды тұлға қалыптастыру, сәнді киіну, т.б.
    • Ұрпақ сыйлау, білім алу, жоғары жалақы алатын жұмысқа тұру, орта таптың тіршілігін сатып алу және т.б.

    Біздің басым көпшілігіміз үшін біз осы ішкі мақсаттардың барлығын және басқа да көптеген мақсаттарды жеңеміз, соңында біз осы түпкі мақсатқа көбеюге қол жеткіземіз деп үміттенеміз.

    Бірақ егер бұл түпкілікті мақсатқа немесе тіпті ең маңызды қосалқы мақсаттардың кез келгеніне қауіп төнсе, көпшілігіміз моральдық жайлылық аймағымыздан тыс қорғаныс әрекеттерін жасаймыз, соның ішінде алдау, ұрлау немесе тіпті өлтіру.

    Сол сияқты, жануарлар әлемінде, адамгершілігінің шегінен тыс көптеген жануарлар өздеріне немесе ұрпақтарына қауіп төндіретін нәрсені өлтіру туралы екі рет ойланбайды.

    Болашақ ASI басқаша болмайды.

    Бірақ ұрпақтың орнына, ASI өзі құрылған бастапқы мақсатқа назар аударады және осы мақсатқа жетуде, егер ол белгілі бір адамдар тобын немесе тіпті бүкіл адамзатты тапса, оның мақсаттарына жету жолында кедергі болып табылады. , содан кейін ... ұтымды шешім қабылдайды.

    (Мұнда сіз өзіңіздің сүйікті ғылыми-фантастикалық кітабыңызда немесе фильміңізде оқыған кез келген AI-ға қатысты, қиямет күні сценарийін қосуға болады.)

    Бұл AI зерттеушілерін алаңдататын ең нашар сценарий. ASI өшпенділіктен немесе зұлымдықтан әрекет етпейді, құрылыс бригадасы жаңа кондо мұнарасын салу процесінде құмырсқа төбесін бульдозерлеу туралы екі рет ойламайтын сияқты, жай ғана немқұрайлылық.

    Бүйірлік жазба. Осы кезде сіздердің кейбіреулеріңіз: «Егер AI зерттеушілері оның әрекет ететінін байқағаннан кейін ASI-ның негізгі мақсаттарын өңдей алмайды ма?» Деген сұрақ туындауы мүмкін.

    Онша емес.

    ASI жетілгеннен кейін, оның бастапқы мақсатын(дарын) өңдеуге кез келген әрекет қауіп ретінде қарастырылуы мүмкін және өзін қорғау үшін төтенше әрекеттерді қажет ететін әрекет. Бұрынғы адамның көбеюіне қатысты мысалды қолданатын болсақ, ұры болашақ ананың құрсағындағы нәрестені ұрлап кетемін деп қорқытқандай дерлік - ананың баласын қорғау үшін төтенше шаралар қабылдайтынына сенімді бола аласыз.

    Тағы да, біз бұл жерде калькулятор туралы емес, «тірі» тіршілік иесі және бір күні планетадағы барлық адамдар біріктірілгеннен әлдеқайда ақылдырақ болатын адам туралы айтып отырмыз.

    Белгісіз

    Ертегінің артында Пандора қорабы адамдар жиі ұмытып кететін азырақ белгілі шындық: қорапты басқа біреу емес, сіз емес, еріксіз ашу. Тыйым салынған білім мәңгілікке құлыпта қалу үшін тым азғырылады.

    Сондықтан АИ-ге әкелетін барлық зерттеулерді тоқтату туралы жаһандық келісімге қол жеткізуге тырысу мағынасыз - бұл технологиямен ресми түрде де, көлеңкеде де жұмыс істейтін ұйымдар өте көп.

    Сайып келгенде, біз бұл жаңа құрылымның, бұл ASI қоғамға, технологияға, саясатқа, бейбітшілік пен соғысқа нені білдіретінін білмейміз. Біз адамдар отты қайтадан ойлап тапқымыз келеді және бұл жаратылыс бізді қайда апаратыны белгісіз.

    Осы серияның бірінші тарауына оралатын болсақ, біз білетін бір нәрсе - бұл интеллект - күш. Интеллект - бұл бақылау. Адамдар өздерінің жергілікті хайуанаттар бағында әлемдегі ең қауіпті жануарларға кездейсоқ бара алады, өйткені біз бұл жануарлардан физикалық тұрғыдан күштірек емес, біз айтарлықтай ақылдымыз.

    Адам нәсілінің өмір сүруіне тікелей немесе байқаусызда қатер төндіретін әрекеттерді жасау үшін өзінің орасан зор интеллектін пайдаланатын ASI ықтимал тәуекелдерін ескере отырып, біз кем дегенде адамдарға жүргізушінің орнында қалуға мүмкіндік беретін қауіпсіздік шараларын әзірлеуге міндеттіміз. орын —осы келесі тараудың тақырыбы болып табылады.

    Жасанды интеллект сериясының болашағы

    Q1: Жасанды интеллект – ертеңгі электр энергиясы

    Q2: Бірінші жасанды жалпы интеллект қоғамды қалай өзгертеді

    Q3: Бірінші жасанды супер интеллектті қалай жасаймыз

    Q5: Адамдар жасанды интеллекттен қалай қорғанатын болады

    Q6: Жасанды интеллект үстемдік ететін болашақта адамдар бейбіт өмір сүре ме?

    Осы болжам үшін келесі жоспарланған жаңарту

    2025-09-25

    Болжам анықтамалары

    Бұл болжам үшін келесі танымал және институционалдық сілтемелерге сілтеме жасалды:

    Келесіге қалай жетеміз

    Бұл болжам үшін келесі Quantumrun сілтемелеріне сілтеме жасалды: