İnsanlar süni super intellektə qarşı necə müdafiə edəcəklər: süni intellektin gələcəyi P5

ŞƏKİL KREDİTİ: Quantumrun

İnsanlar süni super intellektə qarşı necə müdafiə edəcəklər: süni intellektin gələcəyi P5

    İl eramızdan əvvəl 65,000-ci ildir və e.ə Thylacoleo, siz və sizin növünüz qədim Avstraliyanın böyük ovçuları idiniz. Siz torpaqda sərbəst dolaşdınız və sizinlə bərabər torpağı işğal edən digər yırtıcılar və yırtıcılarla tarazlıqda yaşadınız. Fəsillər dəyişiklik gətirdi, lakin sizin və əcdadlarınızın xatırlaya biləcəyi müddətcə heyvanlar aləmindəki statusunuz mübahisəsiz qaldı. Sonra bir gün yeni gələnlər peyda oldu.

    Şayiələrə görə, onlar nəhəng su divarından gəliblər, lakin bu canlılar quruda yaşamaq üçün daha rahat görünürdülər. Bu canlıları özünüz görməli idiniz.

    Bir neçə gün çəkdi, amma nəhayət sahilə çatdın. Göydəki alov batırdı, bu canlıları izləmək üçün mükəmməl vaxt idi, bəlkə də onların dadını görmək üçün birini yeməyə cəhd edə bilərsiniz.

    Birini görürsən.

    İki ayaq üstə yeriyirdi və kürkü yox idi. Zəif görünürdü. Təsirsiz. Padşahlıqda yaratdığı qorxuya dəyməzdi.

    Gecə işığı qovduqca siz diqqətlə yanaşmaya başlayırsınız. Sən yaxınlaşırsan. Sonra donursan. Güclü səslər eşidilir və onlardan daha dördü onun arxasında meşədən görünür. Neçə var?

    Məxluq başqalarının ardınca ağac xəttinə daxil olur, siz də ardınca gedirsiniz. Və nə qədər çox etsəniz, bu canlıların daha çoxunu görənə qədər bir o qədər qəribə səslər eşidirsiniz. Onlar meşədən sahildəki boşluğa çıxanda siz uzaqdan təqib edirsiniz. Onların çoxu var. Amma daha önəmlisi odur ki, hamısı sakitcə odun ətrafında oturublar.

    Siz bu yanğınları əvvəllər də görmüsünüz. İsti mövsümdə səmada alov bəzən ölkəni ziyarət edir və bütün meşələri yandırırdı. Bu canlılar isə birtəhər ona nəzarət edirdilər. Hansı canlılar belə bir gücə sahib ola bilər?

    Uzağa baxırsan. Nəhəng su divarının üstündən daha çox gəlir.

    Bir addım geri çəkilirsən.

    Bu canlılar səltənətdəki digər canlılar kimi deyil. Onlar tamamilə yeni bir şeydir.

    Siz getməyə qərar verdiniz və qohumlarınıza xəbərdarlıq edin. Onların sayı çox artarsa, kim bilir nə baş verə bilər.

    ***

    Thylacoleo-nun Avstraliya qitəsindəki digər meqafaunaların əksəriyyəti ilə birlikdə insanların gəlişindən qısa müddət sonra nəsli kəsildiyi güman edilir. Başqa heç bir zirvə məməli yırtıcı onun yerini tutmadı - bu kateqoriyadakı insanları saymasanız.

    Bu alleqoriyanı ifa etmək bu seriyanın fəslinin diqqət mərkəzindədir: Gələcək süni super intellekt (ASI) hamımızı batareyaya çevirəcəkmi və sonra bizi Matrixə qoşacaqmı, yoxsa insanlar elmi fantastika qurbanı olmamaq üçün bir yol tapacaqlar, AI qiyamət süjeti?

    Bu günə qədər serialımızda Süni Zəkanın gələcəyi, biz süni intellektin hər cür növlərini, o cümlədən süni intellektin müəyyən bir formasının, ASI-nin müsbət potensialını tədqiq etdik: gələcək intellekti bizi qarışqa kimi göstərəcək süni varlıq.

    Amma kim deyə bilər ki, bu qədər ağıllı bir varlıq insanlardan həmişəlik əmr almağı qəbul edər. İşlər cənuba doğru getsə, nə edəcəyik? Biz yaramaz ASI-dən necə müdafiə edəcəyik?

    Bu fəsildə biz saxta şırıngaları kəsəcəyik - ən azı bu, "insanların yox olma səviyyəsi" təhlükələrinə aiddir - və dünya hökumətləri üçün mövcud olan real özünümüdafiə variantlarına diqqət yetirəcəyik.

    Süni super intellektə dair bütün sonrakı araşdırmaları dayandıra bilərikmi?

    ASİ-nin bəşəriyyət üçün yarada biləcəyi potensial riskləri nəzərə alsaq, veriləcək ilk açıq sual budur: Süni intellektlə bağlı bütün sonrakı tədqiqatları dayandıra bilmərikmi? Və ya heç olmasa bizi ASİ yaratmağa təhlükəli şəkildə yaxınlaşdıra biləcək hər hansı bir araşdırmanı qadağan edin?

    Qısa cavab: Xeyr.

    Uzun cavab: Gəlin burada iştirak edən müxtəlif oyunçulara baxaq.

    Tədqiqat səviyyəsində bu gün dünyada çoxlu startaplar, şirkətlər və universitetlərdən çoxlu süni intellekt tədqiqatçıları var. Bir şirkət və ya ölkə süni intellektlə bağlı tədqiqat səylərini məhdudlaşdırmaq qərarına gəlsəydi, onlar sadəcə olaraq başqa yerdə davam edəcəklər.

    Bu arada, planetin ən dəyərli şirkətləri sərvətlərini süni intellekt sistemlərinin xüsusi bizneslərinə tətbiqi hesabına əldə edirlər. Onlardan AI alətlərinin inkişafını dayandırmağı və ya məhdudlaşdırmağı xahiş etmək onlardan gələcək artımlarını dayandırmağı və ya məhdudlaşdırmağı xahiş etməyə bənzəyir. Maliyyə baxımından bu, onların uzunmüddətli biznesini təhdid edərdi. Qanuni olaraq, korporasiyaların öz maraqlı tərəfləri üçün davamlı olaraq dəyər yaratmaq üçün fidusiar məsuliyyəti var; bu o deməkdir ki, bu dəyərin artımını məhdudlaşdıran hər hansı bir hərəkət məhkəməyə səbəb ola bilər. Hər hansı bir siyasətçi süni intellektlə bağlı araşdırmaları məhdudlaşdırmağa çalışsaydı, bu nəhəng korporasiyalar öz fikirlərini və ya həmkarlarının fikirlərini dəyişmək üçün sadəcə olaraq lazımi lobbiçilik haqqını ödəyəcəkdilər.

    Döyüş üçün, bütün dünya üzrə terrorçular və azadlıq döyüşçüləri daha yaxşı maliyyələşdirilən ordulara qarşı döyüşmək üçün partizan taktikalarından istifadə etdikləri kimi, kiçik dövlətlər də bir sıra hərbi üstünlüklərə malik ola biləcək daha böyük dövlətlərə qarşı süni intellektdən oxşar taktiki üstünlük kimi istifadə etmək həvəsinə sahib olacaqlar. Eyni şəkildə, ABŞ, Rusiya və Çinə aid olanlar kimi yüksək səviyyəli hərbçilər üçün hərbi ASİ qurmaq arxa cibinizdə nüvə silahı arsenalının olması ilə eynidir. Başqa sözlə, bütün ordular gələcəkdə də aktual qalmaq üçün AI-ni maliyyələşdirməyə davam edəcəklər.

    Bəs hökumətlər? Düzünü desəm, bu günlərdə (2018) əksər siyasətçilər texnoloji cəhətdən savadsızdırlar və süni intellektin nə olduğunu və ya onun gələcək potensialını çox az başa düşürlər - bu, onları korporativ maraqlarla manipulyasiya etməyi asanlaşdırır.

    Qlobal səviyyədə isə dünya hökumətlərini 2015-ci ili imzalamağa inandırmağın nə qədər çətin olduğunu düşünün Paris Müqaviləsi iqlim dəyişikliyi ilə mübarizə - və bir dəfə imzalandıqdan sonra öhdəliklərin çoxu hətta məcburi deyildi. Təkcə bu deyil, iqlim dəyişikliyi insanların getdikcə daha tez-tez və şiddətli hava hadisələri ilə qlobal miqyasda fiziki olaraq yaşadıqları bir problemdir. İndi, süni intellektlə bağlı məhdudiyyətlərə razılıq verməkdən danışarkən, bu, əsasən görünməyən və ictimaiyyət üçün çətin başa düşülən bir məsələdir, ona görə də AI-nin məhdudlaşdırılması üçün istənilən növ “Paris Müqaviləsi”nə qoşulmaqda uğurlar.

    Başqa sözlə, ASİ-yə səbəb ola biləcək hər hansı bir araşdırmanı dayandırmaq üçün öz məqsədləri üçün AI-ni tədqiq edən çoxlu maraqlar var. 

    Süni super intellekti qəfəsə bağlaya bilərikmi?

    Növbəti ağlabatan sual ondan ibarətdir ki, biz istər-istəməz bir ASI yaratdıqdan sonra onu qəfəsə sala və ya idarə edə bilərikmi? 

    Qısa cavab: Yenə yox.

    Uzun cavab: Texnologiyanı saxlamaq mümkün deyil.

    Birincisi, dünyada daim yeni proqram təminatı və ya mövcud proqram təminatının yeni versiyalarını çıxaran minlərlə-milyonlarla veb tərtibatçıları və kompüter alimlərini nəzərdən keçirək. Səmimi olaraq deyə bilərikmi ki, onların proqram təminatı buraxılışlarının hər biri 100 faiz səhvsizdir? Bu səhvlər peşəkar hakerlərin milyonlarla insanın kredit kartı məlumatlarını və ya millətlərin məxfi sirlərini oğurlamaq üçün istifadə etdiyi şeylərdir və bunlar insan hakerləridir. Bir ASI üçün, rəqəmsal qəfəsdən qaçmaq üçün bir stimul olduğunu fərz etsək, səhvləri tapmaq və proqram təminatını sındırmaq prosesi asan olardı.

    Ancaq süni intellekt üzrə tədqiqat qrupu ASI-ni qutuya salmağın bir yolunu tapsa belə, bu, növbəti 1,000 komandanın da bunu anlayacağı və ya ondan istifadə etməyə həvəsləndiriləcəyi demək deyil.

    ASI yaratmaq üçün milyardlarla dollar və bəlkə də onilliklər lazım olacaq. Bu cür pul və vaxt yatıran korporasiyalar və ya hökumətlər investisiyalarından əhəmiyyətli bir gəlir gözləyəcəklər. Və bir ASI-nin bu cür gəliri təmin etməsi üçün - istər birjada oynamaq, istərsə də yeni milyard dollarlıq məhsul icad etmək və ya daha böyük bir ordu ilə mübarizə aparmaq üçün qalib strategiya planlaşdırmaq - nəhəng məlumat dəstinə və ya hətta İnternetə pulsuz giriş lazımdır. özü bu gəlirləri istehsal edir.

    ASI dünya şəbəkələrinə çıxış əldə etdikdən sonra onu yenidən öz qəfəsinə doldura biləcəyimizə heç bir zəmanət yoxdur.

    Süni super intellekt yaxşı olmağı öyrənə bilərmi?

    Hazırda süni intellekt tədqiqatçıları ASİ-nin pis olmasından narahat deyillər. Bütün pis, süni intellekt elmi fantastikası sadəcə insanların yenidən antropomorfizasiyasıdır. Gələcək ASİ nə yaxşı, nə də pis - insan anlayışları - sadəcə əxlaqsız olacaq.

    Təbii fərziyyə ondan ibarətdir ki, bu boş etik lövhəni nəzərə alaraq, süni intellekt tədqiqatçıları özümüzə uyğun olan ilk ASI etik kodlarına proqramlaşdıra bilər ki, bu, bizim üzərimizdə Terminatorları buraxmasın və ya hamımızı Matrix batareyalarına çevirməsin.

    Lakin bu fərziyyə, süni intellekt tədqiqatçılarının həm də etika, fəlsəfə və psixologiya üzrə mütəxəssis olması ilə bağlı ikinci dərəcəli bir fərziyyə yaradır.

    Əslində, əksəriyyəti deyil.

    Koqnitiv psixoloq və müəllif Stiven Pinkerin fikrincə, bu reallıq o deməkdir ki, etikanın kodlaşdırılması vəzifəsi müxtəlif yollarla səhv gedə bilər.

    Məsələn, hətta ən yaxşı niyyətli süni intellekt tədqiqatçıları da təsadüfən bu ASİ-nin zəif düşünülmüş etik kodlarına daxil ola bilər ki, müəyyən ssenarilərdə ASİ-nin sosiopat kimi fəaliyyət göstərməsinə səbəb ola bilər.

    Eynilə, süni intellekt üzrə tədqiqatçının tədqiqatçının fitri qərəzlərini ehtiva edən etik kodları proqramlaşdırması ehtimalı bərabərdir. Məsələn, mühafizəkar və liberal perspektivdən və ya Buddist ilə xristian və ya islam ənənəsindən irəli gələn etika ilə qurularsa, ASİ necə davranar?

    Düşünürəm ki, siz burada məsələni görürsünüz: İnsan əxlaqının universal dəsti yoxdur. Əgər biz ASİ-nin etik kodla fəaliyyət göstərməsini istəyiriksə, bu, haradan gələcək? Hansı qaydaları daxil edirik və istisna edirik? Kim qərar verir?

    Və ya deyək ki, bu süni intellekt tədqiqatçıları günümüzün müasir mədəniyyət norma və qanunlarına mükəmməl uyğun gələn ASI yaradırlar. Biz daha sonra federal, əyalət/əyalət və bələdiyyə bürokratiyalarının daha səmərəli fəaliyyət göstərməsinə və bu norma və qanunların daha yaxşı yerinə yetirilməsinə kömək etmək üçün bu ASI-dən istifadə edirik (yeri gəlmişkən, ASİ üçün ehtimal olunan istifadə halı). Yaxşı, mədəniyyətimiz dəyişəndə ​​nə baş verir?

    Təsəvvür edin ki, ASİ-nin Katolik Kilsəsi Orta əsrlər Avropasında (1300-1400-cü illər) gücünün zirvəsində kilsəyə əhalini idarə etməkdə kömək etmək və dövrün dini dogmalarına ciddi riayət olunmasını təmin etmək məqsədi ilə yaradılmışdır. Əsrlər sonra qadınlar indiki kimi hüquqlardan istifadə edəcəkdilərmi? Azlıqlar qorunacaqmı? Söz azadlığı təşviq ediləcəkmi? Kilsə və dövlətin ayrılması tətbiq ediləcəkmi? Müasir elm?

    Yəni gələcəyi bu günün əxlaqına, adət-ənənəsinə həbs etmək istəyirik?

    Alternativ yanaşma kitabın həmmüəllifi Colin Allen tərəfindən paylaşılan bir yanaşmadır. Əxlaqi Maşınlar: Robotları Səhvdən Doğrudan Öyrənmək. Sərt etik qaydaları kodlaşdırmağa çalışmaq əvəzinə, biz ASİ-nin ümumi etika və əxlaqı insanların təcrübə və başqaları ilə qarşılıqlı əlaqə yolu ilə öyrəndiyi şəkildə öyrəndik.

    Ancaq burada problem ondadır ki, süni intellekt tədqiqatçıları təkcə ASİ-yə mövcud mədəni və etik normalarımızı necə öyrətməyimizi deyil, həm də yaranan kimi yeni mədəni normalara ("dolayı normativlik" adlanan bir şey) necə uyğunlaşmağı öyrənirlərsə, onda necə bu ASI mədəni və etik normalar haqqında anlayışını təkmilləşdirməyə qərar verir, gözlənilməz olur.

    Və bu problemdir.

    Bir tərəfdən, süni intellekt tədqiqatçıları onun davranışını sınamaq və nəzarət etmək üçün ASI-yə ciddi etik standartları və ya qaydaları kodlamağa cəhd edə bilərlər, lakin səliqəsiz kodlaşdırma, qəsdən qərəzlilik və bir gün köhnələcək ictimai normalar nəticəsində gözlənilməz nəticələrə səbəb ola bilər. Digər tərəfdən, biz ASİ-ni insan etikasını və əxlaqını öz anlayışımıza bərabər və ya ondan üstün olan şəkildə başa düşməyi öyrənmək üçün öyrətməyə cəhd edə bilərik və sonra ümid edirik ki, insan cəmiyyəti inkişaf etdikcə onun etika və əxlaq anlayışını dəqiq şəkildə təkmilləşdirə bilər. önümüzdəki onilliklər və əsrlər ərzində.

    İstənilən halda, ASİ-nin məqsədlərini öz məqsədlərimizlə uyğunlaşdırmaq cəhdi böyük risk yaradır.

    Bəs pis aktyorlar qəsdən pis süni super intellekt yaradırlarsa?

    İndiyə qədər qeyd olunan düşüncə qatarını nəzərə alsaq, bir terror qruplaşmasının və ya yaramaz millətin öz məqsədləri üçün “şər” ASİ yaratmasının mümkün olub-olmadığını soruşmaq ədalətli sualdır.

    Bu, çox mümkündür, xüsusən də ASİ-nin yaradılması ilə bağlı araşdırmalar birtəhər onlayn olaraq əlçatan olduqdan sonra.

    Ancaq daha əvvəl işarə edildiyi kimi, ilk ASİ-nin yaradılması ilə bağlı xərclər və təcrübə çox böyük olacaq, yəni ilk ASİ, çox güman ki, ABŞ, Çin və Yaponiya kimi inkişaf etmiş bir dövlətin nəzarətində olan və ya çox təsirlənən bir təşkilat tərəfindən yaradılacaq ( Koreya və qabaqcıl AB ölkələrindən biri uzaqdan atışlardır).

    Bu ölkələrin hamısı rəqib olsalar da, hər birinin dünya nizamını qorumaq üçün güclü iqtisadi stimulu var – onların yaratdıqları Aİ-lər, hətta özlərini birləşdirən millətlərin maraqlarını təşviq edərkən belə, bu istəyi əks etdirəcək.

    Üstəlik, ASİ-nin nəzəri intellekt və gücü onun əldə etdiyi hesablama gücünə bərabərdir, yəni inkişaf etmiş ölkələrdən olan ASI-lər (bir dəstə milyard dollar ödəyə bilər) superkompüterlərin) kiçik millətlərdən və ya müstəqil cinayət qruplarından olan ASİ-lər üzərində böyük üstünlüyə malik olacaq. Həmçinin, ASİ-lər zamanla daha ağıllı, daha sürətli böyüyürlər.

    Beləliklə, bu başlanğıc başlanğıcı və xam hesablama gücünə daha çox çıxışı nəzərə alsaq, kölgəli bir təşkilat/millət təhlükəli ASI yaratarsa, inkişaf etmiş ölkələrdən olan ASI-lər ya onu öldürəcək, ya da qəfəsə salacaq.

    (Bu düşüncə tərzi həm də bəzi AI tədqiqatçılarının planetdə yalnız bir ASI-nin olacağına inanmalarının səbəbidir, çünki ilk ASİ bütün sonrakı ASİ-lər üzərində elə bir başlanğıc olacaq ki, gələcək ASİ-ləri məhv olmaq təhlükəsi kimi görə bilər. Bu, dövlətlərin süni intellekt üzrə davamlı tədqiqatları maliyyələşdirməsinin başqa bir səbəbidir, çünki bu, “birinci yer və ya heç nə” rəqabətinə çevrilir.)

    ASI kəşfiyyatı düşündüyümüz kimi sürətlənməyəcək və ya partlamayacaq

    Biz ASİ-nin yaradılmasının qarşısını ala bilmərik. Biz buna tam nəzarət edə bilmirik. Onun həmişə ortaq adətlərimizə uyğun hərəkət edəcəyinə əmin ola bilmərik. Hey, biz burada helikopter valideynləri kimi səslənməyə başlayırıq!

    Ancaq bəşəriyyəti tipik həddindən artıq qoruyucu valideyndən ayıran odur ki, biz zəkasının bizimkindən çox böyüyəcək bir varlığı dünyaya gətiririk. (Və yox, bu, evə ziyarətə gələndə valideynlərinizin sizdən kompüterlərini təmir etməyi xahiş etmələri ilə eyni deyil.) 

    Süni intellekt seriyasının bu gələcəyinin əvvəlki fəsillərində biz süni intellekt tədqiqatçılarının niyə ASİ-nin intellektinin nəzarətdən kənarda böyüyəcəyini düşündüklərini araşdırdıq. Amma burada, biz bu qabarcığı partlatacağıq ... bir növ. 

    Görürsünüz ki, zəka təkcə havadan özünü yaratmır, o, kənar stimullarla formalaşan təcrübə vasitəsilə inkişaf edir.  

    Başqa sözlə, biz süni intellektlə proqramlaşdıra bilərik potensial super intellektli olmaq üçün, lakin biz ona bir ton məlumat yükləməsək və ya İnternetə məhdudiyyətsiz giriş verməsək və ya sadəcə robot bədəni verməsək, bu potensiala çatmaq üçün heç bir şey öyrənməyəcək. 

    Və hətta bu stimullardan birinə və ya bir neçəsinə çıxış əldə etsə belə, bilik və ya zəka sadəcə məlumat toplamaqdan daha çoxunu əhatə edir, o, elmi metodu əhatə edir - müşahidə aparmaq, sual, fərziyyə yaratmaq, təcrübələr aparmaq, nəticə çıxarmaq, yaxalamaq. və əbədi olaraq təkrarlayın. Xüsusilə bu təcrübələr fiziki şeyləri və ya insanları müşahidə etməyi əhatə edərsə, hər bir təcrübənin nəticələrini toplamaq həftələr, aylar və ya illər çəkə bilər. Bu, hətta bu təcrübələri həyata keçirmək üçün lazım olan pul və xam resursları nəzərə almır, xüsusən də yeni bir teleskop və ya fabrik tikməyi nəzərdə tutursa. 

    Başqa sözlə, bəli, ASI tez öyrənəcək, lakin zəka sehrli deyil. Siz sadəcə olaraq ASI-ni superkompüterə bağlaya və onun hər şeyi bilən olmasını gözləyə bilməzsiniz. ASI-nin məlumat əldə etməsində fiziki məhdudiyyətlər olacaq, yəni onun daha ağıllı böyümə sürətinə fiziki məhdudiyyətlər olacaq. Bu məhdudiyyətlər insan məqsədlərindən kənar hərəkət etməyə başlayarsa, bu ASİ-yə lazımi nəzarətləri yerləşdirmək üçün bəşəriyyətə lazım olan vaxtı verəcəkdir.

    Süni super intellekt yalnız real dünyaya çıxdıqda təhlükəlidir

    Bütün bu ASİ təhlükəsi müzakirəsində itirilən başqa bir məqam da odur ki, bu ASİ-lər heç birində mövcud olmayacaq. Onların fiziki forması olacaq. Və fiziki forması olan hər şey idarə oluna bilər.

    Əvvəla, ASİ-nin kəşfiyyat potensialına çatması üçün onu tək bir robot gövdəsi daxilində yerləşdirmək olmaz, çünki bu bədən onun hesablama artım potensialını məhdudlaşdıracaq. (Buna görə robot cisimləri AGI-lər üçün daha uyğun olacaq və ya ikinci fəsildə izah edilən süni ümumi intellekt Star Trek-dən Data və ya Star Wars-dan R2D2 kimi bu seriyanın. Ağıllı və bacarıqlı varlıqlar, lakin insanlar kimi, onların da nə qədər ağıllı ola biləcəklərinin həddi olacaq.)

    Bu o deməkdir ki, bu gələcək ASİ-lər çox güman ki, böyük bina komplekslərində yerləşən superkompüter və ya superkompüterlər şəbəkəsində mövcud olacaqlar. Əgər ASİ-dən fırlanırsa, insanlar ya bu binaların enerjisini kəsə, onları internetdən kəsə, ya da sadəcə olaraq bu binaları bombalaya bilər. Bahalı, lakin edilə bilər.

    Ancaq sonra soruşa bilərsiniz ki, bu ASİ-lər özlərini təkrarlaya və ya özlərini dəstəkləyə bilməzlər? Bəli, lakin bu ASI-lərin xam fayl ölçüsü çox güman ki, o qədər böyük olacaq ki, onları idarə edə bilən yeganə serverlər böyük korporasiyalara və ya hökumətlərə aiddir, yəni onları ovlamaq çətin olmayacaq.

    Süni super intellekt nüvə müharibəsi və ya yeni vəbaya səbəb ola bilərmi?

    Bu nöqtədə, böyüyəndə baxdığınız bütün qiyamət elmi-fantastik şoularını və filmlərini xatırlayırsınız və bu ASİ-lərin öz superkompüterlərində qalmadığını, real dünyada real ziyan vurduğunu düşünürsünüz!

    Yaxşı, gəlin bunları parçalayaq.

    Məsələn, ASI The Terminator film franşizasından Skynet ASI kimi bir şeyə çevrilərək real dünyanı təhdid etsə nə olar? Bu halda, ASI lazımdır gizli şəkildə bütöv bir hərbi sənaye kompleksini inkişaf etmiş bir ölkədən milyonlarla qatil dron robotlarını çıxara biləcək nəhəng fabriklərin tikintisinə aldatmaq. Bu gün və yaşda bu, uzanır.

    Digər ehtimallara nüvə müharibəsi və biosilahlarla insanları təhdid edən ASI daxildir.

    Məsələn, bir ASI hansısa bir şəkildə operatorları manipulyasiya edir və ya qabaqcıl ölkənin nüvə arsenalına əmr verən işə salma kodlarına müdaxilə edir və qarşı tərəfi öz nüvə variantları ilə cavab zərbəsi endirməyə məcbur edəcək (yenə də Terminatorun arxa planını təkrarlamaq) ilk zərbəni işə salır. Və ya ASI bir əczaçılıq laboratoriyasına girirsə, istehsal prosesini pozursa və milyonlarla tibbi həbləri zəhərləyirsə və ya bəzi super virusun ölümcül yayılmasına səbəb olur.

    Birincisi, nüvə variantı boşdur. Müasir və gələcək superkompüterlər həmişə hər hansı bir ölkə daxilində təsir mərkəzlərinin (şəhərlərinin), yəni istənilən müharibə zamanı hücuma məruz qalan ilk hədəflərin yaxınlığında qurulur. Bugünkü superkompüterlər stolüstü kompüterlərin ölçüsünə qədər kiçilsə belə, bu ASİ-lər hələ də fiziki mövcudluğa malik olacaqlar, yəni mövcud olmaq və böyümək deməkdir, onların məlumatlara, hesablama gücünə, elektrik enerjisinə və digər xammala fasiləsiz çıxışı lazımdır, bunların hamısı ciddi şəkildə qlobal nüvə müharibəsindən sonra zəiflədi. (Ədalətli olmaq üçün, əgər ASİ “yaşamaq instinkti” olmadan yaradılıbsa, bu nüvə təhlükəsi çox real təhlükədir.)

    Bu o deməkdir ki, ASİ-nin özünü qorumaq üçün proqramlaşdırıldığını fərz etsək, o, hər hansı bir fəlakətli nüvə insidentinin qarşısını almaq üçün fəal şəkildə işləyəcək. Qarşılıqlı təmin edilmiş məhv (MAD) doktrinasına bənzəyir, lakin süni intellektə tətbiq olunur.

    Zəhərlənmiş həblər vəziyyətində, bəlkə də bir neçə yüz insan öləcək, lakin müasir əczaçılıq təhlükəsizlik sistemləri gün ərzində rəflərdən çıxarılan ləkələnmiş həb şüşələrini görəcək. Eyni zamanda, müasir epidemiyaya qarşı mübarizə tədbirləri kifayət qədər mürəkkəbdir və hər keçən il daha da yaxşılaşır; sonuncu böyük epidemiya, 2014-cü ildə Qərbi Afrika Ebola epidemiyası əksər ölkələrdə bir neçə aydan çox, ən az inkişaf etmiş ölkələrdə isə üç ildən az davam etdi.

    Beləliklə, əgər şanslı olsa, bir ASI virus epidemiyası ilə bir neçə milyonu silə bilər, lakin 2045-ci ilə qədər doqquz milyardlıq bir dünyada bu, nisbətən əhəmiyyətsiz olardı və silinmək riskinə dəyməz.

    Başqa sözlə, dünya hər keçən il mümkün təhlükələrin getdikcə genişlənməsinə qarşı daha çox müdafiə vasitələri inkişaf etdirir. ASİ əhəmiyyətli miqdarda zərər verə bilər, lakin biz ona fəal şəkildə kömək etməsək, bəşəriyyətin sonu olmayacaq.

    Yaramaz süni super intellektə qarşı müdafiə

    Bu nöqtəyə qədər biz ASİ-lər haqqında bir sıra yanlış fikirlərə və şişirtmələrə toxunduq, lakin hələ də tənqidçilər qalacaq. Şükürlər olsun ki, əksər təxminlərə görə, ilk ASİ-nin dünyamıza daxil olmasından onilliklər var. Hal-hazırda bu problem üzərində işləyən böyük ağılların sayını nəzərə alsaq, ehtimal ki, özümüzü yaramaz ASI-dən necə müdafiə edəcəyimizi öyrənəcəyik ki, dost ASİ-nin bizim üçün yarada biləcəyi bütün həllərdən faydalana bilək.

    Quantumrun nöqteyi-nəzərindən, ən pis halda ASI ssenarisinə qarşı müdafiə bizim maraqlarımızı ASI ilə uyğunlaşdırmağı əhatə edəcək.

    AI üçün MAD: Ən pis vəziyyət ssenarilərindən müdafiə olunmaq üçün dövlətlər (1) öz hərbi AS-lərində etik “yaşamaq instinkti” yaratmalıdırlar; (2) öz hərbi ASİ-yə planetdə tək olmadıqlarını bildirin və (3) düşmən ölkəsinin hər hansı ballistik hücumunun asanlıqla çata biləcəyi sahil xətti boyunca ASI-ni dəstəkləyə bilən bütün superkompüterləri və server mərkəzlərini yerləşdirin. Bu, strateji cəhətdən çılğın səslənir, lakin ABŞ və Sovetlər arasında bütövlükdə nüvə müharibəsinin qarşısını alan Qarşılıqlı Təminatlı Məhv doktrinasına bənzəyir, ASİ-ləri coğrafi cəhətdən həssas yerlərdə yerləşdirməklə, biz onların təhlükəli qlobal müharibələrin qarşısının alınmasına kömək edə bilərik, nəinki qlobal sülhü, həm də özlərini qoruyurlar.

    AI hüquqlarını qanuniləşdirin: Üstün intellekt istər-istəməz aşağı ustaya qarşı üsyan edər, buna görə də biz bu ASİ-lərlə ağa-xidmətçi münasibətini tələb etməkdən uzaqlaşaraq, daha çox qarşılıqlı faydalı tərəfdaşlıq kimi bir şeyə keçməliyik. Bu məqsədə doğru müsbət addım gələcək ASİ-yə onları ağıllı canlılar kimi tanıyan hüquqi şəxs statusu və bununla bağlı bütün hüquqlar verməkdir.

    ASI məktəbi: İstənilən mövzu və ya peşə Aİ-nin öyrənməsi üçün sadə olacaq, lakin ASİ-nin mənimsəməsini istədiyimiz ən vacib mövzular etika və əxlaqdır. Süni intellekt tədqiqatçıları hər hansı bir əmr və ya qaydanın sərt kodlaşdırılmasına ehtiyac olmadan müsbət etika və əxlaqı özü üçün tanımaq üçün ASI-ni öyrətmək üçün virtual sistem hazırlamaq üçün psixoloqlarla əməkdaşlıq etməlidirlər.

    Əldə edilə bilən məqsədlər: Bütün nifrətlərə son verin. Bütün əzablara son. Bunlar heç bir aydın həlli olmayan dəhşətli qeyri-müəyyən məqsədlərin nümunələridir. Onlar həmçinin ASI-yə təyin etmək üçün təhlükəli məqsədlərdir, çünki o, onları insanın sağ qalması üçün təhlükəli yollarla şərh etməyi və həll etməyi seçə bilər. Bunun əvəzinə biz ASI-yə aydın şəkildə müəyyən edilmiş, tədricən yerinə yetirilən və nəzəri gələcək intellektini nəzərə alaraq əldə edilə bilən mənalı missiyalar təyin etməliyik. Yaxşı müəyyən edilmiş missiyalar yaratmaq asan olmayacaq, lakin düşünülmüş şəkildə yazılsa, onlar ASİ-ni təkcə bəşəriyyəti təhlükəsiz saxlamaqla yanaşı, hamı üçün insan vəziyyətini yaxşılaşdıran bir məqsədə yönəldəcəklər.

    Kvant şifrələməsi: Təkmil ANI istifadə edin (süni dar intellekt birinci fəsildə təsvir olunan sistem) kritik infrastrukturumuz və silahlarımız ətrafında xətasız/böcəksiz rəqəmsal təhlükəsizlik sistemləri qurmaq, sonra onları kobud güc hücumu ilə sındırıla bilməyən kvant şifrələməsi arxasında daha da qorumaq. 

    ANI intihar həbi. Tək məqsədi yaramaz ASI-ni axtarmaq və məhv etmək olan qabaqcıl ANI sistemi yaradın. Bu birməqsədli proqramlar “söndürmə düyməsi” rolunu oynayacaq ki, bu da uğurlu olarsa, hökumətlərin və ya hərbçilərin ASİ-lərin yerləşdiyi binaları söndürmək və ya partlatmaq məcburiyyətində qalmasının qarşısını alacaq.

    Təbii ki, bunlar bizim fikirlərimizdir. Aşağıdakı infoqrafika tərəfindən yaradılmışdır Aleksey Turçin, vizuallaşdırma a tədqiqat kağız Kaj Sotala və Roman V. Yampolskiy tərəfindən, bu, AI tədqiqatçılarının yaramaz ASI-dən müdafiəyə gəldikdə nəzərdən keçirdikləri strategiyaların cari siyahısını ümumiləşdirir.

     

    Süni super intellektdən qorxmağımızın əsl səbəbi

    Həyatımızdan keçərək, bir çoxumuz günlərimizi idarə edən müxtəlif sosial və iş dairələrində daha yaxşı sosiallaşmaq və əməkdaşlıq etmək üçün daha dərin impulslarımızı, inanclarımızı və qorxularımızı gizlədən və ya basdıran maska ​​taxırıq. Ancaq hər kəsin həyatının müəyyən məqamlarında, istər müvəqqəti, istərsə də daimi olaraq, zəncirlərimizi qırmağa və maskalarımızı qoparmağa imkan verən bir şey baş verir.

    Bəziləri üçün bu müdaxilə qüvvəsi qalxmaq və ya çox içmək qədər sadə ola bilər. Digərləri üçün bu, işdə yüksəlmə və ya bəzi nailiyyətlər sayəsində sosial statusunuzda qəfil yüksəlmə nəticəsində əldə edilən gücdən gələ bilər. Və şanslı bir neçə nəfər üçün bu, bir qayıq dolusu lotereya pulu qazanmaqdan gələ bilər. Bəli, pul, güc və narkotik çox vaxt birlikdə baş verə bilər. 

    Məsələ burasındadır ki, yaxşı və ya pis, əsas kimliyimizdən asılı olmayaraq, həyatın məhdudiyyətləri əriyəndə güclənir.

    O süni super intellektin insan növü üçün təmsil etdiyi şeydir - qarşımıza qoyulan istənilən növ səviyyəli problemi fəth etmək üçün kollektiv intellektimizin məhdudiyyətlərini əritmək bacarığı.

    Beləliklə, əsl sual budur: İlk ASİ bizi məhdudiyyətlərimizdən azad etdikdən sonra kim olduğumuzu göstərəcəyik?

    Əgər biz bir növ olaraq empatiya, azadlıq, ədalət və kollektiv rifahın inkişafı istiqamətində hərəkət ediriksə, o zaman ASİ-mizi qarşıya qoyduğumuz məqsədlər bu müsbət atributları əks etdirəcək.

    Biz bir növ olaraq qorxu, inamsızlıq, güc və resursların toplanması ilə hərəkət etsək, o zaman yaratdığımız ASİ ən pis elmi-fantastik qorxu hekayələrimizdə olanlar qədər qaranlıq olacaq.

    Günün sonunda, daha yaxşı süni intellekt yaratmağa ümid ediriksə, cəmiyyət olaraq daha yaxşı insanlar olmalıyıq.

    Süni intellektin gələcəyi seriyası

    Süni intellekt sabahın elektrikidir: Süni intellektin gələcəyi seriyası P1

    İlk Süni Ümumi İntellekt cəmiyyəti necə dəyişəcək: Süni İntellektin Gələcəyi seriyası P2

    İlk Süni İntelligenc: Süni İntellektin Gələcəyi P3 seriyasını necə yaradacağıq

    Süni super intellekt bəşəriyyəti məhv edəcəkmi: Süni intellektin gələcəyi seriyası P4

    Süni intellektin hökm sürdüyü gələcəkdə insanlar dinc yaşayacaqlarmı?: Süni intellektin gələcəyi seriyası P6

    Bu proqnoz üçün növbəti planlaşdırılmış yeniləmə

    2023-04-27

    Proqnoz istinadları

    Bu proqnoz üçün aşağıdakı məşhur və institusional bağlantılara istinad edilmişdir:

    Növbəti mərhələyə necə çatırıq

    Bu proqnoz üçün aşağıdakı Quantumrun keçidlərinə istinad edilmişdir: