Kiel ni kreos la unuan Artefaritan Superinteligentecon: Estonteco de artefarita inteligenteco P3

BILDA KREDITO: Quantumrun

Kiel ni kreos la unuan Artefaritan Superinteligentecon: Estonteco de artefarita inteligenteco P3

    Profunde en XNUMX-a Mondmiliton, naziaj trupoj vaporis tra granda parto de Eŭropo. Ili havis progresintajn armilojn, efikan milittempan industrion, fanatike movitan infanterion, sed ĉefe, ili havis maŝinon nomitan Enigmo. Tiu aparato permesis al naziaj fortoj sekure kunlabori super longdistancoj sendante mors-kodigitajn mesaĝojn unu al la alia super normaj komunikadlinioj; ĝi estis ĉifrmaŝino nepenetrebla por homaj kodrompintoj. 

    Feliĉe, la aliancanoj trovis solvon. Ili ne plu bezonis homan menson por rompi Enigmon. Anstataŭe, per invento de la forpasinta Alan Turing, la aliancanoj konstruis revolucian novan ilon nomitan la Brita Bombo, elektromekanika aparato kiu finfine deĉifris la sekretan kodon de la nazioj, kaj finfine helpis ilin venki en la milito.

    Ĉi tiu Bombo metis la bazon por kio iĝis la moderna komputilo.

    Laborante kune kun Turing dum la Bombe evoluprojekto estis IJ Good, brita matematikisto kaj kriptologo. Li vidis frue en la fina ludo, ke ĉi tiu nova aparato iam povus okazigi. En 1965-papero, li skribis:

    “Utreinteligenta maŝino estu difinita kiel maŝino, kiu povas multe superi ĉiujn intelektajn agadojn de iu ajn homo, kiom ajn saĝa. Ĉar la dezajno de maŝinoj estas unu el ĉi tiuj intelektaj agadoj, ultrainteligenta maŝino povus desegni eĉ pli bonajn maŝinojn; tiam nediskuteble estus "inteligenta eksplodo", kaj la inteligenteco de la homo restus malproksime... Tiel la unua ultrainteligenta maŝino estas la lasta invento, kiun la homo devas iam fari, kondiĉe ke la maŝino estas sufiĉe obeema por diri al ni kiel por teni ĝin sub kontrolo."

    Kreante la unuan artefaritan superinteligentecon

    Ĝis nun en nia serio Estonteco de Artefarita Inteligenteco, ni difinis la tri larĝajn kategoriojn de artefarita inteligenteco (AI), de artefarita mallarĝa inteligenteco (ANI) al artefarita ĝenerala inteligenteco (AGI), sed en ĉi tiu serio-ĉapitro, ni koncentriĝos pri la lasta kategorio—tiu, kiu generas aŭ eksciton aŭ panikajn atakojn inter AI-esploristoj—artefarita superinteligenteco (ASI).

    Por envolvi vian kapon ĉirkaŭ kio estas ASI, vi devos pensi reen al la lasta ĉapitro kie ni skizis kiel AI-esploristoj kredas, ke ili kreos la unuan AGI. Esence, ĝi bezonos kombinaĵon de grandaj datumoj nutrante pli bonajn algoritmojn (tiuj kiuj specialiĝas pri mem-plibonigo kaj homsimilaj lernkapabloj) loĝigitaj en ĉiam pli potenca komputika aparataro.

    En tiu ĉapitro, ni ankaŭ skizis kiel AGI-menso (post kiam ĝi akiras ĉi tiujn mem-plibonigojn kaj lernkapablojn, kiujn ni homoj prenas por koncedite) eventuale superos la homan menson per supera pensrapideco, plifortigita memoro, senlaca agado, kaj tuja ĝisdatigo.

    Sed ĉi tie estas grave noti, ke AGI nur mem-plibonigos ĝis la limoj de la aparataro kaj datumoj al kiuj ĝi havas aliron; ĉi tiu limo povas esti granda aŭ malgranda depende de la robotkorpo, kiun ni donas al ĝi aŭ de la skalo de komputiloj, al kiuj ni permesas al ĝi aliron.

    Dume, la diferenco inter AGI kaj ASI estas, ke ĉi-lasta, teorie, neniam ekzistos en fizika formo. Ĝi funkcios tute ene de superkomputilo aŭ reto de superkomputiloj. Depende de la celoj de siaj kreintoj, ĝi ankaŭ povas akiri plenan aliron al ĉiuj datumoj stokitaj en la Interreto, same kiel ajna aparato aŭ homo kiu nutras datumojn en kaj super la Interreto. Ĉi tio signifas, ke ne estos praktika limo al kiom ĉi tiu ASI povas lerni kaj kiom ĝi povas mem-plibonigi. 

    Kaj jen la rubo. 

    Komprenante la spioneksplodon

    Ĉi tiu procezo de mem-plibonigo, kiun AI poste gajnos kiam ili iĝas AGI-oj (procezo, kiun la AI-komunumo nomas rekursiva mem-plibonigo) eble, povas stumbli pozitivan reagan buklon, kiu aspektas tiel:

    Nova AGI estas kreita, donita aliro al robotkorpo aŭ granda datumaro, kaj tiam donita la simplan taskon eduki sin, plibonigi ĝian inteligentecon. Komence, ĉi tiu AGI havos la IQ de bebo luktanta por ekpreni novajn konceptojn. Kun la tempo, ĝi lernas sufiĉe por atingi la IQ de meza plenkreskulo, sed ĝi ne ĉesas ĉi tie. Uzante ĉi tiun ĵus trovitan plenkreskan IQ, fariĝas multe pli facile kaj pli rapide daŭrigi ĉi tiun plibonigon ĝis punkto kie ĝia IQ kongruas kun tiu de la plej inteligentaj konataj homoj. Sed denove, ĝi ne ĉesas tie.

    Tiu ĉi procezo kunmetiĝas je ĉiu nova nivelo de inteligenteco, sekvante la leĝon de akcelado de rendimento ĝis ĝi atingas la nekalkuleblan nivelon de superinteligenteco - alivorte, se lasita nekontrolita kaj donita senlimajn rimedojn, AGI mem-plibonigos en ASI, intelekton kiu neniam antaŭe ekzistis en la naturo.

    Jen kion IJ Good unue identigis kiam li priskribis ĉi tiun "inteligentan eksplodon" aŭ kion modernaj AI-teoriuloj, kiel Nick Bostrom, nomas la eventon de "deteriĝo" de la AI.

    Kompreni artefaritan superinteligentecon

    Je ĉi tiu punkto, iuj el vi verŝajne pensas, ke la ŝlosila diferenco inter homa inteligenteco kaj inteligenteco de ASI estas kiom rapide ambaŭ flankoj povas pensi. Kaj kvankam estas vere, ke ĉi tiu teoria estonta ASI pensos pli rapide ol homoj, ĉi tiu kapablo jam estas sufiĉe ordinara tra la hodiaŭa komputila sektoro—nia saĝtelefono pensas (komputas) pli rapide ol homa menso, supercomputadora pensas milionojn da fojoj pli rapide ol inteligenta telefono, kaj estonta kvantuma komputilo pensos ankoraŭ pli rapide. 

    Ne, rapideco ne estas la trajto de inteligenteco, kiun ni klarigas ĉi tie. Estas la kvalito. 

    Vi povas plirapidigi la cerbon de via Samoyed aŭ Korgi ĉion, kion vi volas, sed tio ne tradukiĝas en novan komprenon kiel interpreti lingvon aŭ abstraktajn ideojn. Eĉ kun plia jardeko aŭ du, ĉi tiuj hundoj ne subite komprenos kiel fari aŭ uzi ilojn, des malpli komprenos la pli bonajn diferencojn inter kapitalisma kaj socialisma ekonomia sistemo.

    Kiam temas pri inteligenteco, homoj funkcias sur malsama ebeno ol bestoj. Same, se ASI atingus sian plenan teorian potencialon, iliaj mensoj funkcios sur nivelo multe preter la atingo de la meza moderna homo. Por iu kunteksto, ni rigardu la aplikojn de ĉi tiuj ASI.

    Kiel artefarita superinteligenteco povus funkcii kune kun la homaro?

    Supozante ke certa registaro aŭ korporacio sukcesas krei ASI, kiel ili povus uzi ĝin? Laŭ Bostrom, ekzistas tri apartaj sed rilataj formoj, kiujn ĉi tiuj ASI povus preni:

    • Orakolo Ĉi tie, ni interagus kun ASI same kiel ni jam faras kun la Guglo serĉilo; ni demandos al ĝi, sed kiom ajn kompleksa dirita demando, la ASI respondos ĝin perfekte kaj en maniero tajlorita al vi kaj la kunteksto de via demando.
    • Koboldo. En ĉi tiu kazo, ni asignos al ASI specifan taskon, kaj ĝi plenumos kiel ordonite. Esploru kuracon kontraŭ kancero. Farita. Trovu ĉiujn planedojn kaŝitajn en la restarigo de 10 jaroj da bildoj de la Kosmoteleskopo Hubble de NASA. Farita. Inĝenieru funkciantan fuzian rektoron por solvi la energibezonon de la homaro. Abracadabra.
    • suverena. Ĉi tie, la ASI ricevas nelimigitan mision kaj ricevas la liberecon efektivigi ĝin. Ŝtelu la sekretojn pri R&D de nia kompania konkuranto. "Facila." Malkovru la identecojn de ĉiuj eksterlandaj spionoj kaŝantaj en niaj limoj. "Sur ĝi." Certigu la daŭran ekonomian prosperon de Usono. "Nedankinde."

    Nun, mi scias, kion vi pensas, ĉio ĉi sonas sufiĉe malproksime. Tial gravas memori, ke ĉiu problemo/defio tie ekstere, eĉ tiuj, kiuj ĝis nun stumpigis la plej brilajn mensojn de la mondo, ili ĉiuj estas solveblaj. Sed la malfacileco de problemo estas mezurita per la intelekto pritraktanta ĝin.

    Alivorte, ju pli granda la menso aplikita al defio, des pli facile fariĝas trovi solvon al koncerna defio. Ajna defio. Estas kiel plenkreskulo rigardanta infaneton lukti por kompreni kial li ne povas enmeti kvadratan blokon en rondan aperturon—por la plenkreskulo, montri al la bebo ke la bloko devus trapasi la kvadratan aperturon estus infanludo.

    Same, se ĉi tiu estonta ASI atingus sian plenan potencialon, ĉi tiu menso fariĝus la plej potenca intelekto en la konata universo - sufiĉe potenca por solvi ajnan defion, kiom ajn kompleksa. 

    Tial multaj AI-esploristoj nomas la ASI la lasta invento kiun viro iam devos fari. Se konvinkite labori kune kun la homaro, ĝi povas helpi nin solvi ĉiujn plej urĝajn problemojn de la mondo. Ni eĉ povas peti ĝin forigi ĉian malsanon kaj fini maljuniĝon kiel ni konas ĝin. La homaro povas unuafoje trompi morton konstante kaj eniri novan epokon de prospero.

    Sed ankaŭ la malo eblas. 

    Inteligenteco estas potenco. Se misadministrata aŭ instrukciita de malbonaj aktoroj, ĉi tiu ASI povus iĝi la finfina ilo de subpremo, aŭ ĝi povus tute ekstermi la homaron—pensu Skynet de la Terminatoro aŭ la Arkitekto de la Matrix filmoj.

    Verdire, neniu ekstremo estas verŝajna. La estonteco estas ĉiam multe pli senorda ol antaŭdiras utopiistoj kaj distopistoj. Tial nun kiam ni komprenas la koncepton de ASI, la resto de ĉi tiu serio esploros kiel ASI influos socion, kiel socio defendos kontraŭ fripona ASI, kaj kiel la estonteco povus aspekti se homoj kaj AI vivus apude. -flanke. Legu plu.

    Serio Estonteco de Artefarita Inteligenteco

    Artefarita Inteligenteco estas la morgaŭa elektro: Estonteco de Artefarita Inteligenteco serio P1

    Kiel la unua Artefarita Ĝenerala Inteligenteco ŝanĝos socion: Estonteco de Artefarita Inteligenteco serio P2

    Ĉu Artefarita Superinteligenteco ekstermos la homaron?: Estonteco de Artefarita Inteligenteco serio P4

    Kiel homoj defendos sin kontraŭ Artefarita Superinteligenteco: Estonteco de Artefarita Inteligenteco serio P5

    Ĉu homoj vivos pace en estonteco dominata de artefarita inteligenteco?: Estonteco de Artefarita Inteligenteco serio P6

    Venonta planita ĝisdatigo por ĉi tiu prognozo

    2023-04-27

    Prognozaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu prognozo:

    Intelligence.org
    Intelligence.org
    Intelligence.org
    Jutubo - Monda Ekonomia Forumo

    La sekvaj Quantumrun-ligiloj estis referencitaj por ĉi tiu prognozo: