Sal 'n kunsmatige superintelligensie die mensdom uitwis? Toekoms van kunsmatige intelligensie P4

BEELDKREDIET: Quantumrun

Sal 'n kunsmatige superintelligensie die mensdom uitwis? Toekoms van kunsmatige intelligensie P4

    Daar is sekere uitvindings wat nasies alles in gaan. Dit is uitvindings waar alles daarvan afhang om eerste te wees, en enigiets minder kan 'n strategiese en dodelike bedreiging vir 'n nasie se voortbestaan ​​beteken.

    Hierdie uitvindsels wat die geskiedenis bepaal, kom nie gereeld voor nie, maar wanneer dit wel gebeur, stop die wêreld en word 'n voorspelbare toekoms wasig.

    Die laaste so 'n uitvinding het tydens die ergste van die Tweede Wêreldoorlog ontstaan. Terwyl die Nazi's op alle fronte in die ou wêreld veld gewen het, in die nuwe wêreld, spesifiek binne 'n geheime weermagbasis buite Los Alamos, was die Geallieerdes hard aan die werk aan 'n wapen om alle wapens te beëindig.

    Die projek was aanvanklik klein, maar het toe gegroei om 130,000 23 mense van die VSA, die Verenigde Koninkryk en Kanada in diens te neem, insluitend baie van die wêreld se grootste denkers destyds. Kodenaam die Manhattan-projek en met 'n onbeperkte begroting - ongeveer $2018 miljard in XNUMX-dollars - het hierdie leër van menslike vernuf uiteindelik daarin geslaag om die eerste kernbom te skep. Nie lank daarna nie, het die Tweede Wêreldoorlog geëindig met twee atoomklappe.

    Hierdie kernwapens het die atoomtydperk ingelui, 'n diep nuwe bron van energie ingebring en die mensdom die vermoë gegee om homself binne minute uit te roei - iets wat ons vermy het ten spyte van die Koue Oorlog.

    Die skepping van 'n kunsmatige superintelligensie (ASI) is nog 'n geskiedenis wat uitvinding definieer wie se krag (beide positief en vernietigend) die kernbom ver oortref.

    In die laaste hoofstuk van die Future of Artificial Intelligence-reeks het ons ondersoek wat 'n ASI is en hoe navorsers beplan om eendag een te bou. In hierdie hoofstuk gaan ons kyk na watter organisasies kunsmatige intelligensie (KI) navorsing lei, wat 'n ASI sal wil hê sodra dit 'n mensagtige bewussyn verkry, en hoe dit die mensdom kan bedreig as dit wanbestuur word of as 'n mens onder die invloed van nie-so-lekker regimes nie.

    Wie werk daaraan om 'n kunsmatige superintelligensie te bou?

    Gegewe hoe belangrik die skepping van 'n ASI vir die menslike geskiedenis sal wees en hoe groot 'n voordeel dit sy skepper sal gee, behoort dit nie as 'n verrassing te wees om te hoor dat baie groepe indirek aan hierdie projek werk nie.

    (Deur indirek bedoel ons om aan KI-navorsing te werk wat uiteindelik die eerste sal skep kunsmatige algemene intelligensie (AGI), wat self sal lei tot die eerste ASI kort daarna.)

    Om mee te begin, wanneer dit by die opskrifte kom, is die duidelike leiers in gevorderde KI-navorsing die toptegnologiefirmas in die VSA en China. Op die Amerikaanse front sluit dit maatskappye soos Google, IBM en Microsoft in, en in China sluit dit maatskappye soos Tencent, Baidu en Alibaba in. Maar aangesien navorsing oor KI relatief goedkoop is in vergelyking met die ontwikkeling van iets fisies, soos 'n beter kernreaktor, is dit ook 'n veld waarin kleiner organisasies ook kan meeding, soos universiteite, beginondernemings en … skaduryke organisasies (gebruik jou Bond-skurkverbeelding vir daardie een).

    Maar agter die skerms kom die werklike druk agter KI-navorsing van regerings en hul weermagte. Die ekonomiese en militêre prys om die eerste te wees om 'n ASI te skep, is net te groot (hieronder uiteengesit) om die risiko om agter te raak. En die gevare om laaste te wees is onaanvaarbaar, ten minste vir sekere regimes.

    Gegewe hierdie faktore, die relatief lae koste om KI te ondersoek, die oneindige kommersiële toepassings van gevorderde KI, en die ekonomiese en militêre voordeel om eerste te wees om 'n ASI te skep, glo baie KI-navorsers die skepping van 'n ASI is onvermydelik.

    Wanneer sal ons 'n kunsmatige superintelligensie skep

    In ons hoofstuk oor AGI's het ons genoem hoe 'n opname van top KI-navorsers geglo het dat ons die eerste AGI optimisties teen 2022, realisties teen 2040 en pessimisties teen 2075 sou skep.

    En in ons laaste hoofstuk, het ons uiteengesit hoe die skep van 'n ASI oor die algemeen die resultaat is van die opdrag van 'n AGI om homself oneindig te verbeter en dit die hulpbronne en vryheid te gee om dit te doen.

    Om hierdie rede, terwyl 'n AGI nog 'n paar dekades kan neem om uit te vind, kan die skep van 'n ASI net 'n handjievol jare meer neem.

    Hierdie punt is soortgelyk aan die konsep van 'n 'rekenaaroorhang', voorgestel in n koerant, saamgeskryf deur vooraanstaande KI-denkers Luke Muehlhauser en Nick Bostrom. Basies, sou die skepping van 'n AGI voortgaan om agter te bly met die huidige vordering in rekenaarkapasiteit, aangedryf deur Moore se wet, dan teen die tyd dat navorsers 'n AGI uitvind, sal daar soveel goedkoop rekenaarkrag beskikbaar wees dat die AGI die kapasiteit sal hê dit moet vinnig na die vlak van ASI spring.

    Met ander woorde, wanneer jy uiteindelik die opskrifte lees wat aankondig dat een of ander tegnologiemaatskappy die eerste ware AGI uitgevind het, verwag dan die aankondiging van die eerste ASI nie lank daarna nie.

    Binne die verstand van 'n kunsmatige superintelligensie?

    Goed, so ons het vasgestel dat baie groot spelers met diep sakke KI ondersoek. En dan, nadat die eerste AGI uitgevind is, sal ons sien hoe wêreldregerings (militêre magte) kort daarna die stoot na 'n ASI groen lig om eerste te wees om die wêreldwye KI (ASI)-wapenwedloop te wen.

    Maar sodra hierdie ASI geskep is, hoe sal dit dink? Wat sal dit wil hê?

    Die vriendelike hond, die olifant wat omgee, die oulike robot—as mense het ons die gewoonte om met dinge te probeer vereenselwig deur dit te antropologiseer, dit wil sê om menslike eienskappe op dinge en diere toe te pas. Dit is hoekom die natuurlike eerste aanname wat mense het wanneer hulle aan 'n ASI dink, is dat sodra dit op een of ander manier bewussyn verkry, dit soortgelyk aan ons sal dink en optree.

    Wel, nie noodwendig nie.

    Persepsie. Vir een, wat die meeste geneig is om te vergeet, is dat persepsie relatief is. Die maniere waarop ons dink word gevorm deur ons omgewing, deur ons ervarings, en veral deur ons biologie. Eers verduidelik in hoofstuk drie van ons Toekoms van menslike evolusie reeks, kyk na die voorbeeld van ons brein:

    Dit is ons brein wat ons help om sin te maak van die wêreld om ons. En dit doen dit nie deur bo ons koppe te sweef, rond te kyk en ons met 'n Xbox-beheerder te beheer nie; dit doen dit deur in 'n boks vasgevang te word (ons noggins) en die inligting wat dit ook al van ons sensoriese organe gegee word te verwerk—ons oë, neus, ore, ens.

    Maar net soos die dowes of blindes baie kleiner lewens lei in vergelyking met werkende mense, as gevolg van die beperkings wat hul gestremdheid plaas op hoe hulle die wêreld kan sien, kan dieselfde ding gesê word vir alle mense as gevolg van die beperkings van ons basiese stel sensoriese organe.

    Dink hieraan: Ons oë neem minder as 'n tientriljoenste van alle liggolwe waar. Ons kan nie gammastrale sien nie. Ons kan nie x-strale sien nie. Ons kan nie ultraviolet lig sien nie. En moenie my begin oor infrarooi, mikrogolwe en radiogolwe nie!

    Alle grappies ter syde, stel jou voor hoe jou lewe sou wees, hoe jy die wêreld kan sien, hoe anders jou verstand kan werk as jy meer kan sien as die klein stukkie lig wat jou oë tans toelaat. Stel jou ook voor hoe jy die wêreld sal waarneem as jou reuksintuig gelyk is aan dié van ’n hond of as jou gehoorsintuig gelyk is aan dié van ’n olifant.

    As mense sien ons in wese die wêreld deur 'n loergat, en dit word weerspieël in die gedagtes wat ons ontwikkel het om sin te maak van daardie beperkte persepsie.

    Intussen sal die eerste ASI binne-in 'n superrekenaar gebore word. In plaas van organe, sluit die insette waartoe dit toegang sal in reuse datastelle in, moontlik (waarskynlik) selfs toegang tot die internet self. Navorsers kan dit toegang gee tot die kringtelevisiekameras en mikrofone van 'n hele stad, die sensoriese data van hommeltuie en satelliete, en selfs die fisiese vorm van 'n robotliggaam of liggame.

    Soos jy jou dalk kan voorstel, sal 'n gees wat binne 'n superrekenaar gebore is, met direkte toegang tot die internet, tot miljoene elektroniese oë en ore en 'n hele reeks ander gevorderde sensors nie net anders dink as ons nie, maar 'n verstand wat sin kan maak van al daardie sintuiglike insette sou ook oneindig verhewe bo ons moes wees. Dit is 'n verstand wat heeltemal vreemd sal wees aan ons eie en enige ander lewensvorm op die planeet.

    Doelwitte. Die ander ding wat mense aanneem, is dat sodra 'n ASI 'n vlak van superintelligensie bereik, dit onmiddellik die begeerte sal besef om met sy eie doelwitte en doelwitte vorendag te kom. Maar dit is ook nie noodwendig waar nie.

    Baie KI-navorsers glo dat 'n ASI se superintelligensie en sy doelwitte "ortogonaal" is, dit wil sê, ongeag hoe slim dit word, die ASI se doelwitte sal dieselfde bly. 

    So of 'n KI oorspronklik geskep is om 'n beter luier te ontwerp, opbrengste op die aandelemark te maksimeer, of strategiese maniere om 'n vyand op die slagveld te verslaan, sodra dit die vlak van ASI bereik, sal die oorspronklike doelwit nie verander nie; wat sal verander, is die ASI se doeltreffendheid om daardie doelwitte te bereik.

    Maar hierin lê die gevaar. As 'n ASI wat homself optimaliseer vir 'n spesifieke doelwit, dan moet ons seker wees dat dit optimeer na 'n doelwit wat in lyn is met die mensdom se doelwitte. Andersins kan die resultate dodelik word.

    Hou 'n kunsmatige superintelligensie 'n eksistensiële risiko vir die mensdom in?

    So wat as 'n ASI op die wêreld losgelaat word? As dit optimeer om die aandelemark te oorheers of die Amerikaanse militêre oppergesag te verseker, sal die ASI homself nie self in daardie spesifieke doelwitte hou nie?

    Moontlik.

    Tot dusver het ons bespreek hoe 'n ASI behep sal wees met die doel(te) wat dit oorspronklik toegewys is en onmenslik bevoeg is in die nastrewing van daardie doelwitte. Die vangplek is dat 'n rasionele agent sy doelwitte op die mees doeltreffende manier moontlik sal nastreef, tensy 'n rede gegee word om dit nie te doen nie.

    Byvoorbeeld, die rasionele agent sal met 'n reeks subdoelwitte vorendag kom (dws doelwitte, instrumentele doelwitte, trapklippe) wat hom sal help op pad om sy uiteindelike doel te bereik. Vir mense is ons belangrikste onderbewuste doelwit voortplanting, die deurgee van jou gene (dws indirekte onsterflikheid). Die subdoelwitte vir daardie doel kan dikwels die volgende insluit:

    • Oorleef, deur toegang tot kos en water te kry, groot en sterk te word, te leer om jouself te verdedig of in verskeie vorme van beskerming te belê, ens. 
    • Om 'n maat te lok, deur te oefen, 'n innemende persoonlikheid te ontwikkel, stylvol aan te trek, ens.
    • Om nageslag te bekostig, deur 'n opvoeding te kry, 'n hoogbetaalde werk te kry, die uitrustings van middelklaslewe te koop, ens.

    Vir die oorgrote meerderheid van ons sal ons deur al hierdie subdoelwitte, en baie ander, slaaf wees met die hoop dat ons uiteindelik hierdie uiteindelike doel van voortplanting sal bereik.

    Maar as hierdie uiteindelike doelwit, of selfs enige van die belangriker subdoelwitte, bedreig word, sou baie van ons verdedigingsaksies buite ons morele gemaksones neem—dit sluit bedrog, steel of selfs doodmaak in.

    Net so, in die diereryk, buite die grense van menslike moraliteit, sou baie diere nie twee keer dink om enigiets dood te maak wat hulself of hul nageslag bedreig nie.

    'n Toekomstige ASI sal nie anders wees nie.

    Maar in plaas van nageslag, sal die ASI fokus op die oorspronklike doel waarvoor dit geskep is, en in die nastrewing van hierdie doel, as dit 'n spesifieke groep mense vind, of selfs die hele mensdom, is dit 'n struikelblok in die nastrewing van sy doelwitte , toe ... dit sal die rasionele besluit neem.

    (Hier is waar jy enige KI-verwante, oordeelsdag-scenario kan inprop waaroor jy in jou gunsteling wetenskapfiksie-boek of -film gelees het.)

    Dit is die ergste scenario waaroor KI-navorsers regtig bekommerd is. Die ASI sal nie uit haat of boosheid optree nie, net onverskilligheid, dieselfde as hoe 'n konstruksiespan nie twee keer sal dink om 'n mierheuwel te stoot in die proses om 'n nuwe woonsteltoring te bou nie.

    Kantaantekening. Op hierdie stadium wonder sommige van julle dalk: "Kan KI-navorsers nie net die ASI se kerndoelwitte na die feit wysig as ons vind dat dit optree nie?"

    Nie regtig nie.

    Sodra 'n ASI volwasse is, kan enige poging om sy oorspronklike doelwit(te) te wysig gesien word as 'n bedreiging, en een wat uiterste optrede sal verg om homself teen te verdedig. Deur die hele menslike voortplantingsvoorbeeld van vroeër te gebruik, is dit amper asof 'n dief gedreig het om 'n baba uit die baarmoeder van 'n verwagtende ma te steel—jy kan verdomp seker wees dat ma uiterste maatreëls sal tref om haar kind te beskerm.

    Weereens, ons praat nie hier van 'n sakrekenaar nie, maar 'n 'lewende' wese, en een wat eendag baie slimmer sal word as alle mense op die planeet saam.

    Die onbekende

    Agter die fabel van Pandora's Box is 'n minder bekende waarheid wat mense dikwels vergeet: om die boks oop te maak is onvermydelik, indien nie deur jou as deur iemand anders nie. Verbode kennis is te aanloklik om vir altyd toegesluit te bly.

    Dit is hoekom dit doelloos is om 'n wêreldwye ooreenkoms te bereik om alle navorsing oor KI wat tot 'n ASI kan lei, te stop - daar is net te veel organisasies wat amptelik en in die skadu aan hierdie tegnologie werk.

    Uiteindelik het ons geen idee wat hierdie nuwe entiteit, hierdie ASI vir die samelewing, vir tegnologie, vir politiek, vrede en oorlog sal beteken nie. Ons mense is op die punt om weer vuur uit te dink en waarheen hierdie skepping ons lei, is heeltemal onbekend.

    As ons teruggaan na die eerste hoofstuk van hierdie reeks, is die een ding wat ons wel seker weet dat intelligensie krag is. Intelligensie is beheer. Mense kan terloops die wêreld se gevaarlikste diere by hul plaaslike dieretuine besoek, nie omdat ons fisies sterker as hierdie diere is nie, maar omdat ons aansienlik slimmer is.

    Gegewe die potensiële belange wat betrokke is, van 'n ASI wat sy geweldige intellek gebruik om aksies te neem wat die voortbestaan ​​van die menslike ras direk of per ongeluk kan bedreig, is ons dit aan onsself verskuldig om ten minste te probeer om veiligheidsmaatreëls te ontwerp wat mense in staat sal stel om in die bestuurder se sitplek—hierdie is die onderwerp van die volgende hoofstuk.

    Toekoms van Kunsmatige Intelligensie-reeks

    P1: Kunsmatige intelligensie is môre se elektrisiteit

    P2: Hoe die eerste kunsmatige algemene intelligensie die samelewing sal verander

    P3: Hoe ons die eerste kunsmatige superintelligensie sal skep

    P5: Hoe mense teen 'n kunsmatige superintelligensie sal verdedig

    P6: Sal mense vreedsaam lewe in 'n toekoms wat deur kunsmatige intelligensies oorheers word?

    Volgende geskeduleerde opdatering vir hierdie voorspelling

    2025-09-25

    Voorspelling verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie voorspelling verwys:

    Hoe ons by volgende uitkom
    YouTube - ClickPhilosophy

    Die volgende Quantumrun-skakels is vir hierdie voorspelling verwys: