Una Superintelligenza Artificiale sterminerà l'umanità ? Futuru di l'intelligenza artificiale P4

CREDITU IMAGE: Quantumrun

Una Superintelligenza Artificiale sterminerà l'umanità ? Futuru di l'intelligenza artificiale P4

    Ci sò certe invenzioni chì e nazioni vanu in tuttu. Quessi sò invenzioni induve tuttu dipende di esse primu, è qualcosa menu puderia significà una minaccia strategica è mortale per a sopravvivenza di una nazione.

    Queste invenzioni chì definiscenu a storia ùn venenu micca spessu, ma quandu si facenu, u mondu si ferma è un futuru prevedibile diventa nebuloso.

    L'ultimu tali invenzione emerge durante u peghju di a seconda guerra mundiale. Mentre chì i Nazis anu guadagnatu terrenu in tutti i fronti in u vechju mondu, in u novu mondu, in particulare in una basa di l'armata sicreta fora di Los Alamos, l'Alliati eranu duru à travaglià nantu à un'arma per finisce tutte l'arme.

    U prugettu era chjucu in prima, ma poi hà cresciutu per impiegà 130,000 persone da i Stati Uniti, u Regnu Unitu è ​​​​u Canada, cumprese parechji di i più grandi pensatori di u mondu in quellu tempu. U nome in codice di u Prughjettu Manhattan è datu un budgetu illimitatu - circa $ 23 miliardi in 2018 dollari - questu esercitu di l'ingegnu umanu hà finalmente riesciutu à creà a prima bomba nucleare. Pocu dopu, a seconda guerra mundiale hà finitu cù dui bangs atomichi.

    Queste armi nucleari anu introduttu l'era atomica, introduttu una fonte d'energia profondamente nova, è dete à l'umanità a capacità di sterminà in pochi minuti, qualcosa chì avemu evitatu malgradu a Guerra Fredda.

    A creazione di una superintelligenza artificiale (ASI) hè ancu una altra storia chì definisce l'invenzione chì u so putere (sia pusitivu è distruttivu) supera assai a bomba nucleare.

    In l'ultimu capitulu di a serie Future of Artificial Intelligence, avemu esploratu ciò chì hè un ASI è cumu i circadori pensanu à custruì un ghjornu. In questu capitulu, guardemu ciò chì l'urganisazione guidanu a ricerca in l'intelligenza artificiale (AI), ciò chì un ASI vulerà una volta chì hà guadagnatu una cuscenza cum'è umana, è cumu puderia minacciare l'umanità s'ellu hè mal gestitu o s'ellu cade sottu à l'influenza di regimi micca cusì bellu.

    Quale hè chì travaglia per custruisce una superintelligenza artificiale?

    Datu quantu significativu serà a creazione di un ASI per a storia umana è quantu un vantaghju grande chì darà à u so creatore, ùn deve esse micca surprisa à sente chì parechji gruppi travaglianu indirettamente in stu prughjettu.

    (Per indirectamente, vulemu dì travaglià nantu à a ricerca AI chì eventualmente creà u primu intelligenza generale artificiale (AGI), chì ellu stessu portarà à u primu ASI pocu dopu.)

    Per principià, quandu si tratta di i tituli, i capi clari in a ricerca avanzata di l'AI sò e prime imprese di tecnulugia in i Stati Uniti è in Cina. In u fronte di i Stati Uniti, questu include cumpagnie cum'è Google, IBM è Microsoft, è in Cina, questu include cumpagnie cum'è Tencent, Baidu è Alibaba. Ma postu chì a ricerca di l'IA hè relativamente economica in paragone à u sviluppu di qualcosa fisicu, cum'è un reattore nucleare megliu, questu hè ancu un campu in quale l'urganisazioni più chjuche ponu cumpete ancu, cum'è università, startups, è ... urganisazioni in ombra (utilizate a vostra imaginazione di villain Bond per quellu).

    Ma daretu à e scene, a vera spinta daretu à a ricerca AI vene da i guverni è i so militari. U premiu ecunomicu è militare di esse u primu à creà un ASI hè troppu grande (delineatu quì sottu) per risicà di fallu daretu. È i periculi di esse l'ultimi sò inaccettabili, almenu à certi regimi.

    In vista di sti fattori, u costu relativamente bassu di a ricerca di l'AI, l'applicazioni cummerciale infinite di l'AI avanzata, è u vantaghju ecunomicu è militare di esse u primu à creà un ASI, assai circadori AI crede chì a creazione di un ASI hè inevitabbile.

    Quandu creeremu una superintelligenza artificiale

    In u nostru capitulu nantu à l'AGI, avemu mintuatu cumu una indagine di i principali circadori di l'IA hà cridutu chì avemu da creà u primu AGI in modu ottimisticu per u 2022, realisticamente per u 2040, è pessimisticamente per u 2075.

    È in u nostru ultimu capitulu, avemu spiegatu cumu a creazione di un ASI hè in generale u risultatu d'instruisce un AGI per auto-migliurà infinitu è ​​dà e risorse è a libertà per fà.

    Per questu mutivu, mentri un AGI pò ancu piglià uni pochi decennii per inventà, a creazione di un ASI pò piglià solu una manciata d'anni più.

    Stu puntu hè simile à u cuncettu di un "superficie di l'informatica", suggeritu in una carta, co-scrittu da i principali pensatori AI Luke Muehlhauser è Nick Bostrom. In fondu, se a creazione di un AGI cuntinueghja à ritardà u prugressu attuale in a capacità di l'informatica, alimentata da a Legge di Moore, allora quandu i ricercatori inventanu un AGI, ci sarà tanta putenza di computing à prezzu dispunibule chì l'AGI averà a capacità. hà bisognu à saltà rapidamente à u livellu di ASI.

    In altri palori, quandu avete finalmente lettu i tituli chì annunzianu chì una certa cumpagnia di tecnulugia hà inventatu u primu veru AGI, allora aspetta l'annunziu di u primu ASI pocu dopu.

    Dentru a mente di una superintelligenza artificiale?

    D'accordu, cusì avemu stabilitu chì un saccu di grandi ghjucatori cù sacchetti prufondi anu ricerca in IA. E dopu dopu chì u primu AGI hè inventatu, videremu chì i guverni mundiali (militari) accendenu u spinu versu un ASI pocu dopu per esse u primu à vince a corsa d'armi globale AI (ASI).

    Ma una volta chì questu ASI hè creatu, cumu penserà ? Chì vulerà ?

    U cane amichevule, l'elefante attentu, u robot simpaticu - cum'è l'omu, avemu l'abitudine di pruvà à ligà cù e cose attraversu l'antropulugia, vale à dì applicà e caratteristiche umane à e cose è l'animali. Hè per quessa chì a prima ipotesi naturale chì a ghjente hà pensatu à un ASI hè chì una volta chì in qualchì manera guadagna a cuscenza, penserà è si cumportarà cum'è noi.

    Ebbè, micca necessariamente.

    Bitalza. Per unu, ciò chì a maiò tende à scurdà hè chì a percepzione hè relativa. I modi chì pensemu sò furmatu da u nostru ambiente, da e nostre sperienze, è soprattuttu da a nostra biologia. Prima spiegatu in capitulu trè di u nostru L'avvene di l'evoluzione umana seria, cunzidira l'esempiu di u nostru cervellu:

    Hè u nostru cervellu chì ci aiuta à capisce u mondu chì ci circonda. È ùn face micca per flottante sopra i nostri capi, fighjendu intornu, è cuntrollendu cun un controller Xbox; face questu per esse intrappulatu in una scatula (i nostri noggins) è trasfurmendu qualsiasi infurmazione chì ci hè datu da i nostri organi sensoriali - i nostri ochji, u nasu, l'arechje, etc.

    Ma cum'è i sordi o i cechi vivenu una vita assai più chjuca paragunata à e persone capaci di corpu, per via di e limitazioni chì a so disabilità pone nantu à a manera di percepisce u mondu, a stessa cosa pò esse dichjarata per tutti l'omu per via di e limitazioni di i nostri basi. inseme di organi sensoriali.

    Cunsiderate questu: I nostri ochji percepiscenu menu di deci trilioni di tutte l'onda di luce. Ùn pudemu micca vede i raghji gamma. Ùn pudemu micca vede i raghji X. Ùn pudemu micca vede a luce ultravioletta. È ùn mi principia micca nantu à infrarossi, microonde è onde radiu!

    Tutti i scherzi à parte, imaginate cumu seria a vostra vita, cumu pudete percepisce u mondu, quantu diversa a vostra mente puderia travaglià se puderebbe vede più di a piccula slitta di luce chì i vostri ochji permettenu attualmente. Di listessa manera, imaginate cumu percevi u mondu se u vostru sensu di l'olfattu uguale à quellu di un cane o se u vostru sensu di l'audizione uguale à quellu di un elefante.

    Cum'è l'omu, essenzialmente vedemu u mondu attraversu una spia, è questu si riflette in a mente chì avemu evolutu per dà sensu à quella percepzione limitata.

    Intantu, u primu ASI serà natu in un supercomputer. Invece di l'organi, l'inputs chì accede includenu datasets giganti, possibbilmente (probabilmente) ancu accessu à Internet stessu. I ricercatori puderanu dà accessu à e camere CCTV è microfoni di una cità intera, i dati sensoriali da droni è satelliti, è ancu a forma fisica di un corpu o corpi di robot.

    Cum'è pudete imaginà, una mente nata in un supercomputer, cù accessu direttu à Internet, à milioni di ochji è orecchie elettroniche è una gamma sana di altri sensori avanzati ùn pensanu micca solu di manera diversa da noi, ma una mente chì pò fà sensu. di tutti quelli inputs sensoriali avissi a essiri infinitu suprana à noi oltri. Questa hè una mente chì serà completamente straniera à a nostra propria è à qualsiasi altra forma di vita in u pianeta.

    Goals. L'altra cosa chì a ghjente assume hè chì una volta chì un ASI righjunghji un certu livellu di superintelligenza, realizà immediatamente u desideriu di vene cù i so scopi è ugettivi. Ma questu ùn hè micca necessariamente veru.

    Parechji circadori di l'AI crede chì a superintelligenza di l'ASI è i so scopi sò "ortogonali", vale à dì, indipendentemente da quantu hè intelligente, i scopi di l'ASI fermanu i stessi. 

    Allora s'ellu un AI hè urigginariamente creatu per disignà un diaper megliu, maximizà i ritorni in u mercatu di borsa, o strategie di modi per scunfighja un nemicu in u campu di battaglia, una volta chì righjunghji u livellu di ASI, u scopu originale ùn cambia micca; ciò chì cambierà hè l'efficacità di l'ASI per ghjunghje à quelli scopi.

    Ma quì hè u periculu. Se un ASI chì s'ottimiseghja per un scopu specificu, allora hè megliu esse damnamente sicuri chì ottimizza à un scopu chì hè in linea cù i scopi di l'umanità. Altrimenti, i risultati ponu turnà mortali.

    Una superintelligenza artificiale pone un risicu esistenziale per l'umanità?

    Allora chì si un ASI hè liberatu in u mondu? S'ellu ottimizza per duminà a borsa o assicurà a supremazia militare di i Stati Uniti, l'ASI ùn si cuntenerà micca in quelli scopi specifichi?

    Possibilmente.

    Finu à avà avemu discututu cumu un ASI serà obsessionatu cù u scopu (s) chì hè statu originariamente assignatu è inumanamente cumpetente in a ricerca di questi scopi. A cattura hè chì un agentu raziunale perseguirà i so scopi in i mezi più efficaci pussibule, salvu chì ùn sia micca datu una ragione per ùn fà.

    Per esempiu, l'agente raziunale hà da vene cun una varietà di sub-obiettivi (vale à dì ugettivi, ugettivi strumentali, trappule) chì l'aiuterà in u so modu per ottene u so scopu finale. Per l'omu, u nostru scopu subconsciousu chjave hè a ripruduzzione, trasmettenu i vostri geni (ie immortalità indiretta). I subobiettivi per questu scopu ponu spessu include:

    • Survivenza, accede à l'alimentu è l'acqua, cresce grande è forte, amparà à difende sè stessu o invistisce in diverse forme di prutezzione, etc. 
    • Attraisce un cumpagnu, travagliendu, sviluppendu una parsunalità ingaghjante, vestendu stylishly, etc.
    • Affordà a prole, ottenendu una educazione, sbarcà un travagliu altu pagatu, cumprà i trappuli di a vita di a classe media, etc.

    Per a maiò parte di noi, avemu da schiavi à traversu tutti questi sub-obiettivi, è parechji altri, cù a speranza chì à a fine, ghjunghjemu stu scopu ultimu di ripruduzzione.

    Ma se stu scopu ultimu, o ancu qualcunu di i sub-obiettivi più impurtanti, eranu minacciati, assai di noi avissiru piglià azioni difensive fora di e nostre zone di cunfortu morale - chì include ingannà, arrubà o ancu uccidendu.

    In listessu modu, in u regnu animali, fora di i limiti di a moralità umana, assai animali ùn pensanu micca duie volte à tumbà qualcosa chì minacciava elli stessi o i so figlioli.

    Un futuru ASI ùn serà micca diversu.

    Ma inveci di prole, l'ASI si cuncintrarà nantu à u scopu originale per u quale hè statu creatu, è in a ricerca di stu scopu, s'ellu si trova un gruppu particulari di l'omu, o ancu tutta l'umanità, hè un ostaculu in a ricerca di i so scopi. , allora ... farà a decisione raziunale.

    (Eccu induve pudete inserisce qualsiasi scenariu di u ghjornu di a fine di l'intelligenza artificiale chì avete lettu in u vostru libru o filmu di sci-fi preferitu.)

    Questu hè u peghju scenariu chì i circadori AI sò veramente preoccupati. L'ASI ùn agirà per l'odiu o u male, solu l'indifferenza, cum'è cumu un equipaggiu di custruzzione ùn penserà micca duie volte à bulldozing una furmica in u prucessu di custruisce una nova torre di condominiu.

    Nota laterale. À questu puntu, alcuni di voi puderanu esse dumandate: "I ricercatori di l'AI ùn ponu micca solu edità l'ubbiettivi core di l'ASI dopu à u fattu, se truvamu chì hè agisce?"

    Micca essatamente.

    Una volta chì un ASI matura, ogni tentativu di edità u so scopu originale pò esse vistu cum'è una minaccia, è quellu chì necessitaria azzione estrema per difende si. Utilizendu tuttu l'esempiu di ripruduzzione umana di prima, hè quasi cum'è se un latru minacciava di arrubbari un zitellu da u ventre di una mamma in attesa - pudete esse sicuru chì a mamma pigliarà misure estreme per prutege u so zitellu.

    In novu, ùn parlemu micca di una calculatrice quì, ma di un essendu "vivente", è quellu chì diventerà un ghjornu assai più intelligente di tutti l'omu di u pianeta cumminati.

    L'inconnu

    Daretu à a favola di Scatula di Pandora hè una verità menu cunnisciuta chì a ghjente spessu si scurdanu: apre a scatula hè inevitabbile, se micca da voi chè da qualcunu altru. A cunniscenza pruibita hè troppu tentazione per esse chjusa per sempre.

    Hè per quessa chì pruvà à ghjunghje à un accordu glubale per piantà tutte e ricerche in l'IA chì puderia guidà à un ASI hè inutile - ci sò troppu urganisazioni chì travaglianu nantu à sta tecnulugia sia ufficialmente sia in l'ombra.

    In fine, ùn avemu micca idea di ciò chì sta nova entità, questu ASI significarà à a sucetà, à a tecnulugia, à a pulitica, a pace è a guerra. Noi umani simu per inventà u focu di novu è induve sta creazione ci porta hè cumplettamente scunnisciutu.

    Riturnendu à u primu capitulu di sta serie, l'unica cosa chì sapemu di sicuru hè chì l'intelligenza hè u putere. L'intelligenza hè u cuntrollu. L'umani ponu visità casualmente l'animali più periculosi di u mondu in i so zoo lucali micca perchè simu fisicamenti più forti di questi animali, ma perchè simu significativamente più intelligenti.

    Dati i putenziali ingaghjati implicati, di un ASI chì utilizeghja u so immensu intellettu per piglià azioni chì ponu direttamente o inavvertitamente minacciate a sopravvivenza di a razza umana, duvemu à noi stessi per almenu pruvà à cuncepisce salvaguardi chì permettenu à l'omu di stà in u cunduttore. sediu-issu hè u tema di u prossimu capitulu.

    Serie Future of Artificial Intelligence

    Q1: L'intelligenza artificiale hè l'electricità di dumane

    Q2: Cumu a prima Intelligenza Generale Artificiale cambierà a sucetà

    Q3: Cumu creeremu a prima Superintelligenza Artificiale

    Q5: Cumu l'umani difenderanu contr'à una Superintelligenza Artificiale

    Q6: L'omu viveranu in pace in un futuru duminatu da l'intelligenza artificiale ?

    A prossima aghjurnazione prevista per sta previsione

    2025-09-25

    Referenze di previsione

    I seguenti ligami populari è istituzionali sò stati riferiti per questa previsione:

    lu econumista
    Cumu ghjunghjemu à u prossimu

    I seguenti ligami Quantumrun sò stati riferiti per questa previsione: