Unha superintelixencia artificial exterminará á humanidade? Futuro da intelixencia artificial P4

CRÉDITO DA IMAXE: Quantumrun

Unha superintelixencia artificial exterminará á humanidade? Futuro da intelixencia artificial P4

    Hai certos inventos nos que as nacións fan todo. Son inventos nos que todo depende de ser o primeiro, e calquera cousa menos pode significar unha ameaza estratéxica e mortal para a supervivencia dunha nación.

    Estes inventos que definen a historia non aparecen a miúdo, pero cando o fan, o mundo detense e un futuro previsible vólvese nebuloso.

    O último invento deste tipo xurdiu durante o peor da Segunda Guerra Mundial. Mentres os nazis gañaban terreo en todas as frontes do vello mundo, no novo mundo, concretamente dentro dunha base secreta do exército fóra de Los Álamos, os aliados estaban traballando duro nunha arma para acabar con todas as armas.

    O proxecto foi pequeno ao principio, pero despois creceu ata empregar a 130,000 persoas de EE. UU., Reino Unido e Canadá, incluíndo moitos dos máis grandes pensadores do mundo da época. Co nome en clave do Proxecto Manhattan e con un orzamento ilimitado (aproximadamente 23 millóns de dólares en dólares de 2018), este exército de enxeño humano logrou finalmente crear a primeira bomba nuclear. Non moito despois, a Segunda Guerra Mundial rematou con dous estrondos atómicos.

    Estas armas nucleares marcaron o inicio da era atómica, introduciron unha fonte de enerxía profundamente nova e deron á humanidade a capacidade de exterminarse en minutos, algo que evitamos a pesar da Guerra Fría.

    A creación dunha superintelixencia artificial (ASI) é outro invento que define a historia cuxo poder (tanto positivo como destrutivo) supera con creces á bomba nuclear.

    No último capítulo da serie Future of Artificial Intelligence, exploramos o que é un ASI e como os investigadores planean construír un algún día. Neste capítulo, analizaremos cales son as organizacións que están liderando a investigación en intelixencia artificial (IA), o que quererá un ASI unha vez que adquira unha conciencia humana e como pode ameazar á humanidade se se xestiona mal ou se cae baixo a influencia de réximes non tan agradables.

    Quen está a traballar para construír unha superintelixencia artificial?

    Dado o importante que será a creación dun ASI para a historia da humanidade e a gran vantaxe que lle dará ao seu creador, non debería sorprender saber que moitos grupos están traballando indirectamente neste proxecto.

    (Por indirecto, queremos dicir traballar na investigación de IA que finalmente creará a primeira intelixencia xeral artificial (AGI), que conducirá ao primeiro ASI pouco despois.)

    Para comezar, cando se trata dos titulares, os claros líderes na investigación avanzada de IA son as principais empresas tecnolóxicas dos Estados Unidos e China. No fronte estadounidense, isto inclúe empresas como Google, IBM e Microsoft, e en China, isto inclúe empresas como Tencent, Baidu e Alibaba. Pero dado que a investigación da IA ​​é relativamente barata en comparación co desenvolvemento de algo físico, como un mellor reactor nuclear, este tamén é un campo no que tamén poden competir as organizacións máis pequenas, como universidades, startups e... organizacións sombrías (utiliza a túa imaxinación de viláns de Bond para aquel).

    Pero entre bastidores, o verdadeiro impulso detrás da investigación da IA ​​vén dos gobernos e dos seus exércitos. O premio económico e militar de ser o primeiro en crear un ASI é demasiado grande (descríbese a continuación) para arriscarse a quedar atrás. E os perigos de ser últimos son inaceptables, polo menos para certos réximes.

    Dados estes factores, o custo relativamente baixo da investigación da IA, as infinitas aplicacións comerciais da IA ​​avanzada e a vantaxe económica e militar de ser o primeiro en crear un ASI, moitos investigadores de IA cren que a creación dun ASI é inevitable.

    Cando imos crear unha superintelixencia artificial

    No noso capítulo sobre os AGI, mencionamos como unha enquisa dos principais investigadores de IA cría que creariamos o primeiro AGI de forma optimista para 2022, de forma realista para 2040 e de forma pesimista para 2075.

    E no noso último capítulo, esbozamos como a creación dun ASI é xeralmente o resultado de instruír a un AGI para que se mellore infinitamente e dándolle os recursos e a liberdade para facelo.

    Por este motivo, aínda que un AGI pode tardar unhas poucas décadas en inventarse, a creación dun ASI pode levar só uns poucos anos máis.

    Este punto é semellante ao concepto de "proceso informático", suxerido en un papel, coescrito polos principais pensadores de IA Luke Muehlhauser e Nick Bostrom. Basicamente, se a creación dun AGI segue a estar atrás do progreso actual na capacidade de computación, impulsada pola Lei de Moore, cando os investigadores inventen un AGI, haberá tanta potencia de computación barata dispoñible que o AGI terá a capacidade necesita pasar rapidamente ao nivel de ASI.

    Noutras palabras, cando finalmente leas os titulares que anuncian que algunha empresa tecnolóxica inventou o primeiro verdadeiro AGI, espera o anuncio do primeiro ASI non moito tempo despois.

    Dentro da mente dunha superintelixencia artificial?

    Está ben, así que establecemos que moitos xogadores importantes con bolsas profundas están investigando a IA. E despois de que se invente o primeiro AGI, veremos que os gobernos mundiais (militares) dan luz verde ao impulso cara a un ASI pouco despois para ser os primeiros en gañar a carreira mundial de armamentos da IA ​​(ASI).

    Pero unha vez creado este ASI, como pensará? Que quererá?

    O can simpático, o elefante cariñoso, o simpático robot; como humanos, temos o costume de tratar de relacionarnos coas cousas mediante a antropoloxía, é dicir, aplicando características humanas ás cousas e aos animais. É por iso que a primeira suposición natural que a xente ten ao pensar nun ASI é que unha vez que dalgún xeito adquira conciencia, pensará e comportarase de xeito similar a nós.

    Ben, non necesariamente.

    Percepción. Por un lado, o que a maioría adoita esquecer é que a percepción é relativa. As formas en que pensamos están moldeadas polo noso entorno, polas nosas experiencias e, especialmente, pola nosa bioloxía. Explícase primeiro en capítulo tres dos nosos Futuro da evolución humana serie, considere o exemplo do noso cerebro:

    É o noso cerebro o que nos axuda a dar sentido ao mundo que nos rodea. E non fai isto flotando por riba das nosas cabezas, mirando ao redor e controlándonos cun controlador Xbox; faino quedando atrapado dentro dunha caixa (os nosos noggins) e procesando calquera información que lle proporcionan os nosos órganos sensoriais: os nosos ollos, nariz, oídos, etc.

    Pero do mesmo xeito que os xordos ou cegos viven vidas moito máis pequenas en comparación coas persoas capacitadas, debido ás limitacións que a súa discapacidade impón na forma en que poden percibir o mundo, o mesmo pódese dicir de todos os humanos debido ás limitacións dos nosos elementos básicos. conxunto de órganos sensoriais.

    Considere isto: os nosos ollos perciben menos dunha dez billóns de todas as ondas luminosas. Non podemos ver raios gamma. Non podemos ver radiografías. Non podemos ver a luz ultravioleta. E non me empece no infravermello, microondas e ondas de radio!

    Bromas aparte, imaxina como sería a túa vida, como poderías percibir o mundo, o diferente que podería funcionar a túa mente se puideses ver máis do que o pequeno anaco de luz que permiten actualmente os teus ollos. Así mesmo, imaxina como percibirías o mundo se o teu olfacto fose igual ao dun can ou se o teu oído fose igual ao dun elefante.

    Como humanos, esencialmente vemos o mundo a través dunha mirilla, e iso reflíctese nas mentes que evolucionamos para dar sentido a esa percepción limitada.

    Mentres tanto, o primeiro ASI nacerá dentro dunha supercomputadora. En lugar de órganos, as entradas ás que accederá inclúen conxuntos de datos xigantes, posiblemente (probablemente) incluso acceso á propia Internet. Os investigadores poderían darlle acceso ás cámaras CCTV e micrófonos dunha cidade enteira, aos datos sensoriais de drons e satélites, e mesmo á forma física do corpo ou dos corpos dun robot.

    Como podes imaxinar, unha mente nacida dentro dunha supercomputadora, con acceso directo a Internet, a millóns de ollos e oídos electrónicos e a toda unha gama de sensores avanzados non só pensará de forma diferente a nós, senón que tamén pode ter sentido. de todas esas entradas sensoriais terían que ser tamén infinitamente superiores a nós. Esta é unha mente que será totalmente allea á nosa e a calquera outra forma de vida do planeta.

    Obxectivos. A outra cousa que a xente asume é que unha vez que un ASI alcanza algún nivel de superintelixencia, dará conta inmediatamente do desexo de chegar aos seus propios obxectivos e metas. Pero iso tampouco é necesariamente certo.

    Moitos investigadores de IA cren que a superintelixencia dun ASI e os seus obxectivos son "ortogonais", é dicir, independentemente do intelixente que sexa, os obxectivos do ASI seguirán sendo os mesmos. 

    Polo tanto, se unha IA creouse orixinalmente para deseñar un mellor cueiro, maximizar os rendementos no mercado de accións ou elaborar estratexias para derrotar a un inimigo no campo de batalla, unha vez que alcance o nivel de ASI, o obxectivo orixinal non cambiará; o que cambiará é a eficacia da ASI para acadar eses obxectivos.

    Pero aí está o perigo. Se un ASI se optimiza para un obxectivo específico, entón é mellor que esteamos seguros de que se optimiza para un obxectivo que está en consonancia cos obxectivos da humanidade. Se non, os resultados poden chegar a ser mortais.

    Unha superintelixencia artificial supón un risco existencial para a humanidade?

    Entón, e se un ASI se solta no mundo? Se se optimiza para dominar o mercado de accións ou garantir a supremacía militar de EE.

    Posiblemente.

    Ata agora discutimos como un ASI estará obsesionado co(s) obxectivo(s) que foi asignado orixinalmente e inhumanamente competente para conseguir eses obxectivos. O problema é que un axente racional perseguirá os seus obxectivos cos medios máis eficientes posibles a menos que se lle dea unha razón para non facelo.

    Por exemplo, o axente racional presentará unha serie de submetas (é dicir, obxectivos, metas instrumentais, trampolín) que o axudarán no camiño cara a alcanzar o seu obxectivo final. Para os humanos, o noso principal obxectivo subconsciente é a reprodución, transmitir os teus xenes (é dicir, a inmortalidade indirecta). Os subobxectivos para ese fin adoitan incluír:

    • Sobrevivir, accedendo a alimentos e auga, facerse grande e forte, aprender a defenderse ou investir en diversas formas de protección, etc. 
    • Atraer a unha parella, facendo exercicio, desenvolvendo unha personalidade atractiva, vestindo con estilo, etc.
    • Ofrecer descendencia, obter unha educación, conseguir un traballo ben remunerado, mercar os adornos da vida da clase media, etc.

    Para a gran maioría de nós, esclavizarémonos a través de todos estes subobxectivos, e moitos outros, coa esperanza de que ao final conseguimos este obxectivo final da reprodución.

    Pero se este obxectivo final, ou mesmo calquera dos subobxectivos máis importantes, estivese ameazado, moitos de nós tomariamos accións defensivas fóra das nosas zonas de confort moral, que inclúen facer trampa, roubar ou mesmo matar.

    Así mesmo, no reino animal, fóra dos límites da moral humana, moitos animais non pensarían dúas veces en matar calquera cousa que ameazase a si mesmos ou á súa descendencia.

    Un futuro ASI non será diferente.

    Pero en lugar de descender, o ASI centrarase no obxectivo orixinal para o que foi creado, e na procura deste obxectivo, se atopa un determinado grupo de humanos, ou mesmo toda a humanidade, é un obstáculo para conseguir os seus obxectivos. , entón ... tomará a decisión racional.

    (Aquí é onde podes conectar calquera escenario do apocalíptico relacionado coa intelixencia artificial sobre o que liches no teu libro ou película de ciencia ficción favorito).

    Este é o peor dos casos polo que os investigadores de IA están realmente preocupados. A ASI non actuará por odio ou por maldade, só por indiferenza, igual que un equipo de construción non se pensará dúas veces en destruír un formigueiro no proceso de construción dunha nova torre de condominios.

    Nota lateral. Neste punto, algúns de vostedes se preguntarán: "Os investigadores de IA non poden simplemente editar os obxectivos fundamentais do ASI despois do feito se descubrimos que está actuando?"

    En realidade non.

    Unha vez que un ASI madura, calquera intento de editar os seus obxectivos orixinais pode ser visto como unha ameaza e que requira accións extremas para defenderse. Usando todo o exemplo de reprodución humana anterior, é case coma se un ladrón ameazase con roubar un bebé do ventre dunha nai embarazada; podes estar seguro de que a nai tomaría medidas extremas para protexer ao seu fillo.

    Unha vez máis, non estamos a falar dunha calculadora aquí, senón dun ser "vivo", e que algún día se fará moito máis intelixente que todos os humanos do planeta xuntos.

    O descoñecido

    Detrás da fábula de Caixa de Pandora é unha verdade menos coñecida que a xente adoita esquecer: abrir a caixa é inevitable, se non por ti que por outra persoa. O coñecemento prohibido é demasiado tentador para permanecer encerrado para sempre.

    É por iso que tentar chegar a un acordo global para deter todas as investigacións sobre IA que poidan levar a un ASI non ten sentido: hai demasiadas organizacións que traballan nesta tecnoloxía tanto oficialmente como na sombra.

    En definitiva, non temos nin idea do que esta nova entidade, esta ASI significará para a sociedade, para a tecnoloxía, para a política, a paz e a guerra. Os humanos estamos a piques de inventar o lume de novo e a onde nos leva esta creación é totalmente descoñecido.

    Volvendo ao primeiro capítulo desta serie, o único que sabemos con certeza é que a intelixencia é poder. A intelixencia é control. Os humanos poden visitar casualmente os animais máis perigosos do mundo nos seus zoolóxicos locais non porque sexamos fisicamente máis fortes que estes animais, senón porque somos significativamente máis intelixentes.

    Dadas as posibles apostas implicadas, de que un ASI use o seu inmenso intelecto para tomar accións que poidan ameazar directa ou inadvertidamente a supervivencia da raza humana, debemos polo menos tratar de deseñar garantías que permitan aos humanos permanecer no lugar do condutor. asento-este é o tema do seguinte capítulo.

    Serie Futuro da Intelixencia Artificial

    Q1: A intelixencia artificial é a electricidade do mañá

    Q2: Como cambiará a sociedade a primeira Intelixencia Xeral Artificial

    Q3: Como imos crear a primeira Superintelixencia Artificial

    Q5: Como se defenderán os humanos contra unha Superintelixencia Artificial

    Q6: Vivirán os humanos en paz nun futuro dominado polas intelixencias artificiais?

    Próxima actualización programada para esta previsión

    2025-09-25

    Referencias de previsión

    As seguintes ligazóns populares e institucionais foron referenciadas para esta previsión:

    Como chegamos ao seguinte

    As seguintes ligazóns Quantumrun foron referenciadas para esta previsión: