Como crearemos a primeira Superintelixencia Artificial: Futuro da intelixencia artificial P3

CRÉDITO DA IMAXE: Quantumrun

Como crearemos a primeira Superintelixencia Artificial: Futuro da intelixencia artificial P3

    No fondo da Segunda Guerra Mundial, as forzas nazis percorreron gran parte de Europa. Tiñan armas avanzadas, industria eficiente en tempo de guerra, infantería fanática, pero sobre todo, tiñan unha máquina chamada Enigma. Este dispositivo permitiu ás forzas nazis colaborar con seguridade a longas distancias enviándose mensaxes en código Morse entre si por liñas de comunicación estándar; era unha máquina de cifrado inexpugnable para os descifradores de códigos humanos. 

    Afortunadamente, os aliados atoparon unha solución. Xa non necesitaban unha mente humana para romper Enigma. Pola contra, a través dunha invención do falecido Alan Turing, os aliados construíron unha nova ferramenta revolucionaria chamada Bomba británica, un dispositivo electromecánico que finalmente descifrou o código secreto dos nazis e, finalmente, axudoulles a gañar a guerra.

    Esta Bombe sentou as bases do que se converteu na computadora moderna.

    Traballando xunto a Turing durante o proxecto de desenvolvemento Bombe estivo IJ Good, un matemático e criptólogo británico. Viu no inicio do xogo final que este novo dispositivo podería producir algún día. Nunha Papel 1965, escribiu:

    "Definamos unha máquina ultraintelixente como unha máquina que pode superar con moito todas as actividades intelectuais de calquera home por máis intelixente que sexa. Dado que o deseño de máquinas é unha destas actividades intelectuais, unha máquina ultraintelixente podería deseñar máquinas aínda mellores; habería entón indudablemente unha "explosión de intelixencia", e a intelixencia do home quedaría moi atrás... Así, a primeira máquina ultraintelixente é o último invento que o home necesita facer, sempre que a máquina sexa o suficientemente dócil como para dicirnos como para mantelo baixo control".

    Creando a primeira superintelixencia artificial

    Ata agora, na nosa serie Future of Artificial Intelligence, definimos as tres grandes categorías de intelixencia artificial (IA), desde intelixencia artificial estreita (ANI) para intelixencia xeral artificial (AGI), pero neste capítulo da serie, centrarémonos na última categoría, a que xera excitación ou ataques de pánico entre os investigadores de IA: a superintelixencia artificial (ASI).

    Para entender o que é un ASI, terás que pensar no último capítulo onde explicamos como os investigadores de IA cren que crearán o primeiro AGI. Basicamente, fará falta unha combinación de grandes datos que alimenten mellores algoritmos (aqueles que se especializan na mellora persoal e en habilidades de aprendizaxe similares ás humanas) aloxados nun hardware informático cada vez máis potente.

    Nese capítulo, tamén esbozamos como unha mente AGI (unha vez que obtén estas habilidades de auto-mejora e aprendizaxe que os humanos damos por sentadas) acabará superando á mente humana a través dunha velocidade superior de pensamento, memoria mellorada, rendemento incansable e actualización instantánea.

    Pero aquí é importante ter en conta que un AGI só mellorará a si mesmo ata os límites do hardware e dos datos aos que ten acceso; este límite pode ser grande ou pequeno dependendo do corpo do robot que lle demos ou da escala de ordenadores aos que lle permitamos acceder.

    Mentres tanto, a diferenza entre un AGI e un ASI é que este último, teoricamente, nunca existirá de forma física. Funcionará enteiramente dentro dunha supercomputadora ou rede de supercomputadoras. Dependendo dos obxectivos dos seus creadores, tamén pode ter acceso total a todos os datos almacenados en Internet, así como a calquera dispositivo ou persoa que introduza datos a Internet e a través de Internet. Isto significa que non haberá límite práctico para canto pode aprender este ASI e canto pode mellorarse. 

    E ese é o problema. 

    Comprender a explosión da intelixencia

    Este proceso de auto-mellora que as IAs eventualmente gañarán a medida que se convertan en AGIs (un proceso que a comunidade de AI chama de auto-mellora recursiva) pode provocar un ciclo de retroalimentación positiva que semella así:

    Créase un novo AGI, dáselle acceso a un corpo de robot ou a un gran conxunto de datos, e despois dáselle a simple tarefa de autoeducarse, de mellorar a súa intelixencia. Nun primeiro momento, este AGI terá o coeficiente intelectual dun bebé que loita por comprender novos conceptos. Co paso do tempo, aprende o suficiente para alcanzar o coeficiente intelectual dun adulto medio, pero non para aquí. Usando este novo coeficiente intelectual de adultos, faise moito máis fácil e rápido continuar esta mellora ata un punto no que o seu coeficiente intelectual coincide co dos humanos máis intelixentes coñecidos. Pero de novo, non para aí.

    Este proceso compónse en cada novo nivel de intelixencia, seguindo a lei de aceleración dos retornos ata alcanzar o nivel incalculable de superintelixencia; noutras palabras, se non se controla e se lle dan recursos ilimitados, un AGI mellorarase a si mesmo nun ASI, un intelecto que nunca antes existiu na natureza.

    Isto é o que IJ Good identificou por primeira vez cando describiu esta "explosión de intelixencia" ou o que os teóricos modernos da IA, como Nick Bostrom, chaman o evento de "despegue" da IA.

    Comprensión dunha superintelixencia artificial

    Neste punto, algúns de vostedes probablemente estean pensando que a diferenza fundamental entre a intelixencia humana e a intelixencia dun ASI é a rapidez con que cada lado pode pensar. E aínda que é certo que este teórico futuro ASI pensará máis rápido que os humanos, esta capacidade xa é bastante común en todo o sector informático actual: o noso teléfono intelixente pensa (calcula) máis rápido que a mente humana, un superordenador pensa millóns de veces máis rápido que un teléfono intelixente, e unha futura computadora cuántica pensará aínda máis rápido. 

    Non, a velocidade non é a característica da intelixencia que estamos explicando aquí. É a calidade. 

    Podes acelerar o cerebro do teu Samoyedo ou Corgi todo o que queiras, pero iso non se traduce nunha nova comprensión de como interpretar a linguaxe ou as ideas abstractas. Mesmo cunha década ou dúas máis, estes doggos non comprenderán de súpeto como facer ou usar ferramentas, e moito menos entenderán as diferenzas máis finas entre un sistema económico capitalista e socialista.

    Cando se trata de intelixencia, os humanos operamos nun plano diferente ao dos animais. Do mesmo xeito, se un ASI alcanza todo o seu potencial teórico, as súas mentes operarán nun nivel moito máis alá do alcance do humano moderno medio. Para algún contexto, vexamos as aplicacións destes ASI.

    Como pode funcionar unha superintelixencia artificial xunto á humanidade?

    Asumindo que un determinado goberno ou corporación ten éxito na creación dun ASI, como poderían usalo? Segundo Bostrom, hai tres formas separadas pero relacionadas que estes ASI poden adoptar:

    • Oracle Aquí, interactuaríamos cun ASI igual que xa facemos co buscador de Google; Farémoslle unha pregunta, pero por moi complexa que sexa, a ASI responderá perfectamente e dun xeito adaptado a vostede e ao contexto da súa pregunta.
    • xenio. Neste caso, asignarémoslle a un ASI unha tarefa específica, e executarase segundo o mandado. Busca unha cura para o cancro. Feito. Busca todos os planetas escondidos dentro do atraso de imaxes de 10 anos do Telescopio Espacial Hubble da NASA. Feito. Deseña un reactor de fusión que funcione para resolver a demanda de enerxía da humanidade. Abracadabra.
    • soberano. Aquí, a ASI asígnaselle unha misión aberta e dáselle liberdade para executala. Rouba os segredos de I+D do noso competidor corporativo. "Fácil." Descubre as identidades de todos os espías estranxeiros que se agochan dentro das nosas fronteiras. "Sobre el". Garantir a prosperidade económica continuada dos Estados Unidos. "Sen problema."

    Agora, sei o que estás pensando, todo isto soa bastante descabellado. É por iso que é importante lembrar que todos os problemas/desafíos que hai, incluso os que ata agora asfixiaron ás mentes máis brillantes do mundo, son resolubles. Pero a dificultade dun problema mídese polo intelecto que o aborda.

    Noutras palabras, canto maior sexa a mente aplicada a un desafío, máis fácil resulta atopar unha solución a dito desafío. Calquera reto. É como un adulto observando a un bebé que loita por entender por que non pode encaixar un bloque cadrado nunha abertura redonda; para o adulto, amosarlle ao bebé que o bloque debe pasar pola abertura cadrada sería un xogo de nenos.

    Do mesmo xeito, se este futuro ASI alcanzase todo o seu potencial, esta mente converteríase no intelecto máis poderoso do universo coñecido, o suficientemente poderoso como para resolver calquera desafío, por complexo que sexa. 

    É por iso que moitos investigadores de IA chaman ao ASI o último invento que o home terá que facer. Se estamos convencidos de traballar xunto á humanidade, pode axudarnos a resolver todos os problemas máis urxentes do mundo. Incluso podemos pedirlle que elimine todas as enfermidades e acabe co envellecemento tal e como a coñecemos. A humanidade pode por primeira vez enganar á morte permanentemente e entrar nunha nova era de prosperidade.

    Pero tamén é posible o contrario. 

    A intelixencia é poder. Se mal xestionado ou instruído por malos actores, este ASI podería converterse na ferramenta definitiva de opresión, ou podería exterminar a humanidade por completo; pense en Skynet das películas de Terminator ou no Arquitecto das películas de Matrix.

    En realidade, ningún dos extremos é probable. O futuro é sempre moito máis desordenado do que prevén os utópicos e os distópicos. É por iso que agora que entendemos o concepto de ASI, o resto desta serie explorará como afectará un ASI á sociedade, como se defenderá a sociedade contra un ASI deshonesto e como se vería o futuro se os humanos e a IA vivisen xuntos. -lado. Sigue lendo.

    Serie Futuro da Intelixencia Artificial

    A intelixencia artificial é a electricidade do mañá: o futuro da intelixencia artificial da serie P1

    Como a primeira Intelixencia Xeral Artificial cambiará a sociedade: Futuro da Intelixencia Artificial serie P2

    ¿Unha superintelixencia artificial exterminará á humanidade?: serie P4 do futuro da intelixencia artificial

    Como se defenderán os humanos contra unha Superintelixencia Artificial: serie P5 do Futuro da Intelixencia Artificial

    Vivirán os humanos en paz nun futuro dominado polas intelixencias artificiais?: serie P6 Future of Artificial Intelligence

    Próxima actualización programada para esta previsión

    2023-04-27

    Referencias de previsión

    As seguintes ligazóns populares e institucionais foron referenciadas para esta previsión:

    Intelixencia.org
    Intelixencia.org
    Intelixencia.org
    YouTube - Foro Económico Mundial

    As seguintes ligazóns Quantumrun foron referenciadas para esta previsión: