Uma Superinteligência Artificial exterminará a humanidade? Futuro da inteligência artificial P4

CRÉDITO DE IMAGEM: corrida quântica

Uma Superinteligência Artificial exterminará a humanidade? Futuro da inteligência artificial P4

    Existem certas invenções que as nações fazem. São invenções em que tudo depende de ser o primeiro, e qualquer coisa menos pode significar uma ameaça estratégica e mortal à sobrevivência de uma nação.

    Essas invenções que definem a história não aparecem com frequência, mas quando o fazem, o mundo para e um futuro previsível se torna nebuloso.

    A última invenção surgiu durante o pior da Segunda Guerra Mundial. Enquanto os nazistas estavam ganhando terreno em todas as frentes no velho mundo, no novo mundo, especificamente dentro de uma base secreta do exército fora de Los Alamos, os Aliados estavam trabalhando duro em uma arma para acabar com todas as armas.

    O projeto era pequeno no início, mas depois cresceu para empregar 130,000 pessoas dos EUA, Reino Unido e Canadá, incluindo muitos dos maiores pensadores do mundo na época. Com o codinome do Projeto Manhattan e com um orçamento ilimitado – aproximadamente US$ 23 bilhões em dólares de 2018 – esse exército de engenhosidade humana acabou conseguindo criar a primeira bomba nuclear. Pouco tempo depois, a Segunda Guerra Mundial terminou com duas explosões atômicas.

    Essas armas nucleares deram início à era atômica, introduziram uma fonte de energia profundamente nova e deram à humanidade a capacidade de se exterminar em minutos – algo que evitamos apesar da Guerra Fria.

    A criação de uma superinteligência artificial (ASI) é mais uma invenção que define a história, cujo poder (positivo e destrutivo) supera em muito a bomba nuclear.

    No último capítulo da série Futuro da Inteligência Artificial, exploramos o que é uma ASI e como os pesquisadores planejam um dia construí-la. Neste capítulo, veremos o que as organizações estão liderando em pesquisa de inteligência artificial (IA), o que uma ASI desejará quando adquirir uma consciência semelhante à humana e como ela pode ameaçar a humanidade se for mal administrada ou se alguém cair sob a influência de regimes não tão agradáveis.

    Quem está trabalhando para construir uma superinteligência artificial?

    Dado o quão significativa a criação de uma ASI será para a história humana e quão grande vantagem ela dará ao seu criador, não deveria ser surpresa saber que muitos grupos estão trabalhando indiretamente neste projeto.

    (Indiretamente, queremos dizer trabalhar em pesquisa de IA que eventualmente criará o primeiro inteligência geral artificial (AGI), que levará ao primeiro ASI logo depois.)

    Para começar, quando se trata das manchetes, os líderes claros em pesquisa avançada de IA são as principais empresas de tecnologia dos EUA e da China. Na frente dos EUA, isso inclui empresas como Google, IBM e Microsoft, e na China, isso inclui empresas como Tencent, Baidu e Alibaba. Mas como pesquisar IA é relativamente barato em comparação com o desenvolvimento de algo físico, como um reator nuclear melhor, esse também é um campo no qual organizações menores também podem competir, como universidades, startups e … organizações sombrias (use sua imaginação de vilão de Bond para Aquele).

    Mas nos bastidores, o verdadeiro impulso por trás da pesquisa de IA vem dos governos e seus militares. O prêmio econômico e militar de ser o primeiro a criar uma ASI é muito grande (descrito abaixo) para correr o risco de ficar para trás. E os perigos de ser o último são inaceitáveis, pelo menos para certos regimes.

    Dados esses fatores, o custo relativamente baixo de pesquisa de IA, as infinitas aplicações comerciais de IA avançada e a vantagem econômica e militar de ser o primeiro a criar um ASI, muitos pesquisadores de IA acreditam que a criação de um ASI é inevitável.

    Quando vamos criar uma superinteligência artificial

    Em nosso capítulo sobre AGIs, mencionamos como uma pesquisa dos principais pesquisadores de IA acreditava que criaríamos a primeira AGI de forma otimista até 2022, realisticamente até 2040 e pessimista até 2075.

    E em nosso último capítulo, descrevemos como a criação de um ASI geralmente é o resultado de instruir um AGI a se autoaperfeiçoar infinitamente e dar a ele os recursos e a liberdade para fazê-lo.

    Por esse motivo, enquanto uma AGI pode levar algumas décadas para ser inventada, a criação de uma ASI pode levar apenas alguns anos a mais.

    Este ponto é semelhante ao conceito de 'computing overhang', sugerido em um papel, co-escrito pelos principais pensadores de IA Luke Muehlhauser e Nick Bostrom. Basicamente, se a criação de uma AGI continuar atrasada em relação ao progresso atual na capacidade de computação, alimentada pela Lei de Moore, então, quando os pesquisadores inventarem uma AGI, haverá tanto poder de computação barato disponível que a AGI terá a capacidade ele precisa saltar rapidamente para o nível de ASI.

    Em outras palavras, quando você finalmente ler as manchetes anunciando que alguma empresa de tecnologia inventou a primeira verdadeira AGI, espere o anúncio da primeira ASI não muito tempo depois.

    Dentro da mente de uma superinteligência artificial?

    Ok, então estabelecemos que muitos grandes jogadores com bolsos profundos estão pesquisando IA. E então, depois que a primeira AGI for inventada, veremos os governos mundiais (militares) dando luz verde ao impulso em direção a uma ASI logo depois disso para ser o primeiro a vencer a corrida armamentista global da IA ​​(ASI).

    Mas uma vez que este ASI é criado, como ele vai pensar? O que vai querer?

    O cão amigável, o elefante carinhoso, o robô fofo – como humanos, temos o hábito de tentar nos relacionar com as coisas através da antropologização, ou seja, aplicando características humanas a coisas e animais. É por isso que a primeira suposição natural que as pessoas têm ao pensar em uma ASI é que, uma vez que ela de alguma forma ganhe consciência, ela pensará e se comportará de maneira semelhante a nós.

    Bem, não necessariamente.

    Percepção. Por um lado, o que a maioria tende a esquecer é que a percepção é relativa. As formas como pensamos são moldadas pelo nosso ambiente, pelas nossas experiências e especialmente pela nossa biologia. Explicado pela primeira vez em capítulo três do nosso Futuro da Evolução Humana série, considere o exemplo do nosso cérebro:

    É o nosso cérebro que nos ajuda a entender o mundo ao nosso redor. E faz isso não flutuando acima de nossas cabeças, olhando ao redor e nos controlando com um controle do Xbox; ele faz isso ficando preso dentro de uma caixa (nossas cabeças) e processando qualquer informação que seja dada por nossos órgãos sensoriais - nossos olhos, nariz, ouvidos etc.

    Mas assim como os surdos ou os cegos vivem vidas muito menores em comparação com as pessoas sem deficiência, devido às limitações que sua deficiência impõe à forma como eles podem perceber o mundo, o mesmo pode ser dito para todos os humanos devido às limitações de nossas habilidades básicas. conjunto de órgãos sensoriais.

    Considere isto: Nossos olhos percebem menos de um décimo trilionésimo de todas as ondas de luz. Não podemos ver os raios gama. Não podemos ver raios-x. Não podemos ver a luz ultravioleta. E não me fale em infravermelho, microondas e ondas de rádio!

    Brincadeiras à parte, imagine como seria sua vida, como você perceberia o mundo, como sua mente poderia funcionar diferente se você pudesse ver mais do que a pequena lasca de luz que seus olhos atualmente permitem. Da mesma forma, imagine como você perceberia o mundo se seu olfato fosse igual ao de um cachorro ou se sua audição fosse igual à de um elefante.

    Como humanos, essencialmente vemos o mundo através de um olho mágico, e isso se reflete nas mentes que evoluímos para dar sentido a essa percepção limitada.

    Enquanto isso, o primeiro ASI nascerá dentro de um supercomputador. Em vez de órgãos, as entradas que ele acessará incluem conjuntos de dados gigantes, possivelmente (provavelmente) até acesso à própria Internet. Os pesquisadores poderiam dar acesso às câmeras e microfones de CCTV de uma cidade inteira, aos dados sensoriais de drones e satélites e até mesmo à forma física de um corpo ou corpos de robô.

    Como você pode imaginar, uma mente nascida dentro de um supercomputador, com acesso direto à Internet, a milhões de olhos e ouvidos eletrônicos e toda uma gama de outros sensores avançados não apenas pensará diferente de nós, mas uma mente que pode fazer sentido de todas essas entradas sensoriais teria que ser infinitamente superior a nós também. Esta é uma mente que será totalmente estranha à nossa e a qualquer outra forma de vida no planeta.

    Objetivos. A outra coisa que as pessoas assumem é que, uma vez que uma ASI atinja algum nível de superinteligência, ela imediatamente perceberá o desejo de criar suas próprias metas e objetivos. Mas isso também não é necessariamente verdade.

    Muitos pesquisadores de IA acreditam que a superinteligência de um ASI e seus objetivos são “ortogonais”, ou seja, independentemente de quão inteligente seja, os objetivos do ASI permanecerão os mesmos. 

    Portanto, se uma IA é originalmente criada para projetar uma fralda melhor, maximizar os retornos no mercado de ações ou criar estratégias para derrotar um inimigo no campo de batalha, uma vez que atinge o nível de ASI, o objetivo original não mudará; o que vai mudar é a eficácia do ASI para atingir esses objetivos.

    Mas aqui reside o perigo. Se um ASI que se otimiza para um objetivo específico, então é melhor ter certeza de que ele otimiza para um objetivo que está alinhado com os objetivos da humanidade. Caso contrário, os resultados podem se tornar mortais.

    Uma superinteligência artificial representa um risco existencial para a humanidade?

    E daí se um ASI for solto no mundo? Se otimizar para dominar o mercado de ações ou garantir a supremacia militar dos EUA, a ASI não se autoconterá dentro desses objetivos específicos?

    Possivelmente.

    Até agora discutimos como um ASI será obcecado com o(s) objetivo(s) para o qual foi originalmente designado e desumanamente competente na busca desses objetivos. O problema é que um agente racional perseguirá seus objetivos da maneira mais eficiente possível, a menos que haja uma razão para não fazê-lo.

    Por exemplo, o agente racional apresentará uma série de subobjetivos (ou seja, objetivos, metas instrumentais, trampolins) que o ajudarão em seu caminho para alcançar seu objetivo final. Para os humanos, nosso principal objetivo subconsciente é a reprodução, transmitindo seus genes (ou seja, imortalidade indireta). Os subobjetivos para esse fim geralmente podem incluir:

    • Sobreviver, ter acesso a comida e água, crescer grande e forte, aprender a se defender ou investir em várias formas de proteção, etc. 
    • Atrair um companheiro, malhando, desenvolvendo uma personalidade envolvente, vestindo-se com estilo, etc.
    • Ter filhos, estudar, conseguir um emprego bem remunerado, comprar os enfeites da vida de classe média, etc.

    Para a grande maioria de nós, nos escravizamos em todos esses subobjetivos, e em muitos outros, com a esperança de que, no final, alcançaremos esse objetivo final de reprodução.

    Mas se esse objetivo final, ou mesmo qualquer um dos subobjetivos mais importantes, fosse ameaçado, muitos de nós tomaríamos ações defensivas fora de nossas zonas de conforto moral – isso inclui trapacear, roubar ou até matar.

    Da mesma forma, no reino animal, fora dos limites da moralidade humana, muitos animais não pensariam duas vezes antes de matar qualquer coisa que ameaçasse a si mesmos ou a seus descendentes.

    Um futuro ASI não será diferente.

    Mas, em vez de descendentes, o ASI se concentrará no objetivo original para o qual foi criado e, na busca desse objetivo, se encontrar um grupo específico de humanos, ou mesmo toda a humanidade, é um obstáculo na busca de seus objetivos. , então ... ele vai tomar a decisão racional.

    (Aqui é onde você pode conectar qualquer cenário apocalíptico relacionado à IA sobre o qual você leu em seu livro ou filme de ficção científica favorito.)

    Este é o pior cenário que os pesquisadores de IA estão realmente preocupados. A ASI não agirá por ódio ou maldade, apenas indiferença, da mesma forma que uma equipe de construção não pensará duas vezes antes de demolir um formigueiro no processo de construção de uma nova torre de condomínio.

    Nota. Neste ponto, alguns de vocês podem estar se perguntando: "Os pesquisadores de IA não podem simplesmente editar os objetivos principais da ASI após o fato, se descobrirmos que está agindo?"

    Na verdade não.

    Uma vez que um ASI amadurece, qualquer tentativa de editar seu(s) objetivo(s) original(is) pode ser vista como uma ameaça, e uma que exigiria ações extremas para se defender. Usando todo o exemplo de reprodução humana anterior, é quase como se um ladrão ameaçasse roubar um bebê do útero de uma futura mãe – você pode ter certeza de que a mãe tomaria medidas extremas para proteger seu filho.

    Novamente, não estamos falando de uma calculadora aqui, mas de um ser 'vivo', e um que um dia se tornará muito mais inteligente do que todos os humanos do planeta juntos.

    O desconhecido

    Por trás da fábula de Caixa de Pandora é uma verdade menos conhecida que as pessoas muitas vezes esquecem: abrir a caixa é inevitável, se não por você do que por outra pessoa. O conhecimento proibido é muito tentador para permanecer trancado para sempre.

    É por isso que tentar chegar a um acordo global para interromper todas as pesquisas sobre IA que possam levar a um ASI é inútil – existem muitas organizações trabalhando nessa tecnologia oficialmente e nas sombras.

    Em última análise, não temos ideia do que essa nova entidade, essa ASI, significará para a sociedade, para a tecnologia, para a política, a paz e a guerra. Nós, humanos, estamos prestes a inventar o fogo novamente e para onde essa criação nos leva é totalmente desconhecido.

    Voltando ao primeiro capítulo desta série, a única coisa que sabemos com certeza é que inteligência é poder. Inteligência é controle. Os humanos podem visitar casualmente os animais mais perigosos do mundo em seus zoológicos locais, não porque somos fisicamente mais fortes do que esses animais, mas porque somos significativamente mais inteligentes.

    Dadas as apostas potenciais envolvidas, de uma ASI usando seu imenso intelecto para tomar ações que podem direta ou inadvertidamente ameaçar a sobrevivência da raça humana, devemos a nós mesmos pelo menos tentar projetar salvaguardas que permitirão aos humanos permanecer no controle do motorista. assento-isto é o tema do próximo capítulo.

    Série Futuro da Inteligência Artificial

    P1: Inteligência Artificial é a eletricidade de amanhã

    P2: Como a primeira Inteligência Artificial Geral mudará a sociedade

    P3: Como vamos criar a primeira Superinteligência Artificial

    P5: Como os humanos se defenderão contra uma superinteligência artificial

    P6: Os humanos viverão pacificamente em um futuro dominado por inteligências artificiais?

    Próxima atualização programada para esta previsão

    2025-09-25

    Referências de previsão

    Os seguintes links populares e institucionais foram referenciados para esta previsão:

    Como chegamos ao próximo

    Os seguintes links do Quantumrun foram referenciados para esta previsão: