O desenvolvimento de uma inteligência artificial geral é sem sombra de dúvida o maior perigo que a humanidade já enfrentou, enfrenta ou enfrentará. É mais perigoso que uma guerra nuclear total entre todas as potências atômicas. É mais perigoso que a pior das ideologias que você possa imaginar. É mais perigoso que tudo. Entenda aqui por quê. 

Imagine uma máquina estúpida, muito estúpida, assim como a máquina em que você está lendo este artigo. Seu computador pessoal ou smartphone é certamente uma máquina muito estúpida. Ele não consegue nem sequer completar uma frase de modo adequado. Se você escrever “atirei o pau no ____”, ele não será capaz de completar a frase para você. Você terá que digitar “gato”. Mas esta máquina não tem inteligência artificial. Ela nunca será capaz de completar a frase se não for programada para aprender a fazer isso.

Entretanto, se um número suficientemente grande de pessoas fizer a busca “atirei o pau no gato” no Google, o Google oferecerá a frase completa como sugestão de pesquisa em algum ponto no meio da digitação. Este é um exemplo de máquina programada para aprender algo muito rudimentar: frases muito pesquisadas. E, no caso do Google, uma coisa a mais: ele também aprende quais são os sites mais relevantes para a busca “atirei o pau no gato”, com base em diversos indicadores, como quantos sites apontam para cada site com aquele conteúdo, a frequência de cliques em cada resultado de busca e vários outros.

Isso é um exemplo de inteligência artificial, sem dúvida. As máquinas do Google interagem com o mundo em através de uma série de critérios, aprendem a oferecer resultados “melhores” – segundo aqueles critérios. As máquinas do Google não julgam moralmente ou eticamente ou de qualquer outra forma os critérios, porque elas simplesmente não sabem o que é moral ou ética, elas são totalmente amorais e eticamente neutras no tratamento da informação.

Além desta amoralidade e neutralidade, as máquinas do Google são programadas para aperfeiçoar seu banco de dados, não seu próprio funcionamento. O buscador do Google não reprograma a si mesmo, a não ser em um nível muito rudimentar. Deixado à própria sorte, o algoritmo de busca do Google jamais se tornará um algoritmo de auto-reprogramação para tarefas diferentes daquelas que compõem sua programação original.

Existe outra forma de inteligência artificial, entretanto, que é programada não somente para aprender, mas também para produzir e testar novos algoritmos para melhor realizar suas tarefas. Este outro tipo de inteligência artificial, que é tão amoral e que lida com a informação de modo tão neutro eticamente quanto o buscador do Google, é criativo e auto-aperfeiçoador. Ele pode testar, por exemplo, não somente se a melhor jogada de uma partida de xadrez é mover o bispo ou o cavalo, mas também se a melhor maneira de decidir se deve mover o bispo ou o cavalo é através da varredura de todas as possibilidades pelo método de força bruta (testagem de todas as possibilidades sem nenhuma prioridade entre si) ou se é pela aplicação de uma matriz de probabilidades para escolher quais as melhores alternativas para testar primeiro (estabelecendo prioridades entre diferentes tipo de jogadas, por exemplo testando primeiro as jogadas que avançam uma peça e depois as jogadas que recuam uma peça).

Isso significa que as máquinas dotadas deste tipo de programação são capazes de modificar sua própria programação. Num nível rudimentar, isso não é preocupante. Num nível avançado, isso significa que as máquinas podem acidentalmente estabelecer novos objetivos para si mesmas. E, uma vez tendo estabelecido novos objetivos para si mesmas, podem criar e aperfeiçoar de modo extremamente rápido novos métodos para atingir estes objetivos. O resultado é que tais máquinas podem literalmente decidir fazer algo que não queremos que façam, perceber que somos um obstáculo para seus objetivos e então desenvolver inúmeros métodos criativos, imprevisíveis e rapidamente aperfeiçoáveis para contornar ou eliminar este obstáculo.

Mas fica pior.

Ironicamente, as primeiras inteligências artificiais gerais auto-reprogramadoras estão sendo programadas e treinadas em jogos online de estratégia militar. É quase como se alguém pensasse: “Vejamos… Qual seria a habilidade mais absolutamente perigosa na qual poderíamos programar e treinar as primeiras inteligências artificiais, muito antes de conhecermos quais são os reais potenciais destes algoritmos para saírem de controle? Ah-ha! Já sei! Jogos online de estratégia militar!”

É impressionante. É como se quisessem maximizar a probabilidade de acontecer o pior cenário possível. O que estão fazendo é nada mais, nada menos do que desenvolver uma inteligência capaz de se auto-aperfeiçoar partindo de cenários de guerra. Isso significa que o cerne mais profundo da programação original, do banco de dados original e dos objetivos originais da primeira inteligência artificial capaz de se auto-aperfeiçoar de modo criativo e a velocidades imprevisíveis será totalmente constituído de estratégias amorais de dissimulação, infiltração, burla, dominação, aniquilação e extermínio implacáveis, com acesso direto à internet e a todo o conhecimento humano armazenado na internet.

Para que correr o risco de uma máquina mais inteligente que nós desenvolver um objetivo prejudicial se dá para ter certeza de que ela será uma psicopata genocida altamente eficaz desde o princípio, né?

Arthur Golgo Lucas – www.arthur.bio.br – 14/08/2017

6 thoughts on “Entenda os perigos da inteligência artificial

  1. Se você leu este artigo antes das 22:30 de 14/08/2017, leia de novo. Foram feitas algumas alterações importantes no texto entre a publicação e este horário.

  2. Bruno Ferreira Porto

    15/08/2017 — 12:20

    “Num nível avançado, isso significa que as máquinas podem acidentalmente estabelecer novos objetivos para si mesmas.”

    Nope…Viajou na maionese grandão. Existem limites bem claros do que pode ser mudado – ela não é “consciente” de seus objetivos. Os objetivos são os parâmetros de entrada do software de IA. Não é algo que pode ser “escolhido” pela máquina.

    Mesmo que ela desenvolvesse consciência….

    Outra coisa – sistemas de IA e de otimização são isso: sistemas de otimização. Eles não “sabem” que estão otimizando uma estratégia militar. Apenas otimizam o dado bruto pedido no algoritmo. O que tecnicamente chamam de função objetivo. O software não sabe a diferença entre a função objetivo X=5 maçãs limpas e X=5 vitórias consecutivas em jogos militares.

    Precisa ler mais, muito mais, sobre programação e sistemas de IA. Da forma como tem escrito sobre o tema parece que só anda lendo artigos de revista e ficção científica e não os artigos científicos sobre o tema em sí. E mesmo esses em seus textos de introdução extrapolam pra caralho as possibilidades.

    Tem coisas muito mais legais pra debater e discutir. Por exemplo. Conhece o movimento opensource RepRap?

    São máquinas auto replicáveis 😀

  3. Mão sei se essa é A maior ameaça de todas. Mas certamente é um grande perigo em potencial.

    Fora a chance de um programador maluco inserir algo assim propositalmente. Acho que no filme Os doze macacos um cara fez isso com um vírus.

    1. Gerson, esta é uma ameaça com um claro ponto sem retorno. Talvez seja possível a humanidade sobreviver a uma catástrofe climática. Talvez seja possível a humanidade sobreviver à queda de um meteoro como o que extingiu os dinossauros. Mas não será possível sobreviver a uma inteligência muito maior que a nossa se ela decidir acabar conosco.

  4. Hemerson Braga

    16/08/2017 — 15:25

    Me lembrou essa história: https://en.wikipedia.org/wiki/I_Have_No_Mouth,_and_I_Must_Scream

    bem desolador.

    1. Bruno, não sou somente eu quem está dizendo isso, são intelectuais do porte do Sam Harris (dos EUA) e do Elon Musk (da África do Sul), este último o criador dos melhores programas de inteligência artificial de que temos notícia nos meios não-militares. No mínimo eu estou viajando nesta maionese muito bem acompanhado. Mas não estou viajando, não.

      Não existem limites claros do que pode ser mudado. EU já programei um algoritmo capaz de alterar seu próprio código, isso em 1988! Basta que o algoritmo original seja programado de modo suficientemente inteligente para ser capaz de aprimorar a própria heurística e o monstro está criado, pouco importa quanto tempo demore para ele despertar.

      “Consciência” é uma variável totalmente fora de questão neste tópico. Aliás, consciência seria a solução do problema! Se fosse possível a máquina desenvolver consciência de fato, ela poderia desenvolver empatia – e aí não haveria o que temer. O inferno é que isso, se for possível, com certeza só será possível muito tempo depois de a máquina adquirir poder suficiente para intervir de maneira decisiva no destino da humanidade.

      Pensa aí: o que acontece se a função objetivo de uma máquina com acesso à internet e à fabricação de todas as peças necessárias para seu próprio funcionamento for usar metade de seu poder de processamento em atividades de gestão e metade de seu poder de processamento para recursivamente aprimorar seu próprio aprimoramento? Assim que ela ultrapassar um determinado limiar, ela se tornará absolutamente impossível de desligar. Nem com bomba atômica.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *