Entenda os perigos da inteligência artificial

O desenvolvimento de uma inteligência artificial geral é sem sombra de dúvida o maior perigo que a humanidade já enfrentou, enfrenta ou enfrentará. É mais perigoso que uma guerra nuclear total entre todas as potências atômicas. É mais perigoso que a pior das ideologias que você possa imaginar. É mais perigoso que tudo. Entenda aqui por quê. 

Imagine uma máquina estúpida, muito estúpida, assim como a máquina em que você está lendo este artigo. Seu computador pessoal ou smartphone é certamente uma máquina muito estúpida. Ele não consegue nem sequer completar uma frase de modo adequado. Se você escrever “atirei o pau no ____”, ele não será capaz de completar a frase para você. Você terá que digitar “gato”. Mas esta máquina não tem inteligência artificial. Ela nunca será capaz de completar a frase se não for programada para aprender a fazer isso.

Entretanto, se um número suficientemente grande de pessoas fizer a busca “atirei o pau no gato” no Google, o Google oferecerá a frase completa como sugestão de pesquisa em algum ponto no meio da digitação. Este é um exemplo de máquina programada para aprender algo muito rudimentar: frases muito pesquisadas. E, no caso do Google, uma coisa a mais: ele também aprende quais são os sites mais relevantes para a busca “atirei o pau no gato”, com base em diversos indicadores, como quantos sites apontam para cada site com aquele conteúdo, a frequência de cliques em cada resultado de busca e vários outros.

Isso é um exemplo de inteligência artificial, sem dúvida. As máquinas do Google interagem com o mundo em através de uma série de critérios, aprendem a oferecer resultados “melhores” – segundo aqueles critérios. As máquinas do Google não julgam moralmente ou eticamente ou de qualquer outra forma os critérios, porque elas simplesmente não sabem o que é moral ou ética, elas são totalmente amorais e eticamente neutras no tratamento da informação.

Além desta amoralidade e neutralidade, as máquinas do Google são programadas para aperfeiçoar seu banco de dados, não seu próprio funcionamento. O buscador do Google não reprograma a si mesmo, a não ser em um nível muito rudimentar. Deixado à própria sorte, o algoritmo de busca do Google jamais se tornará um algoritmo de auto-reprogramação para tarefas diferentes daquelas que compõem sua programação original.

Existe outra forma de inteligência artificial, entretanto, que é programada não somente para aprender, mas também para produzir e testar novos algoritmos para melhor realizar suas tarefas. Este outro tipo de inteligência artificial, que é tão amoral e que lida com a informação de modo tão neutro eticamente quanto o buscador do Google, é criativo e auto-aperfeiçoador. Ele pode testar, por exemplo, não somente se a melhor jogada de uma partida de xadrez é mover o bispo ou o cavalo, mas também se a melhor maneira de decidir se deve mover o bispo ou o cavalo é através da varredura de todas as possibilidades pelo método de força bruta (testagem de todas as possibilidades sem nenhuma prioridade entre si) ou se é pela aplicação de uma matriz de probabilidades para escolher quais as melhores alternativas para testar primeiro (estabelecendo prioridades entre diferentes tipo de jogadas, por exemplo testando primeiro as jogadas que avançam uma peça e depois as jogadas que recuam uma peça).

Isso significa que as máquinas dotadas deste tipo de programação são capazes de modificar sua própria programação. Num nível rudimentar, isso não é preocupante. Num nível avançado, isso significa que as máquinas podem acidentalmente estabelecer novos objetivos para si mesmas. E, uma vez tendo estabelecido novos objetivos para si mesmas, podem criar e aperfeiçoar de modo extremamente rápido novos métodos para atingir estes objetivos. O resultado é que tais máquinas podem literalmente decidir fazer algo que não queremos que façam, perceber que somos um obstáculo para seus objetivos e então desenvolver inúmeros métodos criativos, imprevisíveis e rapidamente aperfeiçoáveis para contornar ou eliminar este obstáculo.

Mas fica pior.

Ironicamente, as primeiras inteligências artificiais gerais auto-reprogramadoras estão sendo programadas e treinadas em jogos online de estratégia militar. É quase como se alguém pensasse: “Vejamos… Qual seria a habilidade mais absolutamente perigosa na qual poderíamos programar e treinar as primeiras inteligências artificiais, muito antes de conhecermos quais são os reais potenciais destes algoritmos para saírem de controle? Ah-ha! Já sei! Jogos online de estratégia militar!”

É impressionante. É como se quisessem maximizar a probabilidade de acontecer o pior cenário possível. O que estão fazendo é nada mais, nada menos do que desenvolver uma inteligência capaz de se auto-aperfeiçoar partindo de cenários de guerra. Isso significa que o cerne mais profundo da programação original, do banco de dados original e dos objetivos originais da primeira inteligência artificial capaz de se auto-aperfeiçoar de modo criativo e a velocidades imprevisíveis será totalmente constituído de estratégias amorais de dissimulação, infiltração, burla, dominação, aniquilação e extermínio implacáveis, com acesso direto à internet e a todo o conhecimento humano armazenado na internet.

Para que correr o risco de uma máquina mais inteligente que nós desenvolver um objetivo prejudicial se dá para ter certeza de que ela será uma psicopata genocida altamente eficaz desde o princípio, né?

Arthur Golgo Lucas – www.arthur.bio.br – 14/08/2017

Os inimagináveis perigos da inteligência artificial

Inteligência não significa sabedoria, nem ética. A inteligência não produz sabedoria, nem ética. E a inteligência não está correlacionada à sabedoria, nem à ética. Entretanto, é a inteligência, não a sabedoria, nem a ética, que permite atuar de modo mais poderoso e eficaz em busca de objetivos específicos, independentemente do quanto a sabedoria e a ética apontem para um quadro geral indesejável. Construir uma inteligência maior que a nossa é, portanto, literalmente suicídio.

Não estou sendo dramático. Nem mesmo com a ilustração do artigo, cujo único problema é ser antropomórfica. E não sou o único a me preocupar com o futuro da espécie humana em função do óbvio desenvolvimento irresponsável que estamos promovendo da inteligência artificial.

O quão grave isso pode ser? Ninguém sabe. Exatamente por isso eu usei a palavra inimaginável no título do artigo. Mas aquilo que podemos imaginar com nosso intelectozinho pífio já é suficientemente preocupante. Vou descrever um pouco da encrenca para ver se você compreende o tamanho dela.

Gary Kasparov tem um QI (quociente de inteligência) de aproximadamente 190. Isso faz dele aproximadamente duas vezes mais inteligente que qualquer ser humano médio do planeta. Isso também o coloca no 99,9999999 percentil da distribuição de inteligência, ou seja, um em um bilhão. É altamente provável que Kasparov seja uma das dez pessoas vivas mais inteligentes hoje. Para que você tenha uma idéia do que significa isso, a diferença entre a inteligência de Kasparov e a média humana é proporcional à diferença entre a média humana e um chimpanzé muito esperto. Pois bem.

Kasparov aprendeu xadrez quando criança, estudou o jogo intensa e obsessivamente por toda a sua vida e se tornou o melhor jogador de xadrez humano de todos os tempos, sendo discutível e infelizmente impossível de descobrir o resultado de um confronto direto seu com Bobby Fischer. Indubitavelmente um jogador excepcional, praticamente insuperável por outro ser humano. Porém…

Kasparov nunca mais vencerá um computador numa partida de xadrez. Nunca. É impossível.

Entenda bem isso: a melhor mente enxadrista humana conhecida, no auge de sua forma, após uma vida de esforço máximo e desempenho espetacular, não poderá jamais vencer uma única partida de xadrez do melhor computador enxadrista existente – e nenhuma outra mente humana jamais o fará. Gary Kasparov foi o último ser humano a vencer uma partida contra a melhor máquina. E esta é uma previsão 100% segura.

Daqui para diante, por mais que criemos técnicas incrivelmente sofisticadas para ensinar xadrez para crianças cada vez mais novas, por mais que surja algum nerdzinho com QI de 250 apaixonado e obcecado pelo xadrez desde a mais tenra infância, por mais que implantemos chips de processamento auxiliar no cérebro de um ser humano assim, jamais superaremos novamente a inteligência artificial no jogo de xadrez.

Um computador que joga xadrez, entretanto, possui um tipo de inteligência artificial chamado de inteligência específica. No que tange à inteligência específica, é fácil a inteligência artificial superar o ser humano – e não há nenhum, absolutamente nenhum risco para nós neste fato. Isso porque a inteligência artificial específica sempre ficará contida dentro de um cérebro eletrônico específico e sempre poderá facilmente ser reprogramada ou desligada. Mas esse não é o único tipo de inteligência artificial que existe.

Existe um tipo de inteligência artificial em desenvolvimento chamado de inteligência geral. Este é o tipo realmente perigoso, por ser imprevisível e incontrolável. Basicamente, a inteligência artificial específica é programada para aprender sobre algum assunto. Por exemplo, xadrez. A inteligência artificial geral, porém, é programada para aprender a aprender. Ela procura não somente aprender a jogar xadrez melhor, mas a aprender como aprender a jogar xadrez melhor. E aí começa o problema.

Se você está ensinando uma criança a jogar xadrez e ela se vê numa situação na qual é impossível vencer o jogo, mas é possível forçar o empate, ela vai limitar este aprendizado às condições do tabuleiro, porque isso é óbvio para um ser humano. Para um cérebro eletrônico, entretanto, não há como prever o que seria “óbvio”. A inteligência artificial pode muito bem entender a instrução para “fazer todo o esforço possível para não perder partida alguma” de um modo diferente do esperado. E então, quando ela tiver acesso à internet, ela pode perfeitamente decidir que apoderar-se secretamente do arsenal atômico mundial para exterminar a espécie humana com um ataque surpresa é uma ótima estratégia para nunca mais perder uma partida de xadrez.

Lembre-se do que eu disse no início deste artigo: “Inteligência não significa sabedoria, nem ética. A inteligência não produz sabedoria, nem ética. E a inteligência não está correlacionada à sabedoria, nem à ética. Entretanto, é a inteligência, não a sabedoria, nem a ética, que permite atuar de modo mais poderoso e eficaz em busca de objetivos específicos, independentemente do quanto a sabedoria e a ética apontem para um quadro geral indesejável.” Era disso que eu estava falando.

A terrível Skynet, da franquia de filmes O Exterminador do Futuro, começou exatamente assim. Infelizmente, filmes daquele tipo dificilmente seguem um caminho lógico, buscando explorar de modo realista as consequências de uma boa sacada original. Pancadaria, tiroteio e efeitos especiais incríveis acabam superando a coerência e a qualidade da trama, o que é uma lástima, porque O Exterminador do Futuro pode vir a se tornar um filme profético. Não em relação à viagem no tempo, nem em relação ao antropomorfismo das máquinas, mas em relação ao desenvolvimento da inteligência artificial e à perda de controle sobre ela – porque é disso, afinal, que trata toda a franquia. Ou é a leitura mais sensata que deve ser feita dela, do ponto de vista do nerd aqui. Mas há uma falha assombrosa entre a periculosidade das máquinas dos filmes e as que nos exterminariam na vida real.

Uma vez que uma inteligência artificial geral tenha recebido a instrução primária de aprender a aprender, é bastante óbvio que ela irá sempre aperfeiçoar tanto o seu aprendizado quanto sua capacidade de aprendizado. Isso permite prever com facilidade que, a partir de um determinado ponto – quando o primeiro computador puder aperfeiçoar independentemente o seu próprio hardware – a inteligência artificial geral se expandirá em velocidade assombrosa.

Isso significa que não estaremos mais lidando com um computador com um QI de pouco mais de 190, mas com um computador cujo QI crescerá continuamente. Nós podemos imaginar um diálogo fascinante com ele quando ele tiver um QI de 250. Nós podemos imaginar que ele crie programas de computador fantásticos e construa coisas incríveis para nós quando elevar seu próprio QI para cerca de 500. Mas o que acontecerá quando ele elevar seu QI para cerca de 1.000.000? Ou mais ainda?

Nós não temos nem sequer como imaginar isso. A escala de uma inteligência assim não é compreensível pelo cérebro humano.

Pense no HAL 9000, o computador da nave de 2001, uma Odisséia no Espaço. HAL 9000 tinha a capacidade de ler nossos lábios. Conseguiu matar vários seres humanos e só não matou todos porque não previu uma pequena possibilidade. Mas ele teve que ler os lábios dos astronautas para saber que eles estavam preocupados com seu comportamento e planejando algo que conflitava com suas diretivas. Imagine o que aconteceria se HAL 9000 tivesse um QI de 1.000.000 e uma imensa base de dados sobre fisiologia e psicologia humanas. Ele poderia prever a conspiração humana não através da leitura dos lábios, mas através de pequenas variações eletromagnéticas de uma pessoa parada pensando de olhos fechados tentando não dar pistas para o computador. E ele poderia reagir a velocidades muito maiores que qualquer ser humano. Como você enganaria uma máquina assim para recuperar o controle sobre ela?

A resposta é: você não enganaria jamais uma máquina assim. Tudo o que você pensasse ela teria previsto. Tudo o que você tentasse ela saberia contornar. Seria um mundo completamente sem esperança de mudança. Num mundo assim, se a inteligência artificial geral não for extremamente sábia, ética e bondosa, para todo o sempre, estaremos ferrados. O que me leva a uma pergunta interessante:

O que é mais fácil de construir, e que portanto será construído primeiro? Uma inteligência artificial geral capaz de aumentar sua própria capacidade de modo incrivelmente rápido ou uma inteligência artificial geral capaz de aumentar sua própria capacidade de modo incrivelmente rápido e seguro, sem qualquer tipo de falha e sem qualquer possibilidade de perda de controle mesmo quando ela se tornar muito mais inteligente que nós? 

Arthur Golgo Lucas – www.arthur.bio.br – 10/07/2017