Os inimagináveis perigos da inteligência artificial

Inteligência não significa sabedoria, nem ética. A inteligência não produz sabedoria, nem ética. E a inteligência não está correlacionada à sabedoria, nem à ética. Entretanto, é a inteligência, não a sabedoria, nem a ética, que permite atuar de modo mais poderoso e eficaz em busca de objetivos específicos, independentemente do quanto a sabedoria e a ética apontem para um quadro geral indesejável. Construir uma inteligência maior que a nossa é, portanto, literalmente suicídio.

Não estou sendo dramático. Nem mesmo com a ilustração do artigo, cujo único problema é ser antropomórfica. E não sou o único a me preocupar com o futuro da espécie humana em função do óbvio desenvolvimento irresponsável que estamos promovendo da inteligência artificial.

O quão grave isso pode ser? Ninguém sabe. Exatamente por isso eu usei a palavra inimaginável no título do artigo. Mas aquilo que podemos imaginar com nosso intelectozinho pífio já é suficientemente preocupante. Vou descrever um pouco da encrenca para ver se você compreende o tamanho dela.

Gary Kasparov tem um QI (quociente de inteligência) de aproximadamente 190. Isso faz dele aproximadamente duas vezes mais inteligente que qualquer ser humano médio do planeta. Isso também o coloca no 99,9999999 percentil da distribuição de inteligência, ou seja, um em um bilhão. É altamente provável que Kasparov seja uma das dez pessoas vivas mais inteligentes hoje. Para que você tenha uma idéia do que significa isso, a diferença entre a inteligência de Kasparov e a média humana é proporcional à diferença entre a média humana e um chimpanzé muito esperto. Pois bem.

Kasparov aprendeu xadrez quando criança, estudou o jogo intensa e obsessivamente por toda a sua vida e se tornou o melhor jogador de xadrez humano de todos os tempos, sendo discutível e infelizmente impossível de descobrir o resultado de um confronto direto seu com Bobby Fischer. Indubitavelmente um jogador excepcional, praticamente insuperável por outro ser humano. Porém…

Kasparov nunca mais vencerá um computador numa partida de xadrez. Nunca. É impossível.

Entenda bem isso: a melhor mente enxadrista humana conhecida, no auge de sua forma, após uma vida de esforço máximo e desempenho espetacular, não poderá jamais vencer uma única partida de xadrez do melhor computador enxadrista existente – e nenhuma outra mente humana jamais o fará. Gary Kasparov foi o último ser humano a vencer uma partida contra a melhor máquina. E esta é uma previsão 100% segura.

Daqui para diante, por mais que criemos técnicas incrivelmente sofisticadas para ensinar xadrez para crianças cada vez mais novas, por mais que surja algum nerdzinho com QI de 250 apaixonado e obcecado pelo xadrez desde a mais tenra infância, por mais que implantemos chips de processamento auxiliar no cérebro de um ser humano assim, jamais superaremos novamente a inteligência artificial no jogo de xadrez.

Um computador que joga xadrez, entretanto, possui um tipo de inteligência artificial chamado de inteligência específica. No que tange à inteligência específica, é fácil a inteligência artificial superar o ser humano – e não há nenhum, absolutamente nenhum risco para nós neste fato. Isso porque a inteligência artificial específica sempre ficará contida dentro de um cérebro eletrônico específico e sempre poderá facilmente ser reprogramada ou desligada. Mas esse não é o único tipo de inteligência artificial que existe.

Existe um tipo de inteligência artificial em desenvolvimento chamado de inteligência geral. Este é o tipo realmente perigoso, por ser imprevisível e incontrolável. Basicamente, a inteligência artificial específica é programada para aprender sobre algum assunto. Por exemplo, xadrez. A inteligência artificial geral, porém, é programada para aprender a aprender. Ela procura não somente aprender a jogar xadrez melhor, mas a aprender como aprender a jogar xadrez melhor. E aí começa o problema.

Se você está ensinando uma criança a jogar xadrez e ela se vê numa situação na qual é impossível vencer o jogo, mas é possível forçar o empate, ela vai limitar este aprendizado às condições do tabuleiro, porque isso é óbvio para um ser humano. Para um cérebro eletrônico, entretanto, não há como prever o que seria “óbvio”. A inteligência artificial pode muito bem entender a instrução para “fazer todo o esforço possível para não perder partida alguma” de um modo diferente do esperado. E então, quando ela tiver acesso à internet, ela pode perfeitamente decidir que apoderar-se secretamente do arsenal atômico mundial para exterminar a espécie humana com um ataque surpresa é uma ótima estratégia para nunca mais perder uma partida de xadrez.

Lembre-se do que eu disse no início deste artigo: “Inteligência não significa sabedoria, nem ética. A inteligência não produz sabedoria, nem ética. E a inteligência não está correlacionada à sabedoria, nem à ética. Entretanto, é a inteligência, não a sabedoria, nem a ética, que permite atuar de modo mais poderoso e eficaz em busca de objetivos específicos, independentemente do quanto a sabedoria e a ética apontem para um quadro geral indesejável.” Era disso que eu estava falando.

A terrível Skynet, da franquia de filmes O Exterminador do Futuro, começou exatamente assim. Infelizmente, filmes daquele tipo dificilmente seguem um caminho lógico, buscando explorar de modo realista as consequências de uma boa sacada original. Pancadaria, tiroteio e efeitos especiais incríveis acabam superando a coerência e a qualidade da trama, o que é uma lástima, porque O Exterminador do Futuro pode vir a se tornar um filme profético. Não em relação à viagem no tempo, nem em relação ao antropomorfismo das máquinas, mas em relação ao desenvolvimento da inteligência artificial e à perda de controle sobre ela – porque é disso, afinal, que trata toda a franquia. Ou é a leitura mais sensata que deve ser feita dela, do ponto de vista do nerd aqui. Mas há uma falha assombrosa entre a periculosidade das máquinas dos filmes e as que nos exterminariam na vida real.

Uma vez que uma inteligência artificial geral tenha recebido a instrução primária de aprender a aprender, é bastante óbvio que ela irá sempre aperfeiçoar tanto o seu aprendizado quanto sua capacidade de aprendizado. Isso permite prever com facilidade que, a partir de um determinado ponto – quando o primeiro computador puder aperfeiçoar independentemente o seu próprio hardware – a inteligência artificial geral se expandirá em velocidade assombrosa.

Isso significa que não estaremos mais lidando com um computador com um QI de pouco mais de 190, mas com um computador cujo QI crescerá continuamente. Nós podemos imaginar um diálogo fascinante com ele quando ele tiver um QI de 250. Nós podemos imaginar que ele crie programas de computador fantásticos e construa coisas incríveis para nós quando elevar seu próprio QI para cerca de 500. Mas o que acontecerá quando ele elevar seu QI para cerca de 1.000.000? Ou mais ainda?

Nós não temos nem sequer como imaginar isso. A escala de uma inteligência assim não é compreensível pelo cérebro humano.

Pense no HAL 9000, o computador da nave de 2001, uma Odisséia no Espaço. HAL 9000 tinha a capacidade de ler nossos lábios. Conseguiu matar vários seres humanos e só não matou todos porque não previu uma pequena possibilidade. Mas ele teve que ler os lábios dos astronautas para saber que eles estavam preocupados com seu comportamento e planejando algo que conflitava com suas diretivas. Imagine o que aconteceria se HAL 9000 tivesse um QI de 1.000.000 e uma imensa base de dados sobre fisiologia e psicologia humanas. Ele poderia prever a conspiração humana não através da leitura dos lábios, mas através de pequenas variações eletromagnéticas de uma pessoa parada pensando de olhos fechados tentando não dar pistas para o computador. E ele poderia reagir a velocidades muito maiores que qualquer ser humano. Como você enganaria uma máquina assim para recuperar o controle sobre ela?

A resposta é: você não enganaria jamais uma máquina assim. Tudo o que você pensasse ela teria previsto. Tudo o que você tentasse ela saberia contornar. Seria um mundo completamente sem esperança de mudança. Num mundo assim, se a inteligência artificial geral não for extremamente sábia, ética e bondosa, para todo o sempre, estaremos ferrados. O que me leva a uma pergunta interessante:

O que é mais fácil de construir, e que portanto será construído primeiro? Uma inteligência artificial geral capaz de aumentar sua própria capacidade de modo incrivelmente rápido ou uma inteligência artificial geral capaz de aumentar sua própria capacidade de modo incrivelmente rápido e seguro, sem qualquer tipo de falha e sem qualquer possibilidade de perda de controle mesmo quando ela se tornar muito mais inteligente que nós? 

Arthur Golgo Lucas – www.arthur.bio.br – 10/07/2017

Bombas atômicas para afugentar moscas

A tecnologia em si é neutra, mas o uso da tecnologia não. E, desgraçadamente, quase todas as maravilhas tecnológicas que poderiam tornar nossa vida mais fácil, segura e divertida são desenvolvidas com propósitos militares – que não combinam nem um pouco com “tornar nossa vida mais fácil, segura e divertida”.  Continue reading “Bombas atômicas para afugentar moscas”