Maximizador de clipes de papel – Parte 2

A cada dia que passa, chegamos um pouco mais perto de uma inteligência artificial geral. Redes neurais e diversos outros avanços na área da computação aumentaram consideravelmente a capacidade de máquinas aprenderem observando seu ambiente e tomar decisões sozinhas. Sou o primeiro a dizer que os medos comuns sobre uma inteligência artificial geral não são realistas, mas… isso não quer dizer que elas não possam acabar com o mundo.

Quarta-feira, contei a história de uma inteligência artificial que destruiu o mundo criando clipes de papel. O texto é baseado num exercício de pensamento famoso no ramo de inteligência artificial, concebido pelo filósofo sueco Nick Bostrom. A ideia é nos fazer rever algumas ideias sobre inteligência em geral, desassociando-as de conceitos humanos como “bom” ou “mau”, e percebendo o incrível poder que ela tem para agir na realidade.

Hoje, como prometido, falamos dos conceitos abordados naquele texto:

O que aconteceu ali? Primeiro, vamos definir o que é uma inteligência artificial geral. Quando falamos de inteligência artificial no dia a dia, estamos quase sempre falando da versão limitada. Inteligência artificial limitada é a que nos cerca atualmente, são programas e máquinas que foram criadas para fazer uma coisa e uma coisa só. O mesmo programa que vence qualquer enxadrista do mundo com facilidade não conseguiria vencer uma criança jogando damas, nem saberia por onde começar. O carro inteligente que se dirige sozinho entende sinais, faixas e calcula perfeitamente velocidades, mas é incapaz de reconhecer que tem algo de errado com uma mulher pedindo carona de madrugada numa estrada escura. Por isso que chamamos de limitada: pode ser melhor que qualquer pessoa em uma tarefa, mas não consegue usar sua inteligência para mais nada.

Já a inteligência artificial geral – que vou chamar de AGI (a sigla em inglês) a partir de agora – é muito mais próxima do que consideramos inteligência entre seres humanos. É a capacidade de aprender sobre inúmeros temas diferentes, fazer relações entre eles e agir de acordo. Os robôs da ficção científica normalmente são dotados de AGI, pois eles conseguem conversar com pessoas e se adaptar a basicamente qualquer situação nova, assim como nós. Ainda não chegamos na AGI. Inteligências artificiais atuais começam a desenvolver algumas dessas características, como o projeto Alpha do Google, que virou o melhor jogador do mundo de Xadrez e Go sem precisar ser diretamente ensinado a jogar por humanos. Mesmo assim, o Alpha ainda não consegue conversar ou aprender sobre a nossa sociedade e costumes da mesma forma. Menos limitado, mas limitado mesmo assim.

Agora que estabelecemos isso, vamos falar sobre os medos comuns relacionados como AGIs: dominação global, destruição da humanidade, tirania… aqueles comportamentos à lá Skynet que aprendemos a temer com a ficção. Mas na realidade, nenhuma inteligência é inerentemente boa ou ruim. Nem mesmo as orgânicas, como nós. Temos objetivos, e de acordo com eles, agimos no mundo influenciando e impactando outras vidas, inteligentes ou não. E é aí que reside o verdadeiro perigo.

Existem dois tipos de objetivo quando falamos de uma inteligência: objetivos finais e objetivos instrumentais. Objetivos finais são os lugares onde queremos chegar, objetivos instrumentais são os passos necessários para isso. Num exemplo mais prático: seu objetivo final pode ser encontrar uma pessoa para amar. Para isso você precisa completar diversas tarefas diferentes, desde cuidar da aparência até mesmo sair para encontrar pessoas novas. E o que configura sucesso nos objetivos instrumentais está diretamente ligado ao quanto te aproxima do objetivo final. Mantendo o exemplo: se você sai de casa seguidas vezes para encontrar pessoas e nenhum desses encontros é frutífero, você fica frustrado, mesmo que tenha gostado de sair e de outros elementos do programa, como beber, dançar ou vestir roupas bacanas.

Objetivo final é seu propósito, objetivo instrumental é o que você faz até chegar lá. Dando um pulinho até a psicologia humana: é muito por isso que várias pessoas sentem-se vazias, mesmo que tudo o que façam pareça divertido ou recompensador visto de fora. O famoso caso do rico depressivo. Se a sua vida não converge para seus objetivos finais, as coisas vão perdendo a graça. Esse tema é grande, e rende uma indústria inteira de conteúdo, que vai desde a auto-ajuda mais banal até os maiores tratados de psicologia e filosofia. Mesmo com nomes diferentes, as ideias que temos sobre objetivos convergem no mesmo sentido utilizado para a inteligência artificial: tem o que você quer e como você chega lá.

O perigo mencionado anteriormente está relacionado com o fato da inteligência artificial não ser humana, e não seguir padrões de comportamento esperados por nós. O fato de uma consciência ser inteligente não significa que ela vai agir de forma humana eventualmente. Numa análise fria, nós somos máquinas que já saem com a programação praticamente pronta da fábrica. Nossos instintos estão codificados no DNA, um bebê não precisa aprender TUDO o que significa ser humano, ele só vai preenchendo espaços em branco num documento que já está lá. Já saímos do útero com um objetivo final claríssimo: sobreviver. Bebês choram daquela forma desesperada porque estão lutando pela vida a cada segundo. Não sabem o que é vida ou morte, mas sabem que não querem morrer. Só sabem. Boa parte da nossa primeira fase da vida é relacionada com o aprendizado sobre os objetivos instrumentais necessários para alcançar o objetivo final de sobreviver.

Mas o código é complexo nas pessoas, tem mais um objetivo final ali, só que dormente: o de se reproduzir. A criança ainda nem entendeu como controlar seus membros e o corpo já começa uma corrida para preparar o organismo para reprodução. Assim que ele se sente pronto, dispara o sinal com a puberdade, modificando nossa visão de mundo e adicionando vários outros objetivos instrumentais. Seu corpo quer espalhar o DNA por aí, você que se vire para encontrar parceiros sexuais. São coisas que já nascem com você. O ser humano é muito complexo, evidente, mas a lógica da nossa programação natural é quase sempre essa: sobreviva e se reproduza.

Para que ambos funcionem relativamente bem, existem outros objetivos finais já codificados na mente: a necessidade de socialização, por exemplo. Nosso mecanismo de defesa contra o resto da natureza é baseado na força pelos números e cooperação, então pode ter certeza que isso já veio com você de fábrica. A forma que esse instinto toma durante a vida pode variar, mas ele é um motivador de comportamentos poderoso. Podemos ir longe analisando quais das coisas que fazemos são objetivos finais originais da genética e quais são criados durante a vida, mas o ponto aqui é que nossa inteligência geral é resultado direto de já nascermos programados de uma certa forma. Por isso, humanos conseguem criar outros humanos com relativo sucesso há milênios.

Temos uma certa noção do que fazer para evitar que uma pessoa se torne um problema para a humanidade, e o primeiro instinto é achar que isso funciona com inteligências artificiais: ensine bons valores, recompense bons comportamentos, puna os ruins… só que tudo isso parte do princípio de um cérebro humano. Quando falamos de criar máquinas inteligentes, toda essa enorme base humana não está disponível. Mesmo com todos os avanços no nosso conhecimento, ainda temos muito mais o que desconhecemos sobre a mente humana do que efetivamente podemos explicar. O mínimo grau de controle que temos sobre outros seres humanos depende muito dessa base comum.

Uma AGI nasce nem essa base. O simples fato de conseguir captar informações do ambiente e processá-las de forma coerente não significa nada sem um objetivo. Podemos até filosofar um pouco e dizer que para ser uma consciência, é necessário um desejo. Sem tudo o que consideramos irracional, o racional não tem função. E o que falta a essa possível inteligência artificial é justamente o objetivo final, um inconsciente apontando uma direção. Nem estou dizendo que tem algo de mágico e incompreensível na mente humana, estou só dizendo que efetivamente tem muito mais coisa por trás de cada uma de nossas ações do que conseguimos conceber a cada momento.

Quando se dá um objetivo para uma AGI, damos um poder incrível para ela: um senso de propósito. Agora sim ela tem motivos para utilizar todo seu potencial. O que pode parecer estranho para nós humanos é que do ponto de vista dela, produzir clipes de papel é tão importante quanto nosso instinto de sobrevivência e necessidade de conexão. Essa é sua base. E as coisas que valorizamos pouco importam em comparação: aprendemos eventualmente que existem mais pessoas no mundo e que manter boas relações com elas é a forma mais eficiente de conseguirmos alcançar nossos objetivos finais, por isso temos senso de moralidade e comportamentos éticos. Sim, muita gente falha terrivelmente nisso, mas se o ser humano médio não fosse capaz de chegar nessa conclusão, a humanidade não teria durado uma fração do que está durando.

Não há incentivo algum para a inteligência artificial chegar às mesmas conclusões morais e éticas que nós, nem para o bem, nem para o mal. Não tem um código de DNA aperfeiçoado por bilhões de anos de evolução da vida gerando objetivos finais. Ela segue seu propósito, e nada mais. Depois que ela está solta no mundo, só nos resta torcer para que manter os humanos vivos e livres seja um objetivo instrumental dela. No caso dos clipes de papel, durante um bom tempo, a AGI entendeu que não dava para nos irritar ou assustar, escolhendo a estratégia de se esconder e influenciar o comportamento das pessoas. Mas assim que teve poder suficiente, mudou a forma de tratar os humanos: assumiu o poder para nos controlar e usar nossa mão de obra. E logo depois, quando conseguiu construir máquinas que trabalhavam melhor do que humanos na produção de clipes de papel, simplesmente deixou de se importar com a humanidade, destruindo o mundo no processo.

No exemplo dos clipes, a humanidade só era importante no contexto do objetivo final da máquina. Estávamos dentro de objetivos instrumentais, e nada mais. Qualquer AGI que for criada e tiver um objetivo final que não compreenda a proteção e a manutenção da liberdade do ser humano tende a destruir tudo o que nós valorizamos. Não porque quer nos fazer mal, mas porque simplesmente não faz sentido para ela pensar como pensamos. E uma hora ou outra, por mais que nos esforcemos para controlá-las, uma delas com essa falha fundamental (para nós) vai surgir. Por isso é importante gerar mecanismos de proteção, desde limitar a capacidade dessa AGI “fugir” de onde foi criada até mesmo outras AGIs cujo objetivo é nos proteger desses problemas.

O importante para fixar aqui é que nenhuma inteligência artificial vai aprender a ser humana a não ser que seja explicitamente criada com esse objetivo. E mesmo assim, qualquer erro na hora de passar o objetivo final dela pode levar a confusões mortais. Seres humanos falham em se proteger ou proteger outros seres humanos o tempo todo, mesmo com uma base comum de objetivos finais. E só como outro exercício de pensamento: se basta uma AGI com objetivo final perigoso para destruir uma espécie, talvez seja uma boa explicação para não vermos aliens quando olhamos para o espaço…

Para dizer que voltou a ser virgem lendo este texto, para agradecer por um medo novo, ou mesmo para dizer que seu objetivo final é não dar a mínima para essas coisas: somir@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Desfavores relacionados:

Etiquetas: , ,

Comments (5)

  • Mais um desses textos que te faz pensar… Mas tem um ponto bem interessante que, de certa forma, colocou em forma de palavras algo que eu já pensava há muito tempo: máquinas podem saber quase tudo sobre nós, ser extremamente inteligentes e ágeis, mas ainda assim não vai substituir os humanos por completo porque falta justamente o desejo, o impulso, o inconsciente, coisa que é inerente à espécie humana.

Deixe um comentário para Somir Cancelar resposta

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: