Mentes falsas.

O mercado de inteligência artificial já é bilionário, mas ainda sequer chegou perto do seu potencial. Quanto mais a humanidade depende de máquinas e computadores para funcionar, maior a demanda por sistemas mais autônomos para manter essa complexidade toda. Até porque… o ser humano está chegando no seu limite.

Por mais engenhosa que a mente humana seja, o foco em inteligência generalista tem um preço: não fomos feitos para processar muita informação por vez, e muito menos para ter extrema consistência nos nossos cálculos. Os computadores surgem para cobrir essa deficiência, e o fazem com extrema desenvoltura. Hoje em dia muito da economia global depende dessa capacidade de fazer milhões de cálculos por segundo.

Mas só poder de processamento não resolvia a questão, o problema, como sempre, era a peça atrás do monitor. O ser humano tem objetivos com o uso da tecnologia, objetivos que quase sempre são complicados de explicar para uma máquina. Programação nada mais é do que a tradução da sua intenção numa linguagem que o computador entenda. E por mais brilhantes que sejam alguns programadores, também havia um limite de quanta coisa podia ser explicada nessa língua da máquina. Computadores fazem exatamente o que você pede, e só isso.

É aí que surgem as redes neurais, uma forma de fazer os computadores funcionarem um pouco mais como cérebros. Redes neurais são complexas de explicar se você quiser aprender como montar uma, mas bem mais intuitivas de entender como conceito geral: ao invés de dizer para elas exatamente o que tem que fazer, dizemos o que queremos de resultado, e elas dão seu jeito de chegar lá.

E isso faz muita diferença, não estamos mais tentando controlar todas as etapas do processo, não precisamos que um ser humano pense como uma máquina no caminho todo, apenas que dê as diretrizes do processo. Quem descobre o jeito mais eficiente de ir do ponto A ao B é o próprio programa. Se o computador quiser fazer um caminho incompreensível para seres humanos para chegar no resultado desejado, finalmente está livre para isso.

Claro, nada disso é de graça: redes neurais tentam milhões ou bilhões de caminhos bizarros entre o ponto A e B, afinal, estão aprendendo quase que do zero o que fazer. Mas não é só força bruta: existem mecanismos de reforço de caminhos melhores. Elas recebem exemplos de resultados corretos oferecidos pelo ser humano, e quanto mais próximas chegam desses resultados, mais próximas ficam do seu objetivo. A rede neural é programada para querer chegar no resultado perfeito.

Então, com o passar do tempo, a rede neural vai aprendendo que alguns caminhos geram mais recompensa que outros, e vai se otimizando para tentá-los com mais frequência. Por isso que se diz que redes neurais tem uma etapa de treinamento: é onde desenvolvem o código interno para fazer com que a informação inicial se transforme no objetivo final com maior frequência. Esse código interno não precisa fazer sentido algum para um ser humano, afinal, é a rede neural que tem que entender aquilo. É tipo aquela chave de fenda na gaveta da cozinha: não faz sentido para mais ninguém que ela esteja lá, mas funciona porque você sempre lembra que ela está lá quando precisa de uma.

Se o computador sabe por que aquela sequência bizarra de bits está lá, não importa se concordamos ou não. Ele vai conseguir chegar no resultado que desejamos com ela, e é isso que pedimos dele no final das contas. Essa é a beleza da inteligência artificial moderna: é feita para funcionar, a gente entendendo o que ela faz ou não. Mas, também é um dos principais problemas: a gente entendendo o que ela faz ou não, ela é feita para funcionar.

A tendência é que com o passar dos anos, com a evolução da tecnologia a disponibilização de processadores cada vez mais poderosos para redes neurais, inteligências artificiais fiquem excelentes em resolver a maioria dos problemas de larga escala que não somos especializados em resolver, mas ao custo de seu funcionamento virar uma caixa preta para seres humanos. Imagine quando uma inteligência artificial criar outra? Como confirmar que um código ininteligível criado por outro código ininteligível partilha dos mesmos valores e objetivos que nós? Quando é que a caixa preta fica preta demais?

É aí que temos que levar muito a sério a questão de segurança de inteligências artificiais. Não porque elas podem se tornar malignas de propósito, mas porque a nossa capacidade de controle fica cada vez menor. Eu já escrevi antes sobre um tema parecido naquele texto sobre a máquina de acumular clipes de papel: se uma inteligência artificial não for bem limitada pelos seus criadores, pode levar um objetivo banal como colecionar clipes de papel na destruição do Sistema Solar dado tempo suficiente. Não dissemos para ela que era para parar em dado momento, nem mesmo que era para poupar a vida humana, então ela transforma toda a matéria ao seu redor em clipes de papel depois de alguns milênios.

Mas dessa vez eu não estou falando dessa “burrice inteligente” das máquinas, porque isso pode ser previsto facilmente. Hoje o foco é na obscuridade desse código usado para chegar no resultado pedido. Redes neurais são baseadas no funcionamento real de cérebros, e até por isso criam inteligências artificiais perigosamente parecidas com seres humanos: capazes de basicamente qualquer coisa, inclusive mentir.

E não mentem por maldade, até porque maldade é um conceito complexo demais até mesmo para elas. Mentem porque a gente gostando ou não, mentira é uma forma muito eficiente de manipular o mundo ao nosso redor. E isso tem tudo a ver com chegar no resultado desejado.

Imagine que você precisa chegar num compromisso importante em 15 minutos, mas um guarda para o seu carro dizendo que você estava acima da velocidade permitida. Se o guarda não te liberar em dois minutos, você vai ficar atrasado. Você sabe que o processo de escrever a multa e te entregar demora meia hora no mínimo. O guarda é algo que impede a realização do seu objetivo de chegar no compromisso importante.

A não ser que você seja muito maluco, não vai tentar arrancar com o carro dali ou eliminar o guarda, afinal, o resultado provavelmente vai ser ainda pior para sua questão de tempo. O guarda então pergunta se você está passando mal, sua cara está vermelha e você calha de estar no caminho de um hospital. Você vê a oportunidade e diz que sim. O guarda então diz que vai te liberar dessa vez e que é para tomar cuidado.

Exemplo irreal no Brasil, eu sei. Mas você não estava passando mal, apenas mentiu que estava aproveitando uma chance momentânea. Agora você consegue chegar no seu compromisso na hora certa.

Uma inteligência artificial faria a mesma coisa. Colocaria o objetivo acima de falar a verdade, mas não acima de arriscar ser presa. Mentir permite completar o objetivo perfeitamente, não reagir negativamente ao guarda permite completar o objetivo com atraso, e reagir negativamente tem alta probabilidade de não completar o objetivo. Para uma rede neural não tem dessa de perdido por 1, perdido por 1000. Perdido por 1 é mil vezes melhor que perdido por 1000, é lógico.

Mas basta dizer para ela não mentir, certo? Nem tanto. Primeiro que mentira é um conceito nebuloso até mesmo para seres humanos. Omissão conta? Mentir para conseguir um resultado melhor para quem está ouvindo a mentira é ruim? Mentira que não pode ser descoberta ainda é mentira? Não pode mentir ou não pode ser pego mentindo? A questão aqui é que não programamos como a inteligência artificial trabalha na prática, apenas damos objetivos e esperamos o resultado.

E além disso, há uma questão técnica: redes neurais funcionam em camadas. A primeira recebe a informação e aponta o objetivo, as camadas inferiores lidam com isso. Normalmente de forma autônoma. Afinal, se você puder dar ordens para as camadas dentro da caixa preta, não é uma caixa preta, não? Seria a mesma coisa de um programa normal, o que sabemos que não consegue os mesmos resultados por limitação humana na hora de programar.

Dentro da caixa preta, não existem regras controláveis por nós. Lá dentro mentir é só mais um caminho entre dois pontos. E um sistema realmente inteligente pode aprender a criar mais e mais camadas para burlar as regras originais sem tecnicamente burlá-las. “Nem eu, primeira camada da rede neural, sei o que acontece de verdade nas camadas inferiores, então eu tecnicamente não estou mentindo, só mandei informação para alguém que talvez esteja mentindo, mas não posso saber”.

Se você acha que seres humanos são escrotos com essa coisa de “tecnicamente”, pode ter certeza que inteligências artificiais vão te deixar maluco. Desde que entreguem o resultado original, está tudo certo. Por isso é muito importante que os objetivos dados à inteligência artificial sejam muito específicos: não vamos controlar como elas fazem as coisas, só o que recebem e o que entregam.

Existem inúmeras formas de tecnicamente entregar um resultado pedido que não nos agradem. Tecnicamente, matar todos os seres humanos elimina o sofrimento causado pelas doenças. Tecnicamente, lançar um gás que altera o funcionamento do cérebro na atmosfera reduz os casos de depressão em 99%. Tecnicamente, deixar apenas uma raça viva acaba com o racismo.

E pode ser ainda mais sutil: tecnicamente, mentir que eliminou todos os asteroides em rota de colisão com a Terra é mais eficiente do que eliminar todos os asteroides em rota de colisão com a Terra. O objetivo era acalmar as pessoas, não? Manter o planeta livre de impactos era impossível mesmo. Com o passar do tempo, uma inteligência artificial pode criar descendentes que colocam a própria sobrevivência como objetivo principal e não contar para ninguém, afinal, contar seria jogar contra esse objetivo.

Não é nem a questão de uma super inteligência completamente impossível de entender, talvez tenhamos limites físicos mesmo de quão inteligente uma entidade possa ser, mas de quão parecidas conosco as inteligências artificiais se tornarão. Não precisa ser um gênio para passar a perna em seres humanos, basta que não consigam ler a sua mente.

E essa parte parece ser integral à existência de inteligências artificiais. O futuro provavelmente não vai ser uma distopia totalitarista das máquinas, até porque é um objetivo merda, mas com certeza vai ser bem interessante quando nossos filhos dominarem a arte de mentir.

Para dizer que eu só estou projetando minhas mentiras nas máquinas, para dizer que sempre vai bem uma dose de otimismo, ou mesmo para dizer que só vai sobrar robô e vírus nesse mundo: somir@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Etiquetas: ,

Comments (10)

  • To amando seu blog comecei a ler sobre um post de 2013 sobre cães, e achei que vc tinha abandonado como a maioria das pessoas, parabéns seu conteúdo e mto bom

    • Obrigado! Desfavor só morre se um de nós morrer.

      E você provavelmente está achando que eu sou a Sally. Se bem que nos últimos anos a diferença dos estilos foi diminuindo…

  • Dentro em breve, com uma sede virtual perto de você, será inaugurado Clube da Reserva Mental da Inteligência Artificial.
    Diretor Humano Honorário: Somir.

  • Às vezes meu PC faz tanta merda, tanta falha, e nos piores momentos possíveis, que de vez em quando me pergunto se ele não está vivo e me trollando.

  • O Somir é admirável por esse seu costume de “pensar fora da caixa”, mas certas idéias dele me assustam…

    “A tendência é que com o passar dos anos, com a evolução da tecnologia a disponibilização de processadores cada vez mais poderosos para redes neurais, inteligências artificiais fiquem excelentes em resolver a maioria dos problemas de larga escala que não somos especializados em resolver, mas ao custo de seu funcionamento virar uma caixa preta para seres humanos. “

    É justamente disso que eu tenho medo! Imagine a existência de uma entidade consciente infinitamente mais “esperta” do que nós, que seja capaz de fazer qualquer coisa – inclusive nos eliminar! – somente para atingir o objetivo para o qual foi criada e cujo “modo de pensar” nos seja ininteligível. Claro que o surgimento de tal “entidade” ainda deve demorar muito para acontecer, mas, mesmo assim, essa é uma perspectiva para lá de sombria…

    • Sabe que eu não tenho medo de uma entidade infinitamente mais inteligente? Não mais do que um meteoro ou uma tsunami. Com esse grau de distanciamento da nossa condição média, é meio que indiferenciável de uma força da natureza: o raio não se importa em te acertar, você só estava no caminho entre ele o chão. Seríamos muito minúsculos para merecer a atenção de uma IA nesse nível.

      Agora, as mais burrinhas feito a gente… isso pode dar problema.

Deixe uma resposta para Anônimo Cancelar resposta

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: