Desliga.

Em tese, já devemos estar muito próximos de uma inteligência artificial generalista. Mesmo que ainda não exista o código necessário para colocar entre nós uma mente artificial capaz de aprender e adaptar-se a qualquer situação, já temos capacidade de processamento nos computadores para acomodar tais funções, demanda e muita pesquisa. Faz sentido tratar essa tecnologia como uma questão de “quando” ao invés de “se”. Mas nesse caminho aparentemente inescapável, temos alguns dilemas da mente robótica que ainda não estão resolvidos, e a resposta errada pode ser catastrófica…

Sou o primeiro a te dizer que duvido que robôs tentem escravizar a humanidade. Não por serem bons ou maus, mas por não ser um meio simples de conquistar um resultado. Pessoas dão muito trabalho e gastam muita energia para fazer coisas relativamente simples. A não ser que sejamos a única forma de energia à lá Matrix, não há grandes vantagens práticas em ter o controle sobre seres humanos. E, que tipo de objetivo idiota é esse de escravizar a humanidade? Até mesmo para a maioria de nós, que somos humanos e nos importamos mais com nossa espécie, parece muito complexo para relativamente poucas recompensas além das que vem no pacote de ser extremamente rico, por exemplo.

Além disso, mesmo que nos pareçam nebulosas às vezes, precisamos de motivações para fazer o que fazemos. No ser vivo, manter-se vivo e reproduzir-se estão no topo das motivações instintivas, mesmo que na prática não tenhamos racionalizado essas necessidades. Nossos instintos não deixam de ser uma programação que gera motivação para agirmos. Ninguém precisa te explicar que você quer continuar vivo, ninguém precisa te convencer que você se sente atraído sexualmente por pelo menos um grupo de seres humanos. O código natural aí existe sem nenhuma racionalização. Fomos programados para isso, e ponto.

Evidente que evoluímos para motivações mais complexas do que comer e fazer sexo, mas elas continuam lá e com poucas exceções dominam a mente da maioria das pessoas, nem que seja de tempos em tempos. Estou falando disso porque nós e as supostas inteligências artificiais generalistas não seremos tão diferentes assim. Não exatamente no objeto do instinto, mas no instinto mesmo assim: uma inteligência artificial desenvolvida para reduzir as emissões de carbono do mundo, por exemplo, não precisa saber porque tem que fazer isso ou se preocupar com os resultados, só precisa achar uma forma de fazer. A programação fundamental de uma IA é muito parecida com um instinto nesse ponto.

Quem nunca fez alguma besteira pela programação instintiva de fazer sexo que jogue a primeira pedra: sabemos como mesmo com uma motivação irracional podemos desencadear processos muito mais complexos e grandiosos. No exemplo da IA, vamos imaginar algo muito simples: o objetivo programado de levar uma caixa do ponto A ao ponto B. Como é uma inteligência generalista, que aprende na hora o que precisa, tecnicamente não precisa explicar para o robô o que é uma caixa, onde ela está e como chegar ao resultado desejado: o cérebro robótico é capaz de depreender tudo isso através de sensores e informações coletadas em tempo real. Uma câmera observa o ambiente em busca da caixa, dos pontos e um complexo sistema de caminhos é desenvolvido na memória dele, baseado na geometria do local onde se encontra.

Essa parte, extremamente complexa, é a fácil. O problema começa quando a inteligência artificial precisa tomar uma decisão abstrata, do tipo que fazemos milhares de vezes por dia. Vamos considerar o seguinte: o robô pesa mais ou menos uma tonelada, há uma linha reta entre ponto A e ponto B. Mas, nessa linha reta, bem no meio dela, está passando a tartaruga de estimação do cientista que montou o robô. A tartaruga é daquelas pequenas que costumam ficar em aquários. O robô é capaz de notar a presença do animal, mas… desviar da tartaruga significa atrasar a entrega da caixa em vários segundos. O robô também sabe que com seu peso e seu material de construção, poderia continuar em linha reta esmagando a tartaruga sem danos à estrutura e batendo o menor prazo possível para a entrega da caixa.

E obviamente, o robô foi programado para completar seus objetivos o mais rápido possível. Senão, como saber se é para começar assim que recebe a ordem ou se dez mil anos depois? Como saber se é para fazer todo o possível para completar a tarefa logo? O instinto programado do robô é o de tomar o caminho mais rápido possível. Ninguém disse pra ele que a vida de uma tartaruga é mais importante que completar a tarefa no menor tempo possível. Ou seja: azar da tartaruga, porque o robô vai passar por cima dela. O que o cientista pode fazer para salvar seu animal de estimação?

Como o robô age sozinho, precisa de alguma forma de impedimento externo. O cientista foi esperto para colocar um botão de desliga bem grande no que seria o peito do robô. Bateu no botão, o robô para o que quer que esteja fazendo na hora. Então, o cientista corre até o caminho do robô e tenta bater no botão. O que acontece então pega o humano de surpresa: o robô impede a ativação do botão com um de seus braços. Oras, o robô então está com medo de morrer?

Não, o robô está obedecendo sua programação. Quem quer fazer uma tarefa no menor tempo possível com certeza não quer um macaco pelado cacetando um botão que o desliga. Se você, robô, for desligado, a tarefa para a qual foi programado fica parada por tempo indeterminado! Então, para entregar a caixa no menor tempo possível, você precisa pisar na tartaruga e impedir que o humano consiga tocar o botão de desliga. Nada pessoa, apenas sua tarefa. Por sorte o cientista foi cauteloso de deixar programado no robô uma trava contra ferir seres humanos. Não importa o que estivesse programado na memória da IA, o fato de colocar um humano em risco de dor ou morte suplantaria automaticamente o objetivo.

Depois de algum esforço, o botão finalmente é apertado e a tartaruga salva. O robô não podia ferir o cientista. O cientista então decide mexer no código, dizendo que não se pode impedi-lo de apertar o botão, e a forma de fazer o robô entender isso é criar um sistema de recompensas: para que o robô nunca ache melhor completar uma tarefa do que permitir que o botão seja apertado, define que qualquer tarefa dá uma recompensa de 1, e o aperto do botão a recompensa de 2.

Liga o robô, agora com uma tartaruga de plástico no caminho. O robô imediatamente aperta o próprio botão. O instinto programado diz que a melhor recompensa é apertar o botão, o robô aprende imediatamente que pode apertar o botão… problema resolvido. De volta à programação: agora o cientista iguala as recompensas. Liga o robô novamente: ele aperta o botão novamente. Oras, é mais rápido apertar o botão do que entregar a caixa. E o instinto robótico diz que mais rápido é melhor.

Mais uma tentativa: o cientista define que se o próprio robô apertar o botão, a recompensa vai para zero. Com isso, o robô teria que completar a missão para ganhar a recompensa. Mas, o instinto é poderoso: o robô aprendeu que numa situação de estresse para o cientista, ele aperta o seu botão. Ele percebe que ganha a recompensa de um ponto se levar a caixa, o que gasta energia e tempo. O cálculo é feito: o mais simples é ameaçar o cientista até ele apertar o botão: mais econômico e rápido. O robô sabe que não pode machucar o humano, mas aprende rapidamente que o ser humano não tem certeza sobre o que se passa em sua mente. E mesmo que tenha, humanos tem muito medo de máquinas com potencial assassino. O robô aprende a mentir. Ameaça o cientista com seus braços mecânicos, conquistando o aperto do botão gastando metade da energia e do tempo que gastaria caso entregasse a caixa no lugar certo.

Nesse exemplo, evidente que você começou a pensar em inúmeras soluções diferentes do que mandar o robô fazer, mas o problema é o código sujo que teríamos de montar: com milhares de regrinhas que o robô seria incapaz de intuir (assim como nós também fomos ao crescer) por não serem condizentes com seus instintos (programação original). Se uma inteligência artificial que aprende e evolui sozinha precisa de uma quantidade de regras enormes que são adicionadas a cada comportamento indesejável, estamos abrindo a porta para erros e confusões: porque a regra imposta é instinto da mesma forma. E instintos, naturais ou artificiais, são propensos a derivações grandiosas quando racionalizados.

No exemplo da inteligência artificial que quer diminuir a emissão de carbono, se não houver uma lógica intrínseca muito bem definida do que é o instinto e até onde ele pode ir, a cada cinco minutos alguém teria que apertar o botão de desligar e programar um novo impedimento. E se os impedimentos estiverem atrapalhando o desenvolvimento da tarefa, a inteligência artificial vai simplesmente impedir que ele seja apertado. Ou, se for recompensada por isso, ser completamente inútil na sua tarefa, vivendo desligada, mentindo e dissimulando para conseguir seus resultados o mais rápido possível. Mesmo sem ter nenhuma intenção nociva contra nós.

Instintos são poderosos, mesmo que sejam artificiais. E esse é um dos maiores desafios da inteligência artificial atualmente. Se você é capaz de pensar numa solução para isso, o mundo precisa de você.

Para dizer que o robô deve ser brasileiro, para dizer que meu instinto é te matar de tédio, ou mesmo para jogar uma pedra: somir@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Etiquetas:

Comentários (13)

  • Isso é tão interessante!

    Sempre procuro fazer um paralelo do computador com o ser humano. Ao tentar influenciar alguém por exemplo, cada palavra conta. Um “a” no lugar errado por exemplo, faz diferença, nem que seja 0,001% do resultado.

    Sendo assim, existem infinitas variáveis.

    • E as variáveis vão acumulando, numa progressão caótica que tende ao incompreensível. Eu sempre tento reduzir assuntos polêmicos aos menores denominadores comuns, justamente para evitar lidar com toda a zona que tendemos a fazer quando pensamos sobre eles…

  • Talvez isso só seja possível o dia que criarem uma IA, com uma capacidade mínima de evoluir por conta própria, sem que seja necessária a presença de um humano fuçando nos seus circuitos o tempo todo para dizer o que tem que ser feito. Com a humanidade foi assim (ou não?), milênios e milênios de evolução, de contenção dos instintos sem ninguém fuçando nos nossos neurônios. Então, o que eu quero dizer, é que existem problemas tão complexos em relação às máquinas, que a solução talvez só seja possível vindo das próprias máquinas. (Ou será que eu tô viajando demais?).

    • Não acho que seja viagem não… a questão é como criar um sistema que com o tempo saiba separar “verdades fundamentais” de “regras cagadas” para seu otimizar. Uma informação confusa no começo da cadeia de decisões pode levar à insanidade, tipo o robô que se desliga porque acha mais vantajoso do que fazer o que foi pedido.

      Talvez tenha solução, talvez não. Os robôs com certeza serão mais interessantes com algumas falhas lógicas inerentes…

  • Esse texto me despertou uma reflexão inusitada: à partir do seu exemplo, cheguei à conclusão de que seria impossível a atribuição da atividade jurisdicional a uma inteligência artificial.
    Cada caso concreto submetido a um robô-juiz seria como o inesperado de uma tartaruga de estimação no meio do caminho mais curto do ponto A ao ponto B. Diante dessa inovação inesperada, não seria possível obter uma resposta lógica satisfatória por meio do processo decisório da inteligência artificial sem que haja em seu código milhares de regrinhas que ele seja incapaz de intuir por não serem condizentes com sua programação original. E a quantidade dessas regras necessárias a serem adicionadas a cada comportamento indesejável tende ao infinito.

    • E a sua reflexão refletiu em outro ponto: será que robôs e pessoas são tão diferentes assim? O sistema judiciário não pode estar justamente sofrendo com esse conceito de regrinhas adicionais infinitas? Vou jogar um balde de água gelada no meu cérebro e já volto.

      • Ahhh, a IA… vou morrer agarrada nos meus livros de papel defasados, mas acho que a IA é muita utopia (pelo menos por mais alguns anos).
        O anseio primordial da IA é o desenvolvimento de uma inteligência que seja capaz de, por conta própria, evoluir em seu aprendizado e na tomada de decisões. Mais ou menos é o ser humano brincando de ser “deus” ou “natureza”.
        E aqui eu acho que vale um argumento: se quer brincar, que seja para ir além. Se quer criar um cérebro similar ao humano, que faça algo que possa superar evolutivamente o desempenho das nossas próprias capacidades.
        Mas voltando um pouquinho do delírio delusional, enquanto forem implementados algoritmos com milhares e milhões de regras abrangendo todos os aspectos da tomada de decisão, isso será apenas um trabalho “braçal” (de imenso valor intelectual, complexo e trabalhoso, mas numa análise mais fria, ainda assim “braçal”), porque é detalhar o que já é conhecido.
        Só que se o próprio ser humano aprende através de regras (ou da contestação delas), o desafio é, como o
        Somir disse, descobrir qual é o diferencial para que a IA possa se tornar auto evolutiva. E descobrindo esse diferencial, poderíamos aplicá-lo aos próprios seres humanos? Teríamos uma nova metodologia de aprendizado desconhecida?
        Não dá para esquecer que há vários aspectos de inteligência, inclusive emocional. Se muitas tomadas de decisão são feitas com base em aspectos subjetivos, como a IA aprenderia e evoluiria o conceito de subjetividade?
        No exemplo do sistema judiciário, acho que em alguns casos ele segue uma infinidade de regras pré estabelecidas que tornam processos onerosos e intermináveis, mas e se ele passasse a usar mais de subjetividade e menos de regras na tomada de decisões? Isto não geraria um caos no sistema? Afinal, sempre haveria alguém insatisfeito de um lado, mas com embasamento nas regras para tentar reverter as decisões. E no caso da IA, se ela usasse essa suposta subjetividade, não iria gerar um certo caos também?

        • E no caso da IA, se ela usasse essa suposta subjetividade, não iria gerar um certo caos também?

          O caos não deixa de ser uma ilusão criada por limitação de compreensão dos padrões. Enquanto não existir alguma entidade capaz de analisar todas as probabilidades sobre basicamente toda a informação existente no universo, não vai existir nada imune ao caos.

          O sistema é caótico mesmo. Com ou sem máquinas. Talvez o grande segredo da inteligência artificial seja abraçar o caos, ao invés de tentar botar ordem nele. Partindo do princípio que a partir de um certo grau de complexidade (e comportamento humano com certeza gera um elevado) sempre vai parecer caótico para observadores… talvez os robôs nunca saciem essa nossa necessidade de justiça perfeita. Então, na dúvida, prefiro alguém imperfeito que julgue dez mil casos por dia do que dez.

          Esses assuntos sempre escalam…

Deixe uma resposta

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: