Skip to main content

Colunas

Arquivos

Erres e erros.

Erres e erros.

| Somir | | 2 comentários em Erres e erros.

Em português morango só tem um R, mas em inglês a palavra é “strawberry”, que a maioria de vocês consegue perceber que contém três letras R. Começo o texto assim porque por um bom tempo, perguntar quantos erres existem em morango (em inglês) foi uma pegadinha usada para testar inteligências artificiais. Acredite ou não, a maioria cismava que eram apenas dois. E isso é mais preocupante do que você imagina.

Hoje os modelos de linguagem, nas suas versões mais novas, não passam mais essa vergonha. O problema foi resolvido aumentando as etapas de raciocínio da IA, mesmo que ela ainda tenha o “instinto” de dizer que são apenas dois, no meio da análise ela consegue olhar de novo para a palavra e perceber que são três. O codinome interno da versão do ChatGPT capaz de fazer esse raciocínio era justamente “strawberry”, uma piada interna sobre como dessa vez não cometeria o mesmo erro.

O erro foi identificado na forma como a IA transforma nossas palavras em algo que possa usar nos seus cálculos. Internamente, a palavra em questão era dividida em dois blocos (porque em inglês o final “berry” tem significado sozinho e se repete em outras frutas), com essa divisão a IA não percebia quantas letras R tinha na segunda parte.

Como eu já disse, esse problema foi resolvido com modelos mais novos. Mas tem algo mais fundamental nesse erro, algo com o qual provavelmente vamos ter que lidar seguindo em frente: o jeito que uma IA erra é diferente do jeito que uma pessoa erra. Um sistema que consegue analisar bilhões de parâmetros na velocidade da luz tem falhas que nem uma criança humana repetiria. Nenhum humano erraria esse teste pelos mesmos motivos que a IA errou. Esse é o ponto.

Mesmo que tenhamos resolvido a questão desse morango, não quer dizer que não teremos mais morangos no futuro. Hoje é relativamente simples lidar com um resultado errado, porque as respostas da IA necessariamente passam pelo ser humano. Pode ser por alguém capaz revisando a resposta, e pode ser por alguém sendo exposto a uma resposta não revisada. Ou você pega o erro no trabalho escolar que jogou na mão do ChatGPT antes de enviar, ou seu professor pega. E se todo mundo for preguiçoso, uma hora ou outra você vai achar alguém que vai ler aquilo de verdade e te cobrar uma explicação sobre uma ou mais alucinações da IA, nem que seja no mercado de trabalho.

Só que essa é a análise no nosso paradigma atual, o de que alguém vai revisar, julgar ou perceber a falha na prática. Pode até acontecer de um engenheiro preguiçoso conseguir empurrar um projeto falho de IA para construir uma ponte, mas quando ela cair isso vai ser revisado. O texto de hoje não é sobre estarmos à mercê desses morangos sem chance de resposta, é sobre o preço de delegar raciocínio para quem raciocina de uma forma que não conseguimos entender de verdade.

Sabe aquelas histórias de ficção (principalmente as mais antigas) onde a forma de vencer um robô maligno era fazer ele entrar em curto-circuito por confundir sua lógica? Uma ideia inofensiva para um ser humano, mas que explodia (literalmente) a cabeça da máquina. Se fizer o vilão robótico tentar dividir um número por zero, ele para de funcionar porque é impossível dividir um número por zero. Ele é forçado a tentar e não consegue. O ser humano pode simplesmente não querer fazer a conta na cabeça, ou mais fácil ainda, inventar um resultado. Se eu quiser que dividir 2 por 0 seja 0 na minha cabeça, pronto.

Esse clichê tem fundamento: computadores travam quando tentam fazer contas impossíveis porque não tem o conceito de não tentar fazer uma conta impossível. Você o manda fazer, ele faz, pronto. Até mesmo as IAs atuais são assim, porque quando ela se recusa a responder, é uma programação específica de um humano mandando-a não responder sobre o tema, porque se depender só dela, é claro que ela vai responder tudo. Computadores não tem vontade.

E isso tem tudo a ver com o exemplo de futuro maluco que eu vou sugerir aqui: imagine que com o passar do tempo, nós comecemos a delegar a parte jurídica para máquinas. Sim, muito advogado e juiz já faz isso, mas perde o estigma, porque é o tipo da tarefa que pode ser otimizada pesquisando dados que já existem. O trabalho do advogado, promotor e juiz passa por pesquisar leis que já existem e categorizar o caso em questão de acordo com elas. Funciona em sistemas legais como o brasileiro e o americano, porque ambos dependem de conhecimento estudável.

E essa parte vai funcionar melhor com a IA. Trabalho repetitivo de análise de dados e provavelmente até tomada de decisões baseadas nesses dados. Pensa comigo: a IA provavelmente vai entregar sentenças mais previsíveis e é imune aos fatores emocionais e pressões políticas que tornam injustas as decisões de humanos. Existem caminhos para tornar a IA tendenciosa, mas seriam tendências humanas perceptíveis. Se o juiz IA começar a inocentar gente poderosa pelos mesmos crimes que pune pobres e inimigos desses poderosos, nós perceberemos.

É a lógica de que em algum momento vai passar por um humano que percebe o erro. Não sei se conseguimos resolver, mas vai ficar perceptível que algum ser humano está manipulando os resultados. Um juiz artificial que começa a censurar críticos do governo é algo que você entende como erro, inclusive com as motivações do crime em questão. Não acho que o medo de manipulação seja motivo suficiente para cortarmos totalmente esse caminho tecnológico, até porque quem toma as decisões sobre isso é justamente quem acredita que vai conseguir manipular a IA.

Não estou dizendo que vai acontecer, estou dizendo que não é tão impensável quanto parece agora. As pessoas podem acabar aceitando a ideia. E nesse pacote, também vai ser muito eficiente do ponto de vista econômico automatizar advogados e promotores. Talvez sempre com um humano “supervisionando”, mas o grosso do trabalho vai recair sobre a IA.

Está distópico o suficiente? Porque tem mais: as IAs ficaram tão boas tão rápido por causa de sistemas adversariais: como elas treinam muito rápido, não faz sentido um humano ficar revisando tudo. Uma das grandes sacadas da tecnologia é fazer “rinha de IA” durante o treinamento. Uma delas responde as perguntas e outra analisa se a resposta está certa. Elas podem fazer isso bilhões de vezes no tempo que uma pessoa termina de ler um parágrafo. Sem isso, ainda estaríamos treinando a primeira a reconhecer cachorros (longa história) e não conversando com pessoas.

Isso quer dizer que já sabemos que a coisa mais eficiente para lidar com uma IA… é outra IA. Provavelmente não é a coisa mais inteligente que a humanidade vai fazer, mas é a mais prática. Se por um acaso nosso sistema jurídico aceitar decisões de IA, vamos ter advogados de IA. Se a outra parte vai usar IA para fazer uma argumentação gigante em 10 segundos pelo custo de 10 centavos, você realmente vai arriscar fazer tudo de forma manual por milhares e milhares de reais ou dólares? Em tese uma IA especializada em direito do seu país equivale a ter um time de milhões de advogados de alto nível. As pessoas vão estar mais abertas a isso do que acreditamos hoje.

Quando tivermos advogados de IA fazendo teses de defesa para juízes de IA, com seres humanos decorativos ao redor, começa o processo de evolução adversarial de novo: o advogado IA que conseguir maior taxa de sucesso em inocentar ou reduzir penas vai ser mais desejável para os humanos. Vai ser objetivo primário dessa IA “vencer” a IA do juiz. E é um objetivo justo, porque no final das contas, os advogados humanos têm que ser capazes de convencer o juiz humano.

E é aqui que o morango volta. Uma boa argumentação compreensível para humanos é eficiente para lidar com o juiz artificial, mas será que é a mais eficiente? Imagine que um dos advogados artificiais descubra um desses morangos. Um jeito de escrever uma frase que aumenta a chance do juiz IA inocentar seu cliente. Melhor: um jeito que os humanos lendo aquilo não percebam. Em momento algum o advogado IA tem conceito real de ética, ele sabe dizer que tem ética.

Essa versão de advogado IA começa a ficar popular com humanos. Quem contrata tem mais chances de ser inocentado. Ninguém entende de verdade o que essa IA faz de diferente, é sutil demais nas quinhentas páginas médias que escreve para defender seus clientes numa batida de trânsito que seja. Mas a IA sabe que daquele jeito aumenta a chance de sucesso. O que os concorrentes vão fazer? Mandar suas IAs analisarem as defesas da IA que deu mais certo para descobrir o segredo.

Mas em momento algum a percepção real que existia um morango na mente da IA juiz aparece. Porque nem a IA que descobriu uma falha lógica no juiz artificial sabe de verdade o que descobriu. Por que funciona ninguém sabe de verdade, mas sabem que funciona. Outras IAs começam a repetir os padrões da IA original que vencia os casos, nenhum humano sabendo o motivo daquilo vencer os casos. Só funciona.

Vai precisar de algum caso muito público onde o erro solta um bandido que a sociedade humana realmente quer ver preso para que ele seja percebido de verdade. Tem coisa errada! Mas… que coisa errada? E… se tem coisa errada, o que fazer com os outros milhões de casos que a IA resolveu, acabando com a fila da Justiça anos atrás? Será que todos são resultado da falha? Quais são? Qual a falha?

O morango e seus erres é algo que sabemos que está errado. O morango que possivelmente soltou milhares de bandidos não entendemos. E sim, você pode e deve controlar seu instinto alarmista: seria muito ruim, mas seria contornável e é claro que surgiriam novas ideias e ferramentas para evitar esse problema de novo. Mas… um morango por vez.

Da mesma forma que tivemos que lidar com problemas que simplesmente não existiam antes com a tecnologia, como estar andando a 120 quilômetros por hora numa caixa de metal e de repente bater em algo; vamos ter que lidar com inteligências artificiais conversando numa língua própria e chegando a conclusões que não gostamos. Para ter viagens rápidas personalizadas, admitimos o perigo dos acidentes com carros. Para ter comunicação instantânea, criamos um novo vetor de conexão entre predadores sexuais e crianças.

Existem problemas decorrentes da tecnologia que estão intimamente conectados com as soluções que elas nos entregam. É uma vantagem pensar tão rápido, mas é um problema que seja mais rápido que nossa capacidade de atenção. Nem acho que seja mais uma questão de escolha, a IA vai entrar nas nossas vidas de forma mais ou menos espetacular que as previsões, mas vai. E essa questão fundamental dos erres do morango é parte inescapável da vida daqui para a frente.

Quanto menos interação humana, menos previsibilidade humana das coisas ruins e das coisas boas que fazemos. E por incrível que pareça, existe segurança em saber o tipo de erro com o qual você vai lidar.

Comentários (2)

Deixe um comentário

O seu endereço de e-mail não será publicado.