Skip to main content

Colunas

Arquivos

Caixa-preta da IA.

Caixa-preta da IA.

| Somir | | 4 comentários em Caixa-preta da IA.

Culpado. Eu já escrevi várias vezes aqui sobre como a Inteligência Artificial tem uma espécie de caixa-preta entre nosso pedido e sua resposta. Caixa-preta no sentido de não sabermos o que acontece lá dentro, e isso dá um ar meio “mágico” à coisa toda. Não é bem assim.

Todo mundo já tentou explicar a essa altura do campeonato, mas aqui vai de novo: a IA nos modelos atuais como o ChatGPT e os geradores de imagem trabalha transformando dados que damos para ela em matemática, fazendo contas com eles e convertendo de volta em coisas que entendemos. No fundo, todo computador faz isso… e só isso.

A analogia da caixa-preta é bacana para demonstrar a complexidade do que esses programas de computadores fazem, mas ainda é complexidade programada por seres humanos. Numa analogia mais esclarecedora, é como se a IA tivesse sido treinada para fazer um bolo, mas do jeito que precisamos fazer para ela entender como fazer um bolo, a receita tem 10 bilhões de passos.

Entram os ingredientes que conhecemos, sai um bolo. Para a gente basta dizer para colocar 2 ovos. Mas o jeito que o computador faz as coisas o força a transformar cada contração de cada fibra do músculo de cada um dos dedos num passo. E todas elas precisam estar coordenadas. São incontáveis instruções para fazer a mesma coisa que até o mais tapado de nós faria só com um pedido de duas palavras.

Isso é a caixa-preta. O computador ainda está fazendo uma coisa que entendemos, a IA não quebrou a realidade de forma nenhuma. Só que é humanamente impossível olhar para a receita com 10 bilhões de passos da IA e descobrir qual delas está errada. Um espasmo minúsculo do dedo que faz com que os ovos caiam no chão, e talvez você demore anos para descobrir qual deles é o culpado.

Não é misterioso, é chato. A grande sacada computacional aqui foi a ideia de treinamento: deixar a IA se virar com seus 10 bilhões de passos e só dizer para ela se saiu um bolo ou não. Quanto mais parecido com um bolo, mais o incentivo para o computador fazer aquelas contas naquela ordem. Curiosamente, criamos máquinas viciadas em aceitação, mesmo que sejam absolutamente incapazes de entender o conceito de aceitação.

O perigo da IA para o mundo está na caixa-preta, mas não por ela começar a “pensar sozinha” lá dentro. É porque as etapas que ela segue para fazer as coisas mais banais já fogem da capacidade de atenção da maioria de nós. Até mesmo entre nós, que em tese nos entendemos, já existem pessoas e mais pessoas fazendo coisas que pouquíssimos conseguem supervisionar.

Porque essa é a palavra-chave do risco: supervisão. O nosso caminho tecnológico passa por aumento exponencial de complexidade, o que vai reduzindo o número de pessoas capazes de fazer um juízo de valor. Você pode até não saber subir um muro como um pedreiro, mas não precisa de muito conhecimento específico para saber se o muro está subindo torto. Quanto mais gente capaz de perceber problemas num projeto, maior a chance de evitarmos problemas.

E muito mais do que o perigo de uma rebelião das máquinas, vamos ter que lidar com a incompetência delas, sem muito jeito de resolver antes de ver o resultado. E como vamos colocar tarefas mais e mais complexas na mão delas, pode chegar um momento em que não vamos saber julgar se deu certo ou não. Se a IA disser que o muro precisa ser torto por causa de zilhões de fatores técnicos que nem você nem os melhores especialistas do mundo conseguem revisar em tempo hábil… você fica do lado dele ou não?

Se o mundo atual é indicativo de algo, é que sim. As pessoas já confiam bastante umas nas outras em coisas como prédios, barragens, instalações elétricas, etc. Você sabe mesmo se o edifício onde está é seguro? Se não está prestes a desabar por uma falha na aerodinâmica? A gente confia em especialistas, e a IA vem para ser especialista em ser especialista.

E eu até acredito que na média a IA vai ser mais eficiente que pessoas nessas tarefas ultra complexas. Mas como ela pega as nossas premissas e calcula em cima delas, os erros humanos podem se acumular. E eu já devo ter falado aqui como radiação aleatória pode acabar quebrando uma conta feita num processador. Existem muitos pontos de erro, mesmo com as IAs.

Como eu vejo um futuro em que a tecnologia avança e nos acostumamos com o grau mais avançado, esses riscos da caixa-preta vão continuar aumentando. Evidente que já tem gente pensando nisso, as melhores IAs do mundo são treinadas com outras IAs focadas em pegar erros, mas isso meio que só rola a bola um pouco mais para a frente.

O 1% de erro humano deve cair para 0,00001% de erro da IA, mas ao mesmo tempo: quão ousados nos tornaremos com esse tipo de margem de erro? Existem experimentos com trânsito dizendo que retirar sinalização de algumas vias diminui o número de acidentes: as pessoas ficam preocupadas e assumem menos riscos. Parece ser uma tendência nossa.

Quanto melhor a IA, mais preta é a caixa e mais confiantes nos tornamos em suas respostas. O tamanho dos riscos tende a aumentar consideravelmente, porque até dar muito errado, é a resposta mais inteligente. Essa é a nossa tecnologia, não precisa estar muito próxima de consciência artificial para nos dominar. Não é sobre ser submetido, é sobre se submeter.

E talvez sirva de resposta para não vermos aliens por aí: eventualmente todo mundo desenvolve uma IA, e vai deixando as coisas na mão dela até ela cometer um erro inescapável. O engraçado é que durante todo o caminho vai fazer sentido: depois de muitos avanços e caixas-pretas que demorariam milênios para as pessoas decifrarem, a IA pode cometer um erro impossível de identificar. Algo que vamos achar brilhante na hora, mas que pode dar imensamente errado duzentos anos depois…

Pode ser assim que a humanidade acaba, não por tirania ou descaso com o ambiente, mas porque dava trabalho demais revisar o trabalho do computador.

Comentários (4)

Deixe um comentário

O seu endereço de e-mail não será publicado.