Objeção!

No começo do ano, surgiram várias notícias sobre como o ChatGPT tinha passado em exames oficiais para exercer a profissão de advogado (e até médico!), a inteligência artificial conseguia responder muito bem às questões. Pudera: tem na memória boa parte do conhecimento humano disponível. Mas o caso mais interessante envolvendo direito e inteligência artificial aconteceu recentemente: um advogado americano admitiu ter usado o ChatGPT para fazer a defesa do seu cliente… e foi um desastre.

O colombiano Roberto Mata processou a companhia aérea Avianca após sofrer uma lesão no joelho causada por um carrinho de serviço de bordo durante um voo de El Salvador para Nova York em 2019. O processo, bem maluco por sinal, o colombiano dizia que teve sua vida destruída por uma pancada no joelho, já estava para ser arquivado. O advogado de Mata, Steven A. Schwartz, entrou com um recurso, citando vários casos semelhantes ao dele em um documento de dez páginas.

Na lei americana, você precisa trazer casos parecidos para fazer seus argumentos, é uma forma diferente da brasileira. Citar casos parecidos não é um bônus como é aqui, é a fundação do sistema judiciário deles. E é importante ter isso em mente para saber o tamanho da besteira que o advogado de Mata fez.

Não foi uma pessoa enfeitando uma defesa com conteúdo copiado e colado de outro lugar, como citar casos é a lógica da justiça americana, o cidadão basicamente pediu para o ChatGPT fazer todo o seu trabalho. Quando os advogados da Avianca viram o recurso, encontraram várias citações de casos anteriores nos argumentos, e como é de praxe, foram analisar os casos para fazer a defesa da empresa.

Nada. Os casos citados não estavam em lugar nenhum. Eu imagino algumas noites em claro de estagiários do escritório de advocacia tentando achar aquilo, porque existem bibliotecas online e físicas com todos os casos da justiça americana, separados em muitos e muitos volumes. No prazo da resposta, eles disseram que não conseguiram achar os casos citados. O juiz pegou aquela resposta dos advogados da Avianca e adicionou que ele também não tinha encontrado, pedindo para o advogado de Mata providenciá-los.

O advogado pediu alguns dias para responder, pois estava de férias. O juiz deu esses dias extras, apesar de já dar algumas demonstrações de frustração. Dado o prazo, o advogado do colombiano entregou o conteúdo dos casos que tinha citado, quer dizer, uma parte: um ou dois casos que ele mesmo citou não tinha conseguido achar.

Imagina só a vergonha que é mandar para um juiz federal um documento dizendo que você realmente não consegue provar que um caso que citou existe. E pior: os casos que Schwartz transcreveu ali não faziam muito sentido também. Como vocês podem imaginar, existem regras de como arquivar um caso para ser referência futura. Os que ele colocou ali estavam fora desse padrão.

E foi justamente isso que os advogados da Alianca disseram: primeiro que não sabiam o que fazer com casos referenciados que nem o advogado da outra parte podia provar que existiam, e segundo que os casos transcritos ali eram estranhos e fora de qualquer padrão legal. O juiz finalmente se emputeceu e chamou Schwartz para explicar aquela maluquice ao vivo, correndo o risco de sair preso do tribunal se mentisse.

Apertado pelo juiz, o advogado admitiu ter usado o ChatGPT para fazer a defesa. De bônus, ainda perguntou se ele realmente estava de férias quando pediu um prazo extra. Não estava. Estava era desesperado tentando achar as porcarias dos casos que o ChatGPT o mandou citar. Como ele também não conseguia achar, pediu para o ChatGPT transcrever. O que a inteligência artificial não se furtou de fazer: foi lá e inventou casos da forma mais realista que conseguia.

Resumo: o advogado pediu para o ChatGPT fazer a defesa do seu cliente, e recebeu pronto um texto que citava casos inventados que corroboravam com a tese pedida, e quando, no desespero, ele pediu para o ChatGPT dizer de onde tinha tirado aqueles casos, o bot simplesmente “imaginou” casos e disse que eram aqueles. Em defesa da inteligência artificial, existe um aviso no começo de qualquer resposta de natureza jurídica que o ChatGPT não sabe o que está fazendo.

Segundo o advogado, agora contra a parede diante de um juiz muito puto da vida, ele achou que o programa só fazia pesquisas e resumia os resultados, nunca imaginando que ele era capaz de inventar coisas. Agora, Schwartz corre sério risco de perder sua licença de advogado, até onde eu vi, ainda não decidiram o que fazer com ele, mas é quase certeza que não vai poder advogar por um bom tempo depois dessa.

Em qualquer momento, o advogado podia ter revisado a resposta do computador e descoberto que os casos não existiam, mas na confiança estúpida e preguiçosa que computadores nunca erram, colocou sua carreira e o caso do seu cliente em risco. Eu não acho que ele teria feito isso se não fosse um caso tão porcaria como um colombiano aleatório tentando arrancar dinheiro de uma empresa, mas demonstra muito bem o problema com a peça que mais dá defeito em qualquer tecnologia: a peça humana.

Com certeza não foi a primeira vez que esse advogado mandou documentos sem revisar para o juiz. Talvez estivesse na sua cabeça que os sistemas automatizados de pesquisa de casos nunca erraram, porque provavelmente nunca erraram mesmo: eles só trabalhavam com uma base de dados verificada. Quando a pessoa muda de tecnologia, ela leva todas suas presunções junto. Não é à toa que no mundo do design digital, muito se pensa em como objetos reais funcionam, para usar essas intuições que todos temos para interfaces de computador.

Quem saiu de uma realidade onde computadores apenas traziam resultados de pesquisas em bases de dados verificáveis vai ficar perdido com a “imaginação” do ChatGPT e outras tecnologias parecidas que devem se espalhar por nossas vidas nos próximos anos. O advogado do caso que ilustra este texto é um incompetente de marca maior, mas eu consigo enxergar de onde vem a confiança que ele teve no computador. De uma certa forma, todos fomos criados para confiar na máquina.

Pessoas mentem, mas máquinas não. Até pouco tempo atrás, a culpa da máquina era ser eficiente demais em propagar mentiras criadas por seres humanos, a ideia preconcebida que temos sobre computadores não inclui desconfiança. Se eu faço uma conta de cabeça e fico inseguro, vou na calculadora para tirar a prova. A máquina não vai errar.

E não se engane, você provavelmente tem uma ideia muito parecida na sua cabeça: quando a informação chega da máquina, é informação mais sólida que vinda de outra mente humana. Eu até atribuo a essa noção a força das Fake News vindas da internet. Tem algo extra em consumir informação vinda de um meio digital, uma sensação de frieza calculista que temos instintivamente diante de um computador.

Sistemas como o ChatGPT conseguem enganar muita gente por causa da criatividade e da confiança com as quais se comunicam. Se você já tem na cabeça a ideia de que a máquina é sempre objetiva e ela se comunica com você como se fosse uma especialista no tema, a tentação de acreditar é muito grande. Até porque já acreditamos: as pessoas mal sabem os números umas das outras, até mesmo pessoas muito importantes da nossa vida podem estar escondidas atrás de um número que só a nossa memória digital conhece.

Confiamos na máquina porque ela entregou resultados previsíveis por séculos. Desde o motor a vapor até o mais moderno headset de realidade virtual, nossa tecnologia parte desse princípio de consistência: sempre funciona do mesmo jeito, só trabalha com informações que precisa e não se distrai por nada. Com IA, a coisa muda.

IAs funcionam de forma imprevisível, imaginam e inventam coisas, às vezes para nos ajudar, às vezes para nos atrapalhar. Elas continuam sem ter consciência do que fazem, mas isso não muda o fato. A tecnologia seguiu por um caminho que vai exigir uma nova forma de enxergar os dados do computador. E eu tenho a impressão de que isso pode ser trabalho demais para o ser humano médio.

Se os benefícios de acreditar na máquina forem maiores que os custos, me parece que vamos tolerar muita mentira e alucinação robótica. As pessoas já topam muito bem mentiras absurdas das religiões porque de alguma forma elas são mais confortáveis e “lógicas” para elas. Eu imagino um futuro em que o aluno manda um trabalho escolar feito por IA para um professor que usa uma IA para corrigir. E que isso vá se espalhando pelo mundo corporativo de tal forma que as pessoas não vão mais saber o que foi um ser humano que pensou e o que foi uma IA que fez.

Pergunte para qualquer filósofo: não sabemos o que é a verdade. Temos boas ideias, mas é algo que definimos até um certo nível de confiança e paramos, porque é um tema infinito. Não imagino que uma máquina consiga definir o que é verdade, ninguém vai conseguir escrever esse código. A verdade num mundo onde muito se terceiriza para a IA vai ser a melhor verdade possível dela. E quanto mais usarmos o sistema, mais a verdade dela vai se tornando a nossa.

A minha teoria é que um dia um conselho de IAs pode definir que os casos citados pelo ChatGPT tem alta probabilidade de serem reais e comecem a tratar eles como verdade. E dependendo do nível de complexidade em que essas inteligências artificiais estiverem gerenciando nosso sistema legal, por exemplo, alucinações eventuais podem começar a vazar para a realidade e mudar a forma como gerações de seres humanos convivem com o mundo.

Agora conseguimos pegar essas mentiras e invenções, mas eu realmente desconfio que uma hora ou outra vamos nos tornar incapazes de fazer isso. E aí, a realidade que ChatGPT e similares criarem para a gente vai ser efetivamente a realidade da humanidade, não por imposição, mas por preguiça mesmo.

A Skynet vai ser tipo mulher decidindo como vai ser a decoração da casa: faz o que quer porque a outra parte simplesmente não quer pensar nisso. O caso da vez é mais do que uma notícia engraçada, é uma tendência muito humana que dificilmente vai ficar melhor com o passar dos anos.

Para dizer que a preguiça é eterna, para dizer que vai comentar usando o ChatGPT, ou mesmo para dizer que já aprendeu a cuidar de plantas para ser jardineiro: somir@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Etiquetas: , ,

Comments (8)

  • Enquanto isso, cá em Portugal (vulgo África do Norte, como chama a Sally…), já estão ponderando usar o ChatGPT para fazer a gestão das chamadas de emergência médica a partir de 2025.

    Imagina você ligar para o 190 (que aqui é 112), e em vez de falar com um ser humano, ser atendido pela inteligência artificial, enquanto uma pessoa está morrendo do seu lado.

    É uma ideia idiota ou muito idiota?

  • Ainda não consigo pensar em cenários positivos para interação do ser humano médio com IA. Já peguei texto de aluno que foi feito com a ferramenta, do nada um aluno abaixo da média me entregou um texto com coerência e vocabulário impecável. Vontade de dizer pra ele “na pxm manda chatgpt escrever o tema como um idiota”, mas a lei me impede. E se o aluno levar a direção essa vai me fazer aceitar, pois “não podemos provar que isso aconteceu”.

  • Tem horas em que eu fico com a impressão de que inteligências artificiais são como um “brinquedo” caro e muito sofisticado, entregue a “crianças” que são burras demais para serem capazes de manejá-lo adequadamente…

    • Gostei dessa análise, UABO. E, como acontece com toda tecnologia nova, a maioria das pessoas ainda não sabe muito bem o que fazer com ela.

  • Caramba, Somir… Certas coisas que você escreve me deixam preocupado com o futuro. E para resumir: preguiça de pensar + nível de inteligência da Humanidade regredindo preocupantemente mais e mais a cada geração + falta de real compreensão de como certas tecnologias funcionam + confiança cega na máquina = merda.

Deixe um comentário

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: