FakeApp

Hoje em dia já é procedimento padrão: se a pessoa vê na internet uma foto dela ou de alguma pessoa que defende muito exposta ou mesmo fazendo algo reprovável, já acusa de montagem. De tão arraigada na mentalidade popular, a defesa habitual faz milagres como fazer quase todo brasileiro escrever “Photoshop” direito! Todos sabemos que editar fotos é possível e até que bem acessível para o cidadão médio. Mas, com vídeos a coisa costuma ser diferente… bom, pelo menos por enquanto. Falemos do FakeApp.

Para quem ainda não foi apresentado ao programa, a ideia é até que simples: o FakeApp coloca o rosto de uma pessoa em outro corpo num vídeo. E como uma imagem (tecnicamente) vale mais que mil palavras, segue um exemplo.

No vídeo acima, uma compilação (hilária) de sobreposições do rosto do Nicolas Cage sobre as de diversos outros atores (e atrizes!) com um impressionante grau de precisão. O que pode parecer o trabalho de uma pessoa com mais tempo livre e habilidades de edição de vídeos que juízo na verdade foi gerado por um computador, basicamente sozinho. Fruto da tecnologia do FakeApp. Com certeza não é a primeira vez que você vê alguém colocando um rosto em outro corpo numa edição de vídeo, mas desde a popularização do programa, deve ser a primeira vez que você vê isso funcionando de forma independente do talento da pessoa que produziu.

Porque mesmo em edição de fotos, saber o que está fazendo faz diferença. Todo mundo está cansado de ver montagens de rostos trocados, pessoas incluídas ou removidas de fotos e todo tipo de loucura possível, mas talvez tenha uma informação que você não saiba: para quem sabe mesmo fazer montagens, costuma ser muito fácil reconhecer uma. A maioria das pessoas sequer olha duas vezes para uma mais ou menos bem feita, mas costuma ser bem transparente para especialistas. Entrou no imaginário popular que não dá pra provar se uma foto é montagem ou não, mas na vida real, dá sim. Então, cuidado com a famosa defesa de que é uma montagem, porque se não for, podem provar.

De qualquer forma, entrei nesse assunto para explicar como manipular uma foto com perfeição é praticamente impossível. Fotos são baseadas em luz, e cada pixel (menor divisão possível de uma imagem digital) da foto foi capturado com base em bilhões de fótons batendo na superfície no momento. Uma montagem perfeita deveria, em tese, simular todo o comportamento da luz naquele momento da foto original no que está sendo modificado nela. Não vou matar vocês de tédio, mas uma foto qualquer das que você vê em redes sociais é formada por milhões e milhões de pixels. Cada um deles tem que estar correto na montagem para ser impossível provar que não foi mexida. Teoricamente é possível, mas ser humano algum até hoje teve a capacidade de fazer isso. Além de ser muito chato, é de um grau de detalhismo que provavelmente nem cabe no cérebro de uma pessoa.

Mas estamos falando de vídeos! Bem observado. A questão é que um vídeo não passa de uma sequência de fotos simulando movimento. A mesma lógica se aplica ao vídeo, mas numa escala ainda mais insana. Presumindo que a maioria dos vídeos disponíveis por aí são compostos de pelo menos vinte e quatro fotos por segundo, é o problema dos milhões de pixels multiplicado sabe-se lá quantas vezes! Por isso, até hoje sempre foi bem mais seguro ter o vídeo do acontecimento do que a foto para provar que realmente aconteceu. E também por isso custa tão caro fazer filmes com efeitos especiais: algum coitado tem que fazer tudo funcionar a cada uma das fotos (são chamados de quadros ou frames) que compõem um vídeo. Imagina só fazer isso para um filme tipo Vingadores?

Seja como for, manipular vídeos sempre foi bem mais complicado. Seres humanos dificilmente conseguem fazer isso sem muito dinheiro e ajuda, e convenhamos que a não ser que alguém vá ganhar muito dinheiro com isso depois, não há incentivo verdadeiro para fazer tudo isso. Já que eu dei exemplo de filme, lembram do filme da Liga da Justiça e o Super-Homem muito bizarro que aparece no começo? O ator teve que refilmar algumas cenas e estava com um bigode na época. Por questões contratuais, não podia tirar. Tiveram que filmar com o bigode e colocar um time de profissionais caríssimos para trabalhar nisso noite e dia, tirando o bigode dele em todas as cenas refilmadas. Ficou horroroso. Mesmo gente muito profissional com todos os melhores equipamentos e treinamento sofre para fazer montagens perfeitas quadro por quadro.

Entenderam como isso é difícil? Agora imagine analisar um vídeo quadro por quadro, e em cada uma dessas imagens cheias de pixels, trocar o rosto de uma pessoa pelo de outra? Imaginou? Então pare, porque fica pior ainda. Quando se faz uma montagem dessas, normalmente você precisa de uma referência. O caso ideal são duas pessoas fazendo exatamente o mesmo movimento para você poder trocar as cabeças, mas o que o FakeApp faz é ainda mais absurdo: ele redesenha o rosto da pessoa escolhida no corpo da original, inventando do zero aquela cena. A pessoa nunca disse aquelas palavras ou fez aquilo, mas o programa consegue imaginar como seria se ela estivesse lá e te mostrar.

E como isso é feito? Inteligência artificial. Mais precisamente aprendizado por máquinas (machine learning é o melhor termo pra pesquisar). O FakeApp não é um aplicativo tosco de celular, é um trambolho que precisa de um computador poderoso para fazer o que faz. Ele precisa de um vídeo original para ser modificado e do máximo de referências possíveis sobre o rosto da pessoa que vai ser transplantada lá. O programa aprende como é o rosto da pessoa nos mais diversos ângulos e vai tentando encaixar na outra da melhor forma possível. O segredo do sucesso é deixar o computador tentar tudo o que pode, pixel por pixel, até conseguir te mostrar algum resultado. Computadores não ficam entediados ou perder o controle da complexidade dos milhões de pixels. O processo pode demorar desde horas (se der muita sorte) até mesmo semanas para chegar num visual aceitável. Como não tem uma pessoa fazendo, ele pode tentar bilhões de vezes às cegas até começar a acertar.

E como o aplicativo sabe que está acertando? Bom, seres humanos estão lá pra dizer o que está melhor ou pior. E a partir desse input, o sistema vai aprendendo sobre o rosto das duas pessoas que está trocando, refinando o processo até ficar minimamente aceitável. E por que rostos? Essa é mais fácil: nós fizemos questão de ensinar isso para os computadores. Não fosse o reconhecimento facial, sistemas de desbloqueio de celular por selfies, autofoco em pessoas nas câmeras e até mesmo aqueles filtros cretinos de Instagram e Snapchat (lembram?) com cara de cachorro e outras excrescências não seriam possíveis. Computadores ficaram realmente bons em reconhecer nossos rostos e foram recompensados por isso com mais e mais desenvolvimento na área. O FakeApp usa muitas dessas tecnologias já estabelecidas como base para o seu trabalho.

E aqui eu começo a falar da parte ruim dessa história. Nos cantos mais escuros da internet já é de praxe surgirem vídeos de atrizes famosas no corpo de atrizes pornôs. Apesar dos vídeos engraçados do Nicolas Cage, o que realmente impulsionou o uso do FakeApp foi a possibilidade de fazer esse tipo de montagem pornô com a maior qualidade possível até hoje. Atrizes de Hollywood são alvos primários desse uso da tecnologia basicamente por terem milhares de fotos de rosto por todos os ângulos e iluminações possíveis e imaginárias disponibilizadas na internet. O FakeApp até tem a função de sair caçando essas fotos por você e baixar todas para seu treinamento.

A coisa ainda não tem a proporção necessária para gerar uma polêmica grande o suficiente para derrubar o site do FakeApp, mas eu tenho certeza que não vai demorar muito para acontecer. A ideia de qualquer pessoa famosa acabar com sua cara colada num filme pornô contra sua vontade é preocupante não só pelo claro abuso da imagem e da dignidade da pessoa, mas também porque dá uma cara horrorosa para o campo da inteligência artificial, que está vivendo o seu maior boom desde que começamos a sonhar com essa ideia. Pra variar, a meia dúzia usando mal pode penalizar a maioria que faz uso decente. Veremos quando o programa ficar realmente bom no que se propõe.

Porque faltou dizer isso: o FakeApp ainda erra muito mais do que acerta. Tivemos poucos exemplos de montagens realmente próximas da realidade, e muito por coincidências naturais entre as pessoas que tiveram as faces trocadas. Na maioria das vezes o resultado é uma imagem borrada e até meio assustadora. Só que não preciso dizer pra ninguém aqui que tecnologia não fica parada: a cada versão do programa e a cada aumento de capacidade de computação disponível para o cidadão médio, vamos chegar mais e mais perto da montagem perfeita. Aposto sem medo que o computador consegue chegar lá, pixel por pixel de quadro a quadro se for necessário. E quando chegar para vídeo, já vai ter chegado faz tempo em foto. Considerando que a pessoa média dos dias atuais tira cinco milhões de fotos por dia, muitas delas do próprio rosto… logo logo não vai precisar nem ser atriz de Hollywood para isso.

Prevejo um futuro onde o olho humano não vai ser mais capaz de decidir se uma foto ou vídeo é real, onde até os especialistas vão ser tão tapados quanto aquela sua tia dos anjinhos no Facebook. Imagina isso com políticos? As Fake News vão comer soltas, com provas documentais! E o engraçado é que quando esse futuro chegar, provavelmente nossa única salvação vai ser outro programa de computador capaz de reconhecer as montagens. Nunca pensamos que a inteligência dominaria a realidade por esse caminho, pensamos?

Dizem que quando a singularidade chegar, não vamos perceber. Só não achei que seria porque estávamos olhando demais para o espelho…

Para dizer que não entendeu porra nenhuma de como o programa funciona (precisa de um texto só pra falar de redes neurais), para dizer que todo mundo vai ter seus cinco minutos de pornô no futuro, ou pra dizer que acha que isso já existe faz tempo para explicar as coisas que os políticos dizem: somir@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Etiquetas: , ,

Comments (2)

Deixe um comentário

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: