Direito de imagem.
| Somir | Arca | 6 comentários em Direito de imagem.
Nos últimos dias, estive testando o Grok Imagine, o serviço de IA do Elon Musk que transforma imagens em vídeos. A qualidade é bacana, não é o melhor do mercado, mas é extremamente rápido. E até agora, com uma postura bem leniente sobre nudez. Então, acho que precisamos conversar sobre uma coisa chata, especialmente se você for mulher…
Sim, a maioria de vocês já sabe onde eu vou chegar, mas primeiro eu quero explicar a minha leitura sobre o negócio de geração de imagens e vídeos com inteligência artificial: assim que as tecnologias ficaram disponíveis fora das universidades e centros de pesquisa, começaram a fazer mulher pelada.
E honestamente? Não vejo problemas com isso. Arte tem uma relação intrínseca com beleza, e desde que o artista em questão ache o corpo da mulher bonito, é claro que ele vai querer trabalhar com essa imagem. Não se pode misturar uma pessoa que enxerga mulher como um objeto com uma pessoa que simplesmente acha elas bonitas. Nada deste texto é preocupação com objetificação. Isso tem a ver com a personalidade da pessoa, não com o que ela acha visualmente atraente.
A questão aqui é que tem um exército de pessoas aperfeiçoando os modelos de geração de imagem e vídeo com… mulher pelada e safadezas em geral. Basicamente todo mundo que não está sendo pago para trabalhar com esses modelos está treinando a IA para desenhar peitos e bundas com mais perfeição. E é claro que todos esses avanços oferecidos de graça ou por valores irrisórios no mercado paralelo acabam alimentados de volta nos modelos mantidos por grandes empresas.
É claro que eu pedi para a IA fazer uma mulher pelada logo no começo da tecnologia. Era algo… meio abstrato, por assim dizer. A máquina até sabia onde iam os peitos da moça virtual, mas não exatamente como eles deveriam se parecer. E se ela estivesse nua da cintura para baixo, eram seres saídos de um conto de terror entre as pernas. Era engraçado, pelo menos.
A comunidade não desanimou, continuou compilando, descrevendo e alimentando milhões de imagens de mulheres peladas nos modelos até chegarmos no que é possível hoje: basicamente perfeição na nudez sintética, inclusive para homens, porque é claro que tem comunidade focada nisso também. Em questão de pornografia, tudo parece ser possível com modelos de imagem de uso pessoal.
Digo uso pessoal porque sem censura nenhuma, só rodando o modelo de geração de imagem numa máquina dedicada. Os sistemas online que o povão conhece como o ChatGPT contam com censura pesada, um monte de travas para manter tudo “seguro para o trabalho”; claro, naquele jeitão americano de ser: peito é intolerável, metralhadoras tudo bem.
E por um tempo, a represa dos modelos de imagem produzindo conteúdos mais eróticos foi mantida por essa autocensura das Big Techs. Eles sabiam o que ia acontecer se liberassem essas coisas e queriam evitar o caos que se seguiria. Mas sabe quem gosta do caos? Elon Musk.
O Grok, modelo dele, sempre foi mais politicamente incorreto que a concorrência. Ele fala coisas que outros bloqueiam, e fez disso seu diferencial competitivo. Outros modelos como os da OpenAI e do Google até podem ser mais poderosos em tarefas diversas, mas se você quer algo com menos travas, o Grok é ideal.
E desde que começou a disponibilizar modelos de imagem, o Grok sempre esteve um passinho na frente dos outros em ousadia. Novamente, diferencial competitivo para quem não tem exatamente a mesma qualidade dos outros. E isso funcionou para mantê-lo relevante. E naquela linha Elon Musk de sempre empurrar a linha, começaram a deixar o Grok desenhar mulher pelada. Cheio de frescuras, cheio de limites, mas anos-luz na frente de qualquer outro concorrente do mesmo porte.
Será que isso funciona financeiramente? Liberar as comportas para pessoas querendo mais safadeza nas suas IAs? Bom, faz pouco tempo o ChatGPT disse que vai liberar um modo “erótico”, reduzindo as travas do seu modelo. Alguém precisava ser maluco o suficiente para começar, Elon Musk começou. Mas depois disso, o dinheiro vai estar batendo na porta, desesperado para entrar… e eu aposto que com algumas verificações de idade antes, o mercado vai atender essa demanda.
E aqui eu conecto os pontos: fora da visão da maioria das pessoas, estavam treinando as IAs para ficarem boas em conteúdo erótico, escrito, sonoro ou visual. Eu tenho certeza que essa pesquisa amadora foi alimentada nos modelos profissionais, porque já pipocam na internet muitos vídeos feitos no Grok com nudez praticamente perfeita. Se você não estivesse treinando com essas imagens esse tempo todo, não ia ficar assim.
Ia sair daquele jeito demoníaco dos meus primeiros testes anos atrás. Os modelos foram treinados com conteúdo sugestivo e pornográfico. E quem compilou isso foram os tarados anônimos. Isso quer dizer que a IA não só sabe como é o corpo humano em todos seus detalhes, mas também sabe como simular ações conectadas, como tirar a roupa.
Sabe como são vídeos de celular “naturais”, sabe como fazer a iluminação exata daqueles vídeos vazados, como é o ser humano no seu ambiente natural de safadeza. O ponto aqui é que até agora os sites capazes de fazer essas cenas realistas tinham muita censura que impedia o cidadão normal de sequer ver isso. Mas estava sendo gerado: os bloqueios são realizados enquanto a imagem ou vídeo são feitos, quando uma IA supervisora reconhecer nudez ou pornografia no material e aborta a geração completa.
Some-se a isso a sensação pervasiva da IA estar numa bolha, muito mais valorizada do que realmente é, existe um incentivo de liberar esse lado “proibido” dela para mais pessoas e ganhar dinheiro com as mensalidades. É muito mais fácil, rápido e barato do que rodar seu próprio modelo. Eles precisam demonstrar que conseguem fazer dinheiro antes que os investimentos sequem, e historicamente, nada vende melhor que sexo.
Se as grandes empresas tiverem medo de seguir nesse caminho, vão surgir empresas menores com capacidade de computação e sem travas. A porta está aberta e eu não acho que vá fechar mais. Alguém vai oferecer geração de pornografia de alta qualidade para as massas, e isso vai mexer com a forma como muita coisa funciona.
A tecnologia está pronta para pegar qualquer foto sua e fazer você tirar sua roupa, por exemplo. Não tem que treinar mais, isso já está basicamente perfeito, só falta tirarem as últimas travas de modelos rodando em servidores bilionários. E é possível que salvo a capacidade de fazer cenas com crianças, as outras barreiras vão cair, e qualquer um com um celular na mão e talvez alguns reais de mensalidade vai poder fazer o que bem entender com sua imagem.
Está na mão de algumas pessoas desse mundo segurar ou soltar essa tecnologia para o povão, uma delas é maluca de pedra, o Elon, e as outras vão ficar cada vez mais pressionadas para demonstrar viabilidade econômica. Como o Grok já deu um passinho nessa direção, nos resta saber quanto dinheiro isso realmente vai gerar. Porque esse povo se conversa, se souberem que o Grok começou a ficar no positivo por causa de pessoas tirando roupa de mulheres aleatórias com IA, o incentivo vai ser forte para permitir coisas parecidas.
Se você é mulher, vale a pena saber que isso existe, para não descobrir só quando a represa estourar. Se você vai tomar mais cuidado com o que posta ou se vai enfrentar de peito aberto (trocadilho mais ou menos intencional) só você pode decidir. Mas como nerd que presta atenção nessas coisas, eu acho justo te informar.
Não é que um dia vai ficar nesse nível de pegar qualquer foto sua e te fazer tirar a roupa e começar a rebolar, é que já está pronto. São só algumas linhas de código nas IAs atuais que evitam que esse conteúdo seja mostrado. Ele já é feito, ele só não aparece na tela de quem pediu por ele. O trabalho já foi feito, milhões de fotos e vídeos de mulheres tirando a roupa em casa na frente do celular (nenhum coletado legalmente) já foram usados para treinar a IA, ela sabe exatamente como simular a cena.
E como o que está dentro dos modelos usados é uma caixa-preta, eu não sei nem como a lei vai fazer para provar que esse tipo de conteúdo foi usado. Eles podem simplesmente mesclar coisas feitas na clandestinidade por amadores e fazer tudo se perder num mar de zeros e uns indecifrável.
Salvo banir nudez e pornografia da internet, não sei como evitar que essa tecnologia chegue de forma confortável na mão de bilhões de tarados e taradas dispostos a violar o direito de imagem de qualquer um. Você que sabe como vai agir com essa informação, mas que ela fique clara aqui.
Eu mantenho a teoria que em algumas décadas, o próprio conceito de pornografia com sua imagem vai ficar tão batido que as pessoas vão parar de se chocar. O que a gente cresceu achando uma ofensa terrível não vai nem distrair a pessoa do futuro do que está fazendo. Mas nesse meio tempo, há um risco considerável de você se chocar com o que conseguem fazer com qualquer imagem sua disponível na internet.
Já existe. É rápido, fácil e cada vez menos censurado. Boa sorte!
Divirtam-se:
https://youtu.be/vLr5CpoPOp0
Minha cabeça dá um nó só de pensar que nenhuma foto ou vídeo será confiável. IA sendo usada pra condenar inocentes e livrar culpados. Métodos de bullying e assédio ainda piores do que os atuais. Vidas e famílias sendo destruídas. Pessoas perdendo a fé na beleza do mundo por achar que qualquer foto bonita é IA. Pessoas que não acham que sua arte é boa o suficiente por não ser perfeita igual arte IA. Jovens com dismorfia por não parecerem modelos de IA. E como as instituições vão lidar com isso? Por exemplo, como vão saber se uma imagem de câmera de segurança de um cara espancando um cachorro é real ou feita por algum desafeto do cara? Como vão saber se um nude é montagem ou uma foto feita e enviada com consentimento?
Vai me desculpar pela boomerzice de “meu tempo era melhor”, mas o mundo fica cada vez mais bizarro. A quantidade de pessoas com problemas mentais só crescendo. Pior época pra se viver.
Esse comentário me entristeceu muito. E o pior é que eu concordo com cada palavra…
Não tem como segurar isso aí. A vantagem é que a credibilidade cai e, para todos os efeitos, é o que se chamava de “montagem”, no tempo das fotografias. O que provavelmente acontecerá será a proibição de usar as imagens para fins comerciais, eleitorais ou para falsas acusações de crime. Para a punheta, é uma guerra perdida.
Sabe quem está gostando disso?
ESTELIONATÁRIOS.
Pig Butchering Scams ficam mais convincentes e mais realistas pra levar vantagem às custas dos incautos.
As linhas que costuram o tecido social ficam cada vez mais finas e frouxas… a confiança e a coesão social estão morrendo.