Skip to main content

Colunas

Arquivos

Exploração infantil.

Exploração infantil.

| Somir | | 6 comentários em Exploração infantil.

Nos últimos dias, o vídeo do influencer Felca explodiu em popularidade na internet brasileira. Provavelmente você já deve ter assistido, mas num resumo simples: é uma longa denúncia sobre exploração de crianças e adolescentes (inclusive com sexualização) nas rede sociais tupiniquins. Tanta gente viu que agora Brasília decidiu que é hora de fazer alguma coisa. Será que vão tomar boas decisões?

E antes de tudo, uma tentativa honesta minha: a vontade de ser cínico sobre o assunto é grande, mas eu vou controlar. Vamos tentar começar esse tema da forma mais direta possível, com o ponto comum entre mim e a maioria das pessoas que se chocaram com o grau de baixaria infantil nas redes sociais: não é aceitável expor pessoas tão novas ao ambiente de atenção com fins lucrativos, especialmente quando são pessoas próximas agindo como cafetões e cafetinas de crianças.

Pessoalmente, eu não acho que seja saudável a exposição de crianças na internet nem mesmo quando não há um componente sexual. A linha está bem antes da menina rebolando ao som de funk baixaria, é algo mais básico sobre a capacidade de um ser humano de lidar com uma imagem pública. Se adultos já ficam meio descompensados com a fama, imagina só uma criança?

Mas eu vou conceder o ponto que isso é “problema de primeiro mundo”. Na ordem de urgência, crianças e adolescentes sendo oferecidas como prostitutas online é o tipo da coisa que passa na frente. A gente discute as questões psicológicas da exposição online quando a parte de adultos criando, incentivando e/ou consumindo conteúdo sexualmente sugestivo de crianças e agindo como se fosse algo normal estiver sob controle.

Por um lado, que bom que tanta gente acordou para isso. É ponto antigo dos meus textos a questão de como a maior parte da exploração sexual de menores estava nas redes sociais e não nos “porões” da internet. Falem o que quiser de chans e fóruns públicos sem moderação automática: quem posta foto de criança vestida já toma bronca e é banido, porque todos os gatos de lá são escaldados e sabem que se der uma brecha a coisa desanda e vai todo mundo sentar no colo da PF.

Sério, eu ainda acesso a 4chan, na parte de esportes. Melhor lugar para falar merda e tirar sarro com pessoas do mundo todo sobre bobagens esportivas. Tem gente literalmente dizendo que Hitler não fez nada de errado discutindo futebol com outro anônimo falando que todos os brancos merecem morrer, e assim que algum arrombado coloca um vídeo de menina dançando direto do Instagram, todo mundo para o que está fazendo, xinga quem colocou um vídeo considerado normal no Instagram, faz ele ser banido e continua se ofendendo das formas mais terríveis.

O conteúdo “legal” do Instagram é considerado de baixo nível demais pela fuckin’ 4chan. Porque lá ninguém finge que é só uma menininha dançando, lá a gente sabe que é uma mãe escrota incentivando a filha a fazer isso para ganhar seguidores e possivelmente dinheiro de pedófilos. Justamente onde todos são anônimos, a baixaria é reconhecida e tratada como tal imediatamente. É claro que tem os doentes nesses lugares, mas tem uma diferença fundamental em reconhecer que existem e fazer manutenção constante para não deixar eles estragarem tudo para os outros.

E essa tangente tem tudo a ver com a minha análise da “polêmica da vez” na internet brasileira. Será que alguém entendeu que você precisa coibir o comportamento? Porque mesmo me segurando com todas as forças para não descambar este texto para “esses filhos da puta querem controlar suas opiniões políticas e vão usas as pobres criancinhas para empurrar legislação que não protege criança porra nenhuma e só ajuda eles a calar a boca dos opositores”, eu estou tentando trabalhar com a hipótese que existe interesse social e político genuíno em proteger as crianças.

E aí me preocupa como essa conversa está girando ao redor de regular as redes sociais. Sim, existem caminhos para lidar com a parte tecnológica do algoritmo. Se a criança estiver pelada ao invés de usando um biquini, a IA que modera as redes sociais tende a perceber, por isso que você não cai de costas ao abrir o seu feed de novidades. Isso já acontece. Com maior capacidade de reconhecimento de fotos e vídeos, a IA pode ser treinada para ser mais restritiva com imagens de crianças. Até onde ela pode ir sem dar um monte de falsos positivos eu não sei, só testando. Mas é passível de uma tentativa.

O segundo ponto seria o quanto a rede social promove conteúdo com crianças. Isso já funciona com violência e palavras “ruins” como morte e suicídio. Como já disse num texto anterior, as pessoas e empresas se adaptaram a isso para manter sua audiência e cliques. Fazem a mesma coisa, mas censuram a palavra que o algoritmo não gosta. Quem está vendo sabe muito bem o que é do mesmo jeito. Uma solução bem agressiva seria destruir o alcance de fotos e vídeos com crianças. IA reconheceu, não divulga para ninguém.

E com isso, todo o mercado de conteúdo para crianças morreria junto. E considerando o nível do que fazem para esse público, talvez fosse uma boa ideia. Mas que fique claro, vai matar uma indústria. Os pais, mães e similares que usam crianças para conteúdos sugestivos provavelmente achariam formas de dar a volta no sistema, ou pior, iriam para outras redes sociais que fossem mais permissivas. Talvez até criem uma outra dizendo que é conteúdo seguro para crianças para fazer toda a baixaria de novo.

Mais um problema: pode ser incômodo pensar nisso, mas é verdade… adolescentes tem corpos muito mais parecidos com adultos do que crianças. A IA vai saber diferenciar uma garota de 18 anos rebolando de forma provocativa de uma garota de 15 rebolando de forma provocativa? Você costuma saber diferenciar só batendo o olho? Ações automatizadas vão dar muito problema nessa área, a não ser que a rede social resolva bater em conteúdo sugestivo como um todo. Ninguém pode rebolar então. E quando isso começar a dar problema com adultos e adultas que vivem de sensualizar e todo o público que só está na rede social por isso?

O ponto aqui é que as soluções mais rápidas são justamente as que varrem o problema para debaixo do tapete. E talvez elas sejam o suficiente para baixar a fervura de um povo pedindo soluções. Mas não são soluções baseadas no problema. De uma forma torta, as “pessoas anônimas ruins” de chans e similares acharam uma forma de lidar com isso: viu algo que parece sexualizado com menores, denuncia e senta a pata em quem postou. E eu não acredito nem por um momento que todos os anônimos de lá são honestamente contra esse tipo de material, é que virou uma forma de manutenção mesmo. Se isso entrar na comunidade, os mais doentes ainda entram achando que estão em casa e estragam o site para todo mundo. É realismo: tem que fazer manutenção, tem que tirar o lixo todos os dias.

O robô não consegue fazer isso ainda. Porque vai ter vídeo de crianças brincando na piscina que é só isso e vai ter vídeo de crianças brincando na piscina onde algum adulto está filmando sabendo que tipo de público quer ver aquelas cenas. Um ser humano percebe quando tem algo meio errado, o algoritmo não. O algoritmo pode ser enganado por “morr3r”. Se você acha que o problema de pornografia leve de criança vai sumir se o dono da rede social apertar um botão, você é no mínimo mal-informado sobre tecnologia. Pessoas fazem isso de propósito sabendo que sexualização de menores é muito mal-vista na sociedade. Elas fazem essas merdas porque é lucrativo de alguma forma mesmo com o risco.

Tem uma ferramenta de controle de comportamento ancestral do ser humano que é criticar, envergonhar e isolar seres humanos que fazem coisas que não queremos que eles façam. Você não vai impedir que o pedófilo seja pedófilo, mas com certeza consegue estragar o modelo de negócios de adultos explorando crianças fingindo que é na inocência. Faça como os anônimos do chan: inocência é o caralho, eu sempre penso o pior de quem filma criança com pouca roupa e coloca na internet para estranhos verem. Sim, pessoas fotografam seus filhos pelados desde que a câmera fotográfica existe, mas uma memória da sua filha pequena tomando banho no seu arquivo pessoal e um vídeo de 15 minutos dela brincando na piscina com edição profissional publicado para milhões de pessoas desconhecidas são coisas muito diferentes.

Controle de comportamento se dá em nível humano. Pessoa para pessoa. O que me deixa com poucas esperanças sobre esse surto de preocupação com as criancinhas da internet é que a conversa é sobre como “as redes sociais deixaram isso acontecer”. Não foi o Mark Zuckerberg que foi na sua casa filmar sua filha de 11 anos dançando funk com um short atochado na bunda, foi? Não foi o Elon Musk que deixou seu filho sozinho com um tablet com câmera 16 horas por dia sem saber o que caralhos ele acessa na internet, foi?

Para a rede social, tanto faz se você está vendo vídeos sobre física quântica ou bunda de criança, até argumento que por motivos de anunciantes, eles preferem que não tenha bunda de criança. O algoritmo existe para aumentar seu tempo de utilização das redes sociais, ele não faz a pessoa começar a gostar de uma coisa, ele amplifica o que você escolhe. Não faz sentido querer reclamar da rede social por mostrar o que você quis ver. Usar a conversa iniciada pelo vídeo do Felca para “regular as redes sociais” é pular justamente a parte humana do problema.

E de novo, eu estou fingindo que não sou cínico e acho que é de propósito: a crítica aqui é que essa solução de demonizar as redes sociais é o caminho mais fácil de fingir que está resolvendo. A gente resolve isso acabando com a integração social de quem explora crianças desse jeito.

A Sally disse algo que me fez pensar bastante: talvez as pessoas estejam fingindo que acham que “regular a rede” resolva porque é muito dolorido pensar que não resolve. Que crianças vão ser exploradas de forma sutil e de forma explícita por sociopatas. É a mãe que deixa o filho pequeno sozinho em casa para ir no baile funk, versão internet. É ruim pensar nisso mesmo, mas não muda a realidade: tem gente que vai prostituir crianças se tiver a oportunidade. A atenção que o vídeo recebeu é uma chance da maioria de nós achar que algo foi resolvido e passar mais alguns anos sem pensar nisso. A última vez foi com aquela Melody (explorada na cara dura por um monte de influencer que depois falou mal dos pais dela), e adivinha só? Não deu nada.

Até imagino saindo a “Lei Felca” transformando em crime o que já era crime e dando uma pena exemplar para quem em tese for pego explorando criança. Resultado provável: alguma histeria inicial, descobrem que a lei é vaga, advogados acham mil escapatórias, a maioria dos acusados se safa e diz para a filha fazer um vídeo dizendo que nunca foi abusada.

Saco, eu não queria ser cínico neste texto.

De novo o povo vai acreditar que mais leis e promessas de penas maiores resolvem, mas nunca acertando no algo: impunidade. Não é gente com compasso moral, ou se tiver, está afundado em mil camadas de justificativas pelo sonho de ganhar dinheiro e fama com a criança. O único jeito de controlar esses perfis exploradores é pegar a maioria e fazer a caveira social.

Os pais de criança sendo explorada em vídeo “sugestivo” na internet tem que saber que não vão arrancar um centavo dessa situação. E que se ficarem conhecidos, vão ser conhecidos como párias que prostituem os filhos. Não vai ser uma lei nem a rede social que vão resolver isso por nós. Já é ilegal explorar crianças, já tem bastante legislação dizendo que você está andando na corda bamba com qualquer conteúdo envolvendo crianças, a rede social já reconhece a maioria dos conteúdos explícitos.

O que tem de solução técnica fora disso, e agora eu religuei meu cinismo 100%, é exigir identificação verdadeira com documento e selfie para todos os usuários. O argumento é que acaba com anonimato e contas falsas de quem consome esse conteúdo explorativo, certo? Bom, lá vem uma série de perguntas:

Então… o que fazer com isso nesse caso de exploração infantil? As pessoas que usam a imagem desses menores não estão se escondendo, todas dizem que não tem nada de errado com seu conteúdo. Vai fazer o quê? Expor quem está visitando? Se uma pessoa visita um perfil desses ela entra numa lista? Mas se o conteúdo é sugestivo antes de ser ilegal, o que essa lista quer dizer? Quem gerencia essa lista e decide o que fazer com ela, o governo? Porque seria estranho deixar na mão da rede social, afinal, não estão dizendo que não confiam nela para tomar as medidas cabíveis?

Vai expor publicamente quem visita esses perfis? Isso é legal? Se o perfil de conteúdo problemático fizer um vídeo com outro tema sem mostrar uma criança rebolando e você clicar? Você entra na lista pública? Vai ficar marcado que vídeo você viu? Quem vai analisar essa lista, a IA? E o que ela faz com isso, denuncia a pessoa por ver conteúdo que não é ilegal?

Isso impede que os perfis continuem existindo? Isso torna o mercado de exploração infantil menos lucrativo? Vai ter alguma lei que proíbe visitar esses perfis? Se tiver, o perfil não deveria ser proibido também? Só criança vai poder ver? E quando for perfil de adolescente? Qual a faixa de idade que vai poder? E não é proibido que criança tenha perfil de qualquer jeito? Não vão estar no nome dos pais? E se a criança usar o perfil do pai para ver o vídeo de uma criança dançando e o pai acabar numa lista pública ou privada? Como isso tudo tira o incentivo financeiro dos exploradores de crianças?

O que DIABOS identificação vai resolver nesses casos? Cansou das perguntas? *respirando fundo

Isso não vai empurrar todo esse mercado sujo que por enquanto é minimamente visível para lugares mais escondidos que não exijam identificação? Vocês acham que não vai passar mais um tempo e um “Felca” vai denunciar o novo antro da “pornografia infantil soft” e o povão vai querer sangue de novo?

E que isso não vai gerar a mesma reação política? Eles tentaram só na rede social e não é que esse povo continua fazendo vídeo de criança altamente sexualizada? E se para cobrir essa brecha o governo brasileiro decidir que para usar a internet precisa de identificação?

Vai ser uma bela coincidência que tudo o que você faz na rede pode ser traçado de volta ao seu CPF e sua selfie. Não evita que pedófilo continue sendo pedófilo, mas é uma beleza para te achar caso diga alguma coisa que seus governantes não gostam. É uma armadilha, sempre foi uma armadilha.

Se vamos terceirizar a solução, eu sou do time de que para aparecer em rede social você tem que ter 18 anos, e toda foto de criança tem que ter rosto borrado, mesmo que seja seu filho. Não é que não pode usar, não pode usar nem ser exposto nela. Proibido para menores como se fosse um site de pornografia mesmo. Crianças expulsas da rede social para sempre sem necessariamente instalar um sistema de censura self-service para o governo.

Vamos fazer isso? Não. Isso dá trabalho e força adultos a acharem alternativas ao conforto da tela que cria filho. Mas daqui a alguns dias, boa parte das pessoas vai achar que fez algo para melhorar o mundo para os menores de idade, e vai ser alguma lei aleatória que não resolve nada.

Eu ainda acho que isso é um problema nosso anterior ao governo e precisa ser resolvido socialmente mesmo, com rejeição pesada a quem produz esse conteúdo (ao invés dos milhões de curtidas de quem é pedófilo ou acha “bonitinho” porque também era extremamente sexualizado ou sexualizada antes mesmo da adolescência). Essa porcarias existem porque tem muita gente que valida o comportamento até “pegar mal”. Curioso como todos os perfis bombavam e agora todo o brasileiro acha horrível e ofensivo… quem estava curtindo e achando normal virou sorvete e derreteu.

E se usarem bem esse surto de preocupação com as crianças, talvez empurrem um sistema de identificação para saber exatamente o que você anda falando sobre o Lula, o Bolsonaro ou o Xandão por aí. Depois que você abre a porta uma vez, todos os políticos presentes e futuros passam por ela. Você pode não ter nada a esconder no governo atual, mas… e no próximo? E no depois?

Comentários (6)

Deixe um comentário para Labubu sabor pistache Cancelar resposta

O seu endereço de e-mail não será publicado.