Skip to main content

Colunas

Arquivos

Mas, regular o quê?

Mas, regular o quê?

| Somir | | 4 comentários em Mas, regular o quê?

Ok, tem muito golpe e mentira nas redes sociais, sejam elas por motivos financeiros ou por pura escrotidão humana. Ok, as redes sociais não podem ser um ponto cego da legislação do país. Mas, o que regular? Como regular?

Se depender dos governantes brasileiros, o foco é regular o algoritmo para que suas propagandas eleitorais ganhem destaque. Se tem algo que ambas as turmas concordam é que tem conteúdo demais do outro lado aparecendo. A direita acha que a internet é um antro de esquerdistas fazendo o que querem sem supervisão, a esquerda acha que a internet é um antro de direitistas fazendo o que querem sem supervisão.

E é fácil entrar nessa discussão. No final das contas, é o conceito que mais faz sentido para o cidadão médio: o “robô” da rede social manda conteúdo para as pessoas, e se esse sistema mandar conteúdo melhor, as redes sociais ficam melhores, certo? Eu consigo perceber essa ideia no fundo dos discursos da maioria dos políticos e defensores da regulação em geral.

Mas tem uma conversa mais difícil aí. O conteúdo é um problema por causa da regulação frouxa?

Vamos pensar: sim, as Big Techs podem gastar mais dinheiro com moderação. Cabe nas margens de lucro delas, porque quando é para controlar conteúdo que espanta anunciantes, eles se mexem. Os sistemas de moderação automática conseguem identificar conteúdo chocante ou pornográfico na maioria das vezes, tanto que sua timeline raramente tem algo explícito.

Mas colocar um moderador virtual que consegue analisar milhões de postagens numa fração de tempo que um humano faria não mudou a lógica geral que sexo e violência vendem, não? As modelos podem não estar mostrando até as trompas nas fotos e vídeos, mas estão apelando para o mesmo interesse com roupas reveladoras. Não precisa passar vídeo de execução de cartel mexicano na sua tela para violência ser tema constante de postagens politizadas.

Algo que todo mundo vê: dos menores criadores até mesmo grandes portais de notícias, existe o hábito de trocar letras por números em palavras pesadas como morte ou estupro. O algoritmo não gosta delas, foi programado para bloquear ou reduzir o alcance de conteúdos que usem esses termos, porque os anunciantes detestam aparecer junto com essas postagens.

Você acha que é muito mais difícil para o robô aprender que m0rte e morte são a mesma coisa? Porque não é. Não é um truque genial inalcançável pelos programadores dos sistemas de moderação, a vista grossa é grossa de propósito. E por dois motivos: o primeiro é que as pessoas realmente gostam desse tipo de conteúdo e a rede social que conseguir banir de vez vai perder muito tempo de visualização (e dinheiro de anunciantes) se realmente se esforçar para eliminar esse tipo de apelação.

O segundo é o efeito “enxugar gelo”. Onde há demanda, há oferta. Se o algoritmo estiver bloqueando “m0rte”, a próxima ideia é “m0r1e”, e depois “m0r13”, e quando nem isso passar… a linguagem se adapta. A palavra suicídio em inglês (suicide) é banida ou severamente monitorada em quase todas as redes sociais do mundo. É uma das piores coisas que você pode fazer pelo seu alcance, vai gerar escrutínio imediato e provavelmente vai fazer seu conteúdo ser soterrado. Em sessões de comentários e chats, a palavra muitas vezes é literalmente banida. Não passa pela moderação automática.

As pessoas foram trocando letras por números por um tempo, mas como a palavra incomoda muito a sociedade, nesse caso é comum banir até essas alterações. Porque sim, é muito possível fazer o computador entender que você só trocou uma coisa de lugar. E aqui eu volto à ideia de que a linguagem se adapta: às vezes você vai ver pessoas escrevendo ou até mesmo falando “unalive” ou variações como “un-alive”, que é uma palavra que nunca existiu no inglês. Numa tradução igualmente inventada, é meio como “desviver”.

Eu argumento que já é uma palavra que quase todos os jovens que entendem inglês compreendem naturalmente. É a mesma coisa que morte em diversos contextos em que existe censura ou punição pelo uso de palavras relacionadas. O ponto aqui é que existem mil formas diferentes de contornar regulação se a pessoa não concorda em ser regulada. As IAs podem ficar muito boas em perceber tendências e atualizar sua lista de termos proibidos, mas não existe como evitar que a linguagem continue se moldando ao redor dessas limitações.

Moderação sempre está um passo atrás, porque ela só existe reagindo ao conteúdo desenvolvido por pessoas. Pode ter uma lista perfeita de palavras proibidas, mas no segundo que um grupo definir que a frase “abraçar o besouro” significa estuprar uma pessoa, não existe moderação externa ao grupo que seja capaz de resolver. O meu ponto aqui é que é um problema fundamental mesmo: é físico, a informação não pode ser analisada antes de ser transmitida.

Alguém mais atento vai perceber que eu nem considerei humanos fazendo essa tarefa. Uma pessoa esperta consegue perceber que tem algo errado ali pelo contexto. Mesmo que a pessoa criando o conteúdo indesejável dê todas as voltas que puder no algoritmo, um ser humano atento pega a intenção. Mas é outro problema fundamental: quem vai fazer esse trabalho? Problema de volume de mão-de-obra, porque é uma quantidade insana de conteúdo sendo produzido e subido na internet a cada segundo.

E mesmo que fosse economicamente viável ter o número de pessoas necessário para fazer essa moderação, ainda há o problema da qualidade da mão-de-obra. Precisa de uma pessoa com experiência de vida, conhecimento técnico, cultura geral e disposição a aprender sem parar para realmente combater o volume de truques e esquemas que a humanidade consegue criar a cada momento. A coisa mais próxima disso no tamanho do trabalho em questão é uma IA.

Vai ter que ser a máquina. Não tem gente para regular conteúdo em tempo real. E nem faz sentido que seja gente fazendo isso, é enterrar gente capaz de resolver muitos outros problemas da sociedade num trabalho sem fim. E para a máquina funcionar, a regulação precisa ter regras claras e atalhos para entender o que estamos publicando.

E aqui, meu ponto: leis de países modernos já cobrem basicamente todos os crimes que podem ser cometidos a partir de redes sociais. Você consegue reduzir basicamente todo conteúdo problemático a uma lei da “vida real”. Tigrinho é estelionato, crianças não podem ser assediadas, as pessoas têm direito de imagem… a internet não inventou crimes. Usar um vídeo feito por IA com uma pessoa famosa para vender um produto é o mesmo crime de contratar alguém parecido e filmar o comercial fingindo que é a pessoa famosa.

A rede social não faz nenhuma coisa ilegal que só pode existir nela. Nem mesmo pirataria, porque as pessoas podiam piratear papiros no Egito antigo com um escriba safado, sempre foi o mesmo conceito. Manipular algoritmo nada mais é do que apelar para medos e desejos primais ou usar sua influência para passar na frente do concorrente.

Sério, você consegue imaginar um crime online que simplesmente não seja coberto por alguma parte da legislação pré-internet? Roubo é roubo. Calúnia é calúnia. Pornografia infantil é pornografia infantil. Não existe isso de que não temos leis para definir o que é aceitável ou não na internet.

Mesmo coisas que parecem exclusivamente online como pornografia de vingança (divulgar imagens pornográficas de terceiros sem seu consentimento) ainda são totalmente baseadas em repercussões reais que já faziam parte da lógica de funcionamento do mundo. Se no século passado alguém imprimisse a foto nua de sua ex e saísse distribuindo na rua contra a vontade dela, todo mundo ia achar correto? Já era errado, já sabíamos que era errado.

Regulação tem muito mais a ver com gerar consequências para o que já sabemos que é errado. As regras das redes sociais já costumam proibir basicamente tudo o que você acha que deveria ser proibido. E existem mecanismos para gerar punição: como eu trabalho com publicidade, já cansei de ver sistemas automatizados barrarem meus conteúdos por cismarem com algo que consideram ilegal ou imoral. Às vezes até derrubam a conta e te impedem de anunciar. Eu sei que existe, mesmo que no caso profissional que eu use sejam sempre falsos positivos.

A questão aqui é que o custo de quebrar essas regras é muito pequeno. Golpistas profissionais criam ou roubam perfis sem parar, se pegarem eles num golpe, eles trocam o nome da loja falsa e começam de novo. Não é difícil achar o conteúdo indesejado na internet, o difícil é impedir que as pessoas continuem publicando esse conteúdo. E para impedir, tem que reduzir impunidade. Não digo só para “dar exemplo”, punição impede que o mesmo golpista repita o crime enquanto a punição acontece.

Que tipo de regulação das redes sociais cobre esse buraco da impunidade? Vamos pensar num caso extremo: precisa colocar o CPF para usar rede social e ele aparece em tudo o que você publica. Todo mundo identificado! Isso vai resolver? Porque a maioria das coisas erradas são feitas de peito aberto nesse país. Esquema de golpe de Estado revelado pelo WhatsApp dos conspiradores.

Talvez impeça algumas pessoas com mais bom senso de abusar, mas a gente que está nessa para conseguir dinheiro ou abusar dos outros nem costuma ser tão secreta assim. Fazem porque acham que não vai dar nada. Alguns por burrice, mas muitos porque sabem do problema fundamental do Brasil: não conseguimos pegar a maioria dos criminosos.

Não tem estrutura para dar conta de tanto bandido. Policiais e juízes sobrecarregados eternamente, cadeias lotadas na mão do crime organizado, burocracia da idade da pedra… mesmo que as redes sociais façam o trabalho de identificar os criminosos e entregue de bandeja para a Justiça, neste país se solta a maioria dos criminosos com sentenças simbólicas não porque somos benevolentes, mas porque as cadeias estão superlotadas e juízes com bom senso não querem mandar mais gente para o PCC.

Mulher entra com medida protetiva contra o ex-marido violento e morre dias depois porque a polícia nunca ia conseguir acompanhar mesmo. Boa parte do nosso sistema de combate ao crime vive no desespero, no limite do colapso. Se começarmos a julgar e punir os bandidos e os malucos da internet, existe alguma esperança disso funcionar?

Estou dizendo que é para desistir e deixar a internet sem lei? Não. Claro que não. Estou dizendo que não estou vendo nenhuma sugestão de regulação que já não seja feita de alguma forma, que as alternativas à moderação automática não são realistas, e que o problema central da impunidade não vai ser resolvido. Eu quero saber o que diabos querem regular? Tornar ilegais as coisas que já são ilegais?

Forçar as plataformas a fazer essa justiça pelo Estado? Elas nem podem. Porque se o indivíduo cometendo os crimes não for diretamente impedido de continuar fazendo essas coisas, ele vai voltar. Meio como se a regulação para empresas que soltam materiais tóxicos nos rios fosse colocar uma rolha no cano de esgoto. É só tirar. Se colocarem de novo, tira de novo. Se a punição existe apenas no campo da própria rede social, a pessoa que quer fazer coisa errada vai continuar fazendo. Ninguém acha que o sistema judiciário brasileiro vai funcionar melhor se a rede social banir mais palavras, né?

E é isso que me leva a desconfiar muito de políticos falando de regulação de redes sociais. Eles já podem trabalhar para reduzir absurdamente o número de conteúdos danosos ilegais na rede, porque começa fora da internet. Se a influencer tivesse certeza que ia tomar uma multa arrasadora depois de praticar estelionato e não que fosse fazer selfie com políticos… bom, o planejamento de negócios dela seria outro. E mesmo que fosse imbecil ou gananciosa ao ponto de tentar mesmo assim, a punição acabaria com sua capacidade de utilizar a fama para explorar seguidores.

É muito difícil, eu concordo que é. Não acertamos nem a parte de literais assassinatos e estupros ainda, fazer a Justiça funcionar na internet é uma tarefa ainda mais complexa. Mas todos já deveríamos saber que sem isso, todo o resto é apenas propaganda de político picareta, ou pior, desculpa esfarrapada para manipular o algoritmo dizendo que está protegendo a população.

As coisas que estão erradas nas redes sociais já são erradas, inclusive do ponto de vista legal. Mas os criminosos são pegos “por amostragem”, um ou outro caso que gera interesse midiático. Não me incomoda nem um pouco botar pressão nas Big Techs, elas lucram muito com conteúdos ilegais, mas eu não sei se alguém com poder pensou que elas não vão conseguir impedir a postagem de conteúdos ilegais se não tiver consequência pelo poder público.

Pode xingar as empresas o quanto quiser, mas para cada bloqueio que eles colocarem, nasce um novo “m0rte”. O golpista que tenta enganar sua vó com loja falsa no Instagram é um golpista… ele vai estar um passo na frente e não vai se doer por estar fazendo a coisa errada. O escroto que fica aliciando meninas a se cortarem no Discord é um psicopata, sociopata ou alguma outra condição que compele a fazer isso. Eles vão dar a volta no algoritmo, porque eles “precisam” dar a volta no algoritmo.

Não é por esse ângulo que você combate o problema. Tem que ter consequência e impedimentos reais para a realização de novos crimes. É assustador que um nerd venha dizer que a solução não está na internet. Ou pior, é inocência: porque no fundo a turma da “regulação das redes” sabe dessa falha óbvia e está apenas querendo influenciar o algoritmo para divulgar mais o seus golpes.

Não é raiva do tigrinho, é inveja dele.

Comentários (4)

Deixe um comentário

O seu endereço de e-mail não será publicado.