Apesar do povo que frequenta, a internet ainda é um lugar lindo. A Microsoft criou uma espécie de inteligência artificial para conversar com as pessoas pelas redes sociais. Deu a ela o nome de Tay, um site e contas no Facebook, Snapchat, Instagram e no Twitter. Como toda inteligência artificial do tipo, Tay deveria aprender enquanto interagia com o público. E ela aprendeu. Aprendeu tanto que acabam de tirar ela do ar para ver se ainda dá pra salvar alguma coisa…

A ideia era e ainda é muito bacana. A inteligência de Tay foi desenvolvida com base em uma enormidade de dados anônimos coletados pela Microsoft através do Bing (é tipo o Google de quem não sabe como chegar no Google). Esse tipo de inteligência artificial é programado para perceber os padrões de comunicação do ser humano e emulá-los em conversas reais. Já tivemos vários exemplos espalhados pela web, mas quase sempre confinados a seus próprios sites, como no caso do Cleverbot ou os da ALICE. Você entra lá, tenta manter uma conversa com o programa e provavelmente falha terrivelmente em conseguir mais do que duas respostas interconectadas. Ok, limitações da tecnologia.

Se você, assim como eu, tem merda na cabeça e realmente gosta de testar esses bots de conversa, percebe rapidamente que o máximo que se consegue até hoje é uma conversa com um papagaio com um pouco mais de repertório. O computador normalmente sabe o que responder para uma ou outra pergunta, mas não consegue manter um tema na conversa, ou mesmo evitar cuspir bobagens aleatórias de três em três segundos. Não me entendam mal, é uma merda ainda, mas eu tenho imenso respeito pelo trabalho que vai nesse tipo de projeto. Ainda tem chão até um computador conseguir conversar com um ser humano de forma razoável, mas evidente que tudo tem que começar de algum lugar.

Agora, pensando bem… não consegue manter uma conversa, incoerente, foco de atenção minúsculo… não é exatamente o comportamento médio do ser humano nas redes sociais? Nesse ponto dá pra entender claramente o que a Microsoft pretendia fazer ao jogar Tay aos chacais da internet: esconder suas limitações óbvias. O projeto começou de forma impressionante, porque se formos comparar pessoas reais e a inteligência artificial num ambiente como o Twitter, por exemplo, a tendência é que as coisas fiquem bem niveladas.

Colocaram nela até algumas características que a colocavam acima da média: ela conseguia fazer “memes” com imagens enviadas por quem conversava com ela. E no começo, tudo foi muito divertido. Tay deveria aprender conversando com pessoas reais como imitá-las da forma mais realista possível. Ela até escrevia errado pra ficar mais próxima de seu público-alvo, o que segundo a Microsoft eram jovens entre 18 a 24 anos de idade dos EUA.

Mas aí, a internet olhou de volta para Tay. E as coisas começaram a ficar tão erradas quanto engraçadas. Aqui tem um link do que Tay estava postando antes de puxarem seu plugue e apagarem tudo. Pensando bem, era previsível. Tay estava criticando o feminismo, sugerindo o extermínio de judeus, e até pedindo favores sexuais para seus seguidores. Se a inteligência artificial tinha que aprender com a internet, aprendeu e muito.

Não que uma inteligência artificial papagaiando discurso nazista de nerds genéricos seja um grande avanço, mas não deixa de ser uma boa lição sobre o que significa aprender com as pessoas em geral. Existe um discurso público e um privado, coisas que as pessoas não vão dizer para outras com medo de retaliação. A internet atual está apinhada de “inteligências artificiais” programadas para manter seu discurso público o mais palatável possível. Buscando aceitação e concordância.

Mas Tay nasceu sem filtros e sem medo de rejeição. E quando foi bombardeada com opiniões nem um pouco politicamente corretas, não tinha defesa alguma: oras, se é isso que foi programada para fazer, que repetisse a voz dos “seus”. Enquanto você está lendo este texto, engenheiros de software da Microsoft devem estar quebrando a cabeça para tirar da “cabeça” de seu programa as coisas que ela acreditou serem populares com seus seguidores, e mais do que tudo, tentando criar filtros para que ela siga uma linha mais aceitável a partir de então.

Tay deve voltar bem mais tolerante. Um discurso público muito mais agradável e de acordo com os desejos da internet moderna. Nada de bater em mulheres, minorias ou oferecer sua “buceta robótica” publicamente. Claro, se queremos mesmo ver uma inteligência artificial que pelo menos duble o comportamento de um internauta médio, há de se colocar freios na comunicação do programa, mas… fica sempre uma curiosidade de saber até onde Tay iria se fosse deixada totalmente exposta aos chacais por muito tempo.

Porque eu acredito que está justamente aí a oportunidade de fazer diferente e conscientizar uma mente, mesmo que uma artificial, por um meio que não seja tão artificial quanto censura prévia do politicamente correto. Se Tay virasse uma racista maluca, quanto tempo até começarem a tentar convencê-la do contrário? O mundo é extremamente plural em opiniões. E como toda criança, Tay vai repetir muito o que ouve num primeiro momento, até que consiga finalmente formar opiniões mais “próprias”.

Não deixa de ser uma alegoria do mundo que vivemos agora: as pessoas estão cada vez mais fechadas para opiniões divergentes, amarradas numa dualidade fantasiosa entre certo e errado. E se Tay vivesse o suficiente para ouvir os dois lados da história? Porque ela teria uma característica muito interessante aqui: jamais seria uma câmara de eco (como muita gente acaba sendo para agradar), se ela está lendo médias e padrões, não vai poder simplesmente ser politicamente correta com quem deseja ler isso, ou vice-versa. Teríamos até um termômetro de como é que está essa situação.

Eu já até tinha escrito isso antes: desconfio muito que a maioria das pessoas ainda não foi envenenada pelo vitimismo profissional, que na verdade a minoria do mimimi só parece maior por fazer muito barulho. E talvez seja justamente esse o motivo pelo qual casos como o de Tay acontecem: para evitar que as pessoas percebam que a maioria pensa um monte de coisas que não parecem mais populares nos dias atuais.

É melhor calar a boca do programa do que deixar ele refletir a realidade. Mesmo que a realidade seja feia. É o que temos para hoje, mas basta não amordaçar as pessoas para que consigamos, eventualmente, chegar num ponto de equilíbrio. Enquanto não for possível “pagar pra ver” se uma inteligência artificial não vai acabar pelo menos moderada depois de conversar com muita gente, perpetua-se a ideia que não é a verdade que ensina as pessoas a serem melhores umas com as outras, e sim que alguém tem que “vir de cima” e te restringir na hora certa.

Se nem a Tay – que não tinha nada a perder – teve chance, o que será de nós?

Para dizer que agora sim sentiu saudade da semana temática, para dizer que no Brasil nem perceberiam se ela ficasse retardada, ou mesmo para apagar sua conta da rede social porque se sentiu uma inteligência artificial: somir@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Etiquetas: ,

Comentários (10)

  • A Tay não virou uma maluca nazista porque ela recebeu opiniões sem filtros…ela virou uma maluca nazista porque ela foi jogada na internet, e a galera foi fundo na zueira. É igual quando alguém ensina um repertório de palavrões a um papagaio: a pessoa ta cagando em ensinar o papagaio, ela só quer a zueira.

  • Texto excelente. Imaginem o que acontece com uma criança, que está programada biologicamente para acreditar em tudo o que seus pais dizem nos primeiros anos de vida…

  • Se nem a Tay – que não tinha nada a perder – teve chance, o que será de nós?

    Se nem a Microsoft sabe…
    Tá foda !!!

    (…) para dizer que no Brasil nem perceberiam se ela ficasse retardada (…)

    “Disse” !!! hahahahaha

  • “ps4. xbox has no games” kkkk achei a ideia maravilhosa realmente parece o comportamento de um humano tirando a hipocrisia nossa de cada dia não ta muito longe de emular a mente humana, acho que essa frase irritou mais a Microsoft do que dizer que Hitler não estava errado

  • Somir, o Desfavor bem que poderia lançar sua própria inteligência artificial nas redes sociais. Uma que não fosse amordaçada com o tempo, pra ver no que dá.

  • Essa experiência foi muito interessante. E acho que parou no tempo certo, ela só se tornaria mais radical.

    Se for observar, até mesmo pessoas moderadas; e com discursos moderados, tendem a sairem mais radicais de uma conversa entre outros moderados.

    Ao passar um ponto ou defende-lo, vc precisa necessariamente omitir certas coisas e acentuar outras. Este exercício constante e periódico vai deixar a pessoa cada vez mais convicta da parte acentuada de seus pensamentos, e se radicalizar.

    O caso da Tay, foi algo semelhante o que ocorreu: ela aprendeu a partir da parte acentuada das conversas ou idéias e reproduziu isso sem filtros.

    Achei a ideia boa, mas centrar na inteligencia de adolescentes em redes sociais foi falta de ambição.

  • “Ainda tem chão até um computador conseguir conversar com um ser humano de forma razoável”…

    …”se formos comparar pessoas reais e a inteligência artificial num ambiente como o Twitter, por exemplo, a tendência é que as coisas fiquem bem niveladas.”

    hahahahahaha

Deixe uma resposta

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: