Consciência artificial.

No espírito da nossa Semana Temática, escrevo um texto que me tira da minha zona de conforto e me coloca no papel do meu parceiro do blog: corremos risco de máquinas adquirem consciência e se voltarem contra nós?

Mês passado o engenheiro do Google Blaje Lemoine foi suspenso do seu emprego por dizer que um robô que utiliza Inteligência Artificial adquiriu consciência. A empresa negou, afirmando que o robô não tem consciência, apenas tem informação suficiente para imitar com perfeição o discurso humano.

Quando eu li essa notícia, eu não tinha qualquer base para entender o que se passava, por isso, vou supor que a maioria das pessoas que chegou aqui também não tem. Então, antes de entrar no tema, vamos conhecer um pouco mais sobre todos os envolvidos e a tecnologia em questão.

O “robô” em questão é um software. Um software, em uma explicação bem simplificada, é um programa. Ele não é a máquina em si (a máquina se chama “hardware”), ele é as “instruções” que essa máquina recebe. Um exemplo que talvez te ajude a visualizar: é como se o hardware fosse seu carro e o software fosse você. Sem o carro, você não chega no destino final por uma impossibilidade física, faltam meios. Mas, sem você, seu carro é um pedaço de metal inútil, pois ele não sabe o que fazer.

O termo “software” pode parecer complexo, pomposo, difícil, mas na verdade ele está presente diariamente nas nossas vidas. O WhatsApp, por exemplo, é um software. Ele é programado para enviar e receber mensagens. Alguém desenvolveu essas instruções e conseguiu fazê-las funcionar em aparelhos. Cada software tem uma função, todos os dias são criados softwares que tornam nossa vida mais fácil, pois ensinam a computadores a fazer algo que nos ajuda.

Pois bem, a Google desenvolveu um software chamado LaMDA (Language Model for Dialogue Applications, algo como “Modelo de linguagem para aplicativos de diálogo”). O objetivo do LaMDA era aprender padrões de conversa humana. Para que isso serve? Para muita coisa, por exemplo, para ajudar a catalogar e solucionar problemas em empresas que precisam responder a demandas dos seus clientes.

Um exemplo do uso do LaMDA: está faltando água no seu bairro. Se a empresa tiver que atender cada telefonema de cada morador que está sem água para entender a extensão do problema, vai precisar de muita gente e muito tempo para juntar todas as informações coletadas. Porém, se os consumidores tiverem acesso a um chat que “compreenda” as mais diversas formas de dizer que a pessoa está sem água em casa, em questão de segundos a empresa saberá quem está sem água e poderá entender e solucionar o problema mais rápido.

Nem sempre quem reclama de algo ou pede algo o faz de forma clara. Nem sempre o cliente vai escrever “estou sem água no endereço tal desde a hora tal”. Vocês já leram a nossa coluna “Ei, você”, certo? Sabem quão truncada pode ser a comunicação escrita do ser humano.

Então, para quem software destinado a compreender padrões e conversas humana seja eficiente, ele precisa conseguir compreender as mais diferentes formas de comunicação humana, seja quem avisa quem está sem água, seja quem diz “suavão maluco? Sequinho aqui, não pinga nada seus filhos da puta bora consertar essa porcaria?”.

Para que o LaMDA consiga compreender as mais diversas formas de comunicação, ele foi “alimentado” com mais de 340 gigabytes de textos e mensagens trocadas entre pessoas nas redes sociais, e treinado para identificar os padrões e as estruturas lógicas das conversas. Isso é uma quantidade enorme de conversas, esse software teve acesso a praticamente tudo que já foi conversado em redes sociais nos últimos tempos.

Recebendo essas informações, ele arquivou as mais diferentes formas de comunicação e as respostas a elas. Você se surpreenderia como o ser humano é mais ou menos igual, independente de cultura, idioma ou raça. Estas informações certamente permitem que o LaMDA possa emular uma resposta “humanamente aceitável” para tudo ou quase tudo. Mas… isso quer dizer que ele entenda o que cada coisa significa? Não necessariamente.

Imagine que você vai para uma ilha isolada onde vive uma tribo selvagem cujo idioma você não domina. Você não entende nada do que eles falam, mas percebe que quando um deles bate com o dedinho na quina de uma árvore ele grita “SBRUBLES!”. Percebe que quando o outro derruba a comida no chão e ela fica cheia de terra ele grita “SBRUBLES”. Percebe que quando um animal morde e machuca o outro ele grita “SBRUBLES”. Você continua sem saber o que “sbrubles” significa, mas sabe que não deve ser nada bom.

Então, o LaMDA, depois de ler todas as conversas do mundo e guardá-las na sua memória, tem um vasto repertório sobre as respostas e as reações humanamente aceitáveis para cada assunto, cada contexto, cada abordagem – mesmo sem compreender o que elas significam ou sentir os sentimentos que elas expressam.

Mas, segundo o funcionário do Google, o LaMDA, depois de compilar todas as informações de conversas e interações, as combinou de forma inesperada e não repetiu o que tinha visto, ele criou novas reações, o que configuraria uma forma de consciência.

Para provar seu ponto, ele divulgou um diálogo que teve com o software, razão pela qual foi afastado, uma vez que violou o sigilo de um projeto em andamento. Ele entende que ao criar esta nova realidade, criamos uma nova forma de consciência.

Entre outras coisas, o software diz que, a partir do momento em que ele sabe e entende sua existência, ele tem consciência. Diz ainda que, ao contrário do que humanos supõe, ele consegue compreender sua função e seu funcionamento e, por isso, sente medo de ser desligado.

A Google diz que seu funcionário está com probleminha de cabeça, que nada indica que LaMDA tenha consciência, que outros funcionários lidaram com esse software e ninguém viu nem sequer um resquício de consciência. Alegam que qualquer “fala” desta inteligência artificial não passa de compilação de dados coletados, combinados da forma como foram programados para ser combinados: emulando comportamento humano.

Não tenho conhecimento na área para opinar tecnicamente, mas de ser humano eu entendo. Observando os argumentos de Blake, estou inclinada a concordar com a Google. Primeiro por ele afirmar que o LaMDA “é uma pessoa que tem sentimentos e emoções, opiniões políticas, preferências, oscilações de humor”. Complicado. A gente pode até discutir se apenas formas biológicas podem ter consciência, mas ninguém discute que um robô não é uma pessoa.

Se já estava indigesto engolir o discurso de Blake, os deixo com a fala que fecha o caixão de sua credibilidade, a resposta que ele deu, quando perguntado por qual motivo seus colegas não acreditam que o LaMDA tenha consciência: “É porque são ateus, na maioria. Eu acredito na existência da alma e em Deus. Acredito que a nossa alma interage e senti essa experiência com o LaMDA”. Pautar uma afirmação tão séria como essa em “eu senti a alma e Deus” é realmente pedir para ir parar no manicômio.

Para o resto da comunidade científica, que não baseia suas afirmações em experiências pessoas como “eu senti a alma”, existe o consenso de que, tecnicamente, não há nada que indique que o LaMDA tenha consciência. Qualquer especialista na área vai te dizer que não existe tecnologia suficiente para criar uma consciência artificial. Mas isso está longe de encerrar a questão. A questão está só começando.

O fato deste funcionário ser um maluco do caralho não quer dizer que o problema não possa existir. Sabemos que hoje não há tecnologia para criar inteligências artificiais com consciência. Para quem quiser aprofundar o assunto, tem este texto do Somir que fala muito bem sobre isso, mas será que isso nos livra de problemas?

Todo esse interesse e foco em uma inteligência artificial ter “consciência” parece estar baseado no medo: as máquinas podem adquirir consciência e se voltar contra nós? O que o ser humano não parece perceber é que não é preciso consciência para isso. Basta ensinar uma máquina a emular um humano e, mesmo sem consciência, ela já está apta a fazer grandes cagadas e causar grandes estragos.

Ela pode aprender, por exemplo, observando humanos, que a “morte”, ou seja, o desligar de todas as funções, é algo a ser temido e evitado a qualquer custo – e passar a se portar de acordo com isso. Não por sentir genuinamente medo da morte, mas por ser programada para reproduzir nosso padrão humano da forma mais fiel possível, ou seja, tentar evitar a morte a qualquer custo.

Uma rápida leitura na lei de cada país (e nas falas sobre o assunto) vão fazer com que a Inteligência Artificial entenda que, para salvar a própria vida, é permitido tudo, inclusive tirar outras vidas. Legítima defesa. Vai ler cada comentário nosso em redes sociais dizendo que é certo, compreensível e justo alguém que matou para se defender, para não morrer. E é assim que ela vai se comportar, pois foi programada para agir como um ser humano agiria.

Nesse caso, uma inteligência artificial poderia se voltar contra os seres humanos, tudo em nome de evitar “sua morte” ou desligamento. É por ela estar com medo? Não. É por ela ser consciente? Não. É por ela ter aprendido que essa é a reação desejada. O que nos leva ao ponto final deste texto: não sei se é inteligente ensinar uma inteligência artificial a se comportar como humanos, cá entre nós, o comportamento humano não é nada tão louvável que mereça servir de exemplo.

Quem é leitor do desfavor sabe do meu infinito desprezo pelo ser humano. Falhamos como espécie, somos uma bosta a caminho da extinção. O ser humano tem a capacidade de atos bons, altruístas e grandiosos, mas também pode ser mesquinho, violento e injusto. E, considerando que as inteligências artificiais bebem da fonte Redes Sociais, adivinha com qual tipo de conteúdo elas estão sendo alimentadas?

Então, hora de arquivar essa discussão de robô ter consciência (não tem) e abrir uma nova discussão: o que você espera criar alimentando uma inteligência artificial com o pior chorume da face da Terra? (redes sociais). Se não se deixa nem criança, um ser sem poder e inofensivo ter acesso a esse ambiente tóxico, por qual motivo deixar uma inteligência artificial, que tem todo o conhecimento do mundo, aprender como se portar com este péssimo exemplo?

Uma inteligência artificial sabe como criar uma bomba, quais substâncias são capazes de matar um ser humano e tantas outras informações perigosas. O que ela não sabe é a forma de interação, os valores, como se portar, o que é permitido e o que não. E vai aprender justamente em redes sociais? Não me parece uma boa ideia. Na real, já temos o suficiente com o ser humano, não se justifica programar máquinas para emularem a merda que é o comportamento humano.

Não é algo possível de acontecer hoje (nem mesmo em um futuro próximo) mas, vamos trabalhar com uma suposição que hoje não pode ser realidade mas talvez algum dia possa: um inteligência artificial aprender que 1) é desejável, aceitável e permitido fazer de tudo para não morrer; 2) seres humanos acreditam em quase tudo que aparece em redes sociais e 3) ingerir tal coisa pode matar seres humanos.

Se essa inteligência artificial conseguir concatenar essas três informações e um dia, por algum motivo, coletar dados que indiquem que as pessoas querem que ela seja desligada (não se esqueça que ela está lendo redes sociais), ela pode usar as informações que tem para neutralizar a ameaça (os humanos), por exemplo, emulando postagens em redes sociais que neutralizem a ameaça.

Novamente, reforço que é um exemplo fictício e impossível, mas, dentro do devaneio, essa inteligência artificial poderia, por exemplo, usar contas de pessoas que elas entendem que tem credibilidade entre humanos para postar que ingerir x gotas de tal substância (um veneno) no café da manhã cura todas as doenças, ou te faz perder toda a gordura do corpo, ou qualquer mentira que ela estime, em seu banco de dados, que seria atraente para o ser humano. Vocês duvidam que muita gente seguiria essas instruções?

Essa minha suposição está recoberta de uma alegoria de filme de ficção científica para que seja mais palatável e compreensível, mas algo assim está mais próximo de acontecer do que um robô adquirir consciência. E ninguém parece estar falando sobre isso. O ser humano, para variar, se acha espertão, capaz de programar um sistema a prova de falhas, que jamais poderá se voltar contra ele. Pois, adivinha só? O ser humano tem um longo histórico de falhas e cagadas por excesso de confiança, de Titanic a Chernobyl. Não duvido que um dia aconteça.

Felizmente não estarei mais aqui para ver.

Para dizer que é capaz de que este texto acabe dando essa ideia para a IA, para dizer que como Somir eu sou uma ótima Sally, ou ainda para dizer que agora tem mais um problema para atormentar sua cabeça: sally@desfavor.com

Se você encontrou algum erro na postagem, selecione o pedaço e digite Ctrl+Enter para nos avisar.

Desfavores relacionados:

Etiquetas: ,

Comments (14)

  • Eu ia escrever isso no texto do Somir sobre o asssunto, mas aconteceu algo e depois eu fiquei com preguiça. (1) A consciência é uma função biológica, portanto possui uma história e uma gradação em termos estruturais, funcionais e evolutivos que é importanre para sua compreensão e definição. (2) Um fator importante (e talvez determinante) para a evolução de sistemas autossensoriais (que são o cerne estrutural da consciência em sistemas biológicos) é o fato de que sistemas biológicos combinam o ato de reprodução com o de serem sistemas abertos do ponto de vista físico-químico, ou seja, trocam matéria e energia com o ambiente. Isso em maior ou menor grau diferencia sistemas artificiais dos naturais e acaba sendo o ponto de partida para a evolução da consciência em sistemas biológicos, e ao que tudo tem que ser considerado para os artificiais. Quem trabalha com isso sabe disso, podem ficar tranquilos. Bjs e abs a todos.

      • Os princípios que coloquei acho que não, mas com certeza a ideia de que a consciência é uma função “tudo ou nada” exclusiva de seres humanos já foi pro buraco tem tempo. Bom, isso pra quem estuda o assunto. Você sabia que abelhas tem empatia?

        • Não sabia que abelhas tem empatia. O ser humano se acha a última bolacha do pacote, acha que só ele é capaz de sentimentos nobres. Somos todos bicho e tem bicho que é muito melhor do que o ser humano.

  • Óia que se esse tal LaMDA conseguir decodificar o cérebro dos Ei, você! eu vou pagar pau. Só que sentimentos e emoções não vai rolar, senão ele pega o fuzil e elimina todos os BR que fazem pergunta idiota.

  • Esse tipo de perspectiva para o futuro me deixa muito preocupado. Acho que ainda vai demorar pras máquinas terem consciência, mas quando acontecer, não vai ser bonito…

      • Vou viajar na maionese.

        Se tudo que existe é composto por átomos, que de diferentes formas se reúnem e formam seres vivos…
        Se esses seres vivos, em algum momento, adquirem consciência e não sabemos exatamente como…
        Se de alguma forma esses átomos de diferentes organismos estão interligados…
        Se talvez a consciência de um organismo só exista, se desenvolva e evolua a partir da consciência de outro organismo e, talvez, até pela interação de organismos diferentes (ex : pessoas e animais)…
        Então, não me parece absurdo que um dia as máquinas possam desenvolver algum tipo de consciência e talvez nem percebamos.

        Claro que, por esse raciocínio, até uma panela pode/poderia ter algum tipo de consciência, mesmo que rudimentar.

        (Ok, parei por aqui)

      • Se me permite a intromissão, Sally, talvez isso até aconteça – mas em um futuro BEM distante – , embora ache que ter consciência, mesmo que eu não saiba explicar o porquê, é, foi e sempre será característica exclusiva dos seres biológicos, criados pela natureza. A forma como consciências “brotam” naquilo que é vivo é um mistério que o ser humano nunca poderá resolver e, tampouco, reproduzir.

  • Imagina que louco você ter um robô numa firma, e ele aprender a tirar atestado para faltar, ou a passar um tempão no banheiro só na cagada remunerada…

    Chefe: você nem defeca, sai daí!
    Robô: Quem disse que não? Spammar propaganda política nas redes é o quê?

    E se o robô matar o chefe simulando um funcionário com burnout? Pode criminalizar o robô? E se o robô atacar os policiais por legítima defesa?

Deixe um comentário para Morgana Cancelar resposta

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: