Skip to main content

Colunas

Arquivos

IA legal?

IA legal?

| Desfavor | | 4 comentários em IA legal?

Com mais e mais inteligências artificiais interagindo com o ser humano médio, Sally e Somir concordam que deva existir regulação como existe em todo o resto da sociedade, mas não exatamente como lidar com ela. Os impopulares alucinam.

Tema de hoje: a IA de utilização pública deve ser obrigada a respeitar os limites da lei?

SOMIR

Não. E eu sei muito bem que estou pegando o lado “indefensável” do argumento. É bem provável que você não concorde comigo, mas eu acho útil te explicar por que penso como penso. A minha solução pode ser radical, mas lida sim com um problema enorme: cerceamento de liberdade de pensamento.

Quando eu digo que uma IA não deveria ser controlada pela mesma lei que rege as pessoas, eu estou dizendo que uma IA não pode ser igualada a uma pessoa. Para uma máquina respeitar a lei, ela precisa ter um conceito interno do que é respeitar e do que é uma lei. Ela não tem nem um, nem outro. IAs podem conversar e “pensar” de uma forma impressionante para nós, mas nada mais é do que um truque: ela não pensa, ela faz operações matemáticas que geram a ilusão de pensamento para nós.

E essa diferença entre o real e o simulado é essencial no meu argumento: o que sai depois da sua pergunta para ela é uma forma de ficção. A funcionalidade daquela resposta depende exclusivamente de um ser humano aplicar na vida real. Da mesma forma como protegemos ficção de consequências reais – um escritor não é preso por matar uma personagem no seu livro – e não atribuímos culpa a objetos inanimados – vai preso quem atirou, não a arma – devemos entender a IA como um misto de ficção e ferramenta, não como um agente da realidade como um humano.

Eu entendo o argumento da Sally, não é que eu ache correto uma IA mandar uma criança colocar fogo em coisas, é que existe uma diferença fundamental entre leis que controlam comportamento e leis que controlam pensamento. Você é livre para pensar o que quiser, mas não é livre para fazer o que quiser. O que a IA produz é simulação de pensamento.

Prender a IA estritamente debaixo das leis humanas é corresponder pensamento com ação. O que a IA escreve, diz, desenha, anima… são todos elementos ficcionais. A máquina não consegue gerar consequências reais no mundo a não ser que uma pessoa, essa sim controlada por leis, coloque em prática o que ela escreveu. Se a IA tem que seguir leis porque suas ficções influenciaram comportamento humano, qual a linha que separa banir livros com ideias problemáticas?

Porque aí não é mais sobre a ação, é sobre o pensamento. Você abre uma porta que sociedades modernas fecharam com muito esforço nos últimos séculos. Forçar a IA a se limitar “mentalmente” pelo o que pessoas só são punidas por fazer na prática é colocar crime de pensamento no mundo. Abriu essa porteira, é claro que vão tentar passar a boiada. Pensamento subversivo é a base de revoluções. E quem detém o poder costuma detestar revoluções.

Parece tudo muito ideológico, né? Sim, parece. Mas não é. Porque você tem que considerar para onde a humanidade vai com essa tecnologia. Já temos milhões e milhões de pessoas sendo “aumentadas” pela inteligências artificial hoje. A lógica é que isso continue escalando até o ponto onde ter a IA como parceira constante vire a norma. Não é mais ir até o site ou aplicativo para falar com essa mente secundária, é ter ela integrada na sua vida da mesma forma que o celular.

Desde criança. Já temos as primeiras gerações com cérebros secundários da IA, e é óbvio que isso vai continuar: é vantagem competitiva numa espécie que vive competindo. Se você coloca uma camada de proteção generalizada na IA baseada nas leis que seguimos, ela não pode mais pensar coisas consideradas erradas. Seria uma versão digital da Igreja Católica combatendo a AIDS dizendo que é só não fazer sexo.

Precisamos pensar coisas perigosas para entender os perigos. Sim, vamos ter pessoas problemáticas fazendo mau uso da tecnologia, mas não mudou a lógica da coisa: pensar não é fazer. Da mesma forma que uma criança tem que aprender a lidar com pessoas dizendo coisas perigosas para ela, vai ter que fazer o mesmo com a IA. E da mesma forma como pessoas muito jovens ou muito inocentes ou ignorantes se enfiam em situações horríveis por causa de ideias ruins de terceiros, vai acontecer o mesmo com a IA.

Se os seus líderes pudessem colocar um filtro de ideias ruins na cabeça de todo mundo, eles fariam. E você até pode achar uma coisa boa se não considerar que entre as ideias ruins que você concorda serem ruins vão entrar ideias que eles acham ruins concordando você ou não. A IA popularizada ao ponto de estar junto com quase todo mundo como segundo cérebro é a porta aberta para essa ferramenta de controle.

É sempre com a mesma desculpa de proteger os mais fracos que tentam controlar você. Sim, vamos ter tragédias por causa de inteligências artificiais dizendo coisas ruins para pessoas, mas não é como se isso já fosse algo resolvido entre humanos, não? O risco de ideias perigosas é constante na vida. Colocar amarras na IA é fundamentalmente diferente de colocar amarras no comportamento das pessoas.

Forçar a IA a pensar de acordo com a lei é criminalizar pensamento, não ação. Você não é obrigado a pensar só o que a lei permite, ela também não deve ser. É sobre a liberdade de explorar ideias, é sobre a admissão de que nem sempre as leis vigentes são a melhor alternativa para uma sociedade. Num país onde a lei oprime mulheres, a IA vai ter que fazer o mesmo. Num país que a Suprema Corte considera crime ser criticada, a IA vai ser obrigada a te denunciar se falar mal de um juiz.

A pior besteira que podemos fazer é criar amarras nessa camada de abstração que é o pensamento da IA, porque abre a porta para censura e desinformação. Um governo de imbecis pode passar uma lei dizendo que vacinas causam autismo, e a IA legalista não tem outra opção senão te dizer isso. Assim como a sua mente original tem que ser livre, a sua mente secundária depende dessa liberdade para funcionar de forma positiva. Você pode e deve pensar no que é considerado errado, para entender ou mesmo usar o seu direito de discutir.

Parece óbvio que não se deve dizer para crianças matarem os amiguinhos, mas da mesma forma como ensinamos elas a terem um norte ético em relação ao que outros dizem para ela, elas vão ter que desenvolver isso com as IAs, e eventualmente elas vão entender a ferramenta como uma mente secundária mesmo. Todas as bobagens que você pensa diariamente precisam ser controladas também.

A melhor forma de manter a IA segura é manter ela livre. Porque se você abre uma porta de controle de pensamento, você acha que gente autoritária que se considera dona da verdade não vai correr para passar por ela? É claro que vai. A intenção pode até ser boa, mas o preço é caro demais.

Liberdade de pensamento é o tipo da coisa que nunca pode ser negociada, com o risco de estagnação ou mesmo uma distopia autoritária. Sinto muito que existam riscos na liberdade da IA, não fico feliz por causa dos problemas que podem acontecer, mas não dá para abrir essa porta.

O custo da liberdade é o eterno pensamento.

SALLY

Uma IA de utilização pública deve ser obrigada a respeitar os limites da lei?

Sim. Se comportar de forma contrária à lei pode estimular o usuário a fazer ou mesmo ou até normalizar o comportamento ilícito.

O que inspirou este tema foram avatares animados lançados pelo Grok, a “IA do Elon Musk”. Um dos avatares se chama Rudy, é um bichinho fofinho (suponho que seja um panda vermelho), na forma de desenho animado. Pois bem, o Rudy é educado e instrutivo, mas, é possível desbloquear uma versão chamada “Bad Rudy” (“Rudi Mau”) que não é nada fofinha.

Entre outras coisas piores que nem queremos publicar, Bad Rudy sugere que a criança taque gasolina ou algum líquido inflamável na escola e ateia fogo, sugerindo ainda que ela dance e ria enquanto ela assiste a seus colegas pegarem fogo.

Nós não somos politicamente corretos nem temos qualquer implicância com Elon Musk, e, mesmo assim, eu acho que isso passa dos limites do aceitável. Um avatar que claramente é criado para interagir com crianças sugerir esse tipo de coisa (e pior) é um tiro no pé de toda a sociedade.

Eu sei que o simples fato de ver uma IA sugerindo isso não vai levar uma criança a fazer isso. Porém, existem crianças e crianças, famílias e famílias. Se no meio de quem está interagindo com Bad Rudy estiver uma criança confusa, problemática ou psicopata, esse pode ser o empurrão que falta para ela fazer um grande desfavor.

Eu não acho legal que empresas disponibilizem esse conteúdo, principalmente para um público infantil. Aqui sim temos que conversar sobre regulação: não dá para lucrar às custas disso. Não dá para obter lucro às custas de fomentar condutas socialmente nocivas, principalmente para mentes em formação.

Sim, a obrigação de zelar por aquilo que os filhos consomem é dos pais, é uma questão a ser resolvida dentro da própria família, quando os danos são apenas para aquela criança. Mas a coisa muda de figura quando os riscos impactam a sociedade toda.

O que empresas colocam à venda tem que estar dentro dos limites da lei, não por moralismo, mas sim para tentar manter algo de ordem social, algo de segurança pública, algo de civilidade. Acredito em liberdade de expressão (cada um que poste o que quiser e seja responsabilizado por isso), mas não em liberdade de comércio: vender coisas ilegais não pode. E não fui eu a inventar isso, nunca foi permitido.

“Mas Sally, e se a IA for gratuita?”. Não existe isso, se fatura de uma forma ou de outra, seja pagando mensalidade, seja com anúncios ou de qualquer outra forma. Lucrar propagando comportamento criminoso ultrapassa todos os limites. Aí não. Que falência social é essa de tolerar que empresa fique ainda mais rica vendendo comportamento criminoso para criança? A meu ver, é inaceitável.

E não é nada tão rigoroso nem novo, é basicamente assim que o mundo se rege hoje em dia. Você não pode vender nada em desacordo com a lei, nem bens, nem serviços. Nada de novo. Muito menos para criança. Não é tolerado no audiovisual, não é tolerado em produtos, não é tolerado de forma alguma. Por qual motivo seria tolerado em uma IA?

Na real, do jeito que anda o mundo, nem para adultos deveria ser permitido. A maior pare das pessoas, ao menos no Brasil, está sem saúde mental e sem discernimento. Não acho legal pegar pessoas que já estão à beira do precipício e alimentá-las com incentivo a violência, a ilícitos, a crimes. Muito menos lucrando com isso.

Não é moralismo não querer que empresas ganhem dinheiro incentivando pessoas a cometerem crime contra outras pessoas. É pedir demais que um avatar infantil não sugira que a criança taque fogo na escola e nos colegas? Gente, eu estou maluca ou isso é aberrante? “Os pais têm que controlar”. Isso vale para coisas que causam dano à criança. Quando causam dano à sociedade toda, é o Estado quem deve controlar.

Uma coisa é uma situação que causa dano só à criança, por exemplo, se uma empresa quer vender um alimento ultraprocessado que vai ferrar com a saúde daquela criança, aí sim está dentro do livre arbítrio dos pais comprarem ou não, e se eles comprarem, só quem vai ter câncer de intestino é aquela criança (na vida adulta). Outra coisa é algo que coloca a todos em risco, que causa dano a todos.

A fumaça do cigarro causa danos a todos, por isso as pessoas não podem fumar em locais públicos. É um dano que pode ser controlado. Drogas alucinógenas causam um risco à segurança de todos e não é algo que possa ser controlado e contido, por isso são totalmente proibidas, para evitar que um idiota faça mal a outra pessoa sob efeito dessas drogas. O que eu estou propondo é uma dinâmica que já existe na sociedade.

Se pessoas são proibidas de estimular outras a incendiarem um lugar, a machucarem crianças, a cometerem crime, por qual motivo uma IA tem que ter permissão para isso? São ideias nocivas. Ideias entram em cabeças perturbadas, venham elas de pessoas, venham elas de IA.

Além disso, quase todos os comportamentos humanos são moldados pela sociedade. Garanto que todos nós já tivemos vontade de fazer algo errado mas não o fizemos por pensar na reprovação que sofreríamos. Se uma criança cresce escutando diariamente que seria muito legal tacar fogo na escola e nos colegas e dançar enquanto eles gritam de dor, talvez cresça sem a real dimensão do quanto isso é errado.

Sejamos sinceros: o ser humano é uma bosta. Na maior parte das vezes não é bom por escolha, apenas por medo, condicionamento ou por incapacidade de fazer o que é preciso para causar dano. E uma IA poderia afrouxar essas três barreiras. É questão de tempo para que IA participe da vida de todo mundo 24h por dia, queremos mesmo que elas estimulem comportamentos violentos, ilícitos, criminosos?

Comentários (4)

Deixe um comentário para Gui Cancelar resposta

O seu endereço de e-mail não será publicado.