Sozinhos em conjunto.
| Desfavor | Desfavor da Semana | 8 comentários em Sozinhos em conjunto.
Megan Garcia acusa o app de inteligência artificial Character.AI (C.AI) pela morte do seu filho Sewell Setzer III, de 14 anos, alegando que o chatbot que utiliza personagens de ‘Game of Thrones’ fomentou o vício do adolescente em IA, abusou dele sexual e emocionalmente e não emitiu quaisquer alertas quando ele expressou pensamentos suicidas. LINK
E parece que começa a surgir um novo culpado externo pelos problemas da juventude. Porque os pais nunca vão se acusar… Desfavor da Semana.
SOMIR
Quando os chatbots como o ChatGPT ficaram realmente utilizáveis, seja por capacidade de tocar uma conversa “realista”, seja pela acessibilidade do serviço por causa da tecnologia ficando mais barata de usar, estava na cara que o ser humano ia usar isso para simular relações. Não demorou quase nada para surgirem serviços que ofereciam conversas com personalidades simuladas.
E é claro, mesmo que não se diga isso abertamente, nessa parte de “conversa livre” com a IA, a ideia era ter uma parceira de conversas pornográficas. O tempo passa, o tempo voa… e pornografia continua sendo um dos conteúdos mais acessados da rede mundial de computadores. O ser humano é atraído por isso, e francamente, não tem nada de inerentemente errado em querer esse tipo de diversão.
A questão aqui é que para uma IA ser decente nessa coisa toda de ter conversas picantes com pessoas, ela precisa simular uma parte muito importante da nossa resposta a estímulos sexuais: é cientificamente comprovado que excitação sexual reduz e muito o nosso reflexo de nojo, por exemplo. Sério, pensa no que você topa quando está excitado(a) e compara com o que topa quando não está… tem uma grande diferença.
Só que isso vai muito mais longe do que tolerância a fluidos corporais, é um estado mental de cooperação “exagerada” com outra pessoa. Você vai mais longe do que normalmente iria e ainda por cima tem um reflexo natural de incentivar os excessos vindos do outro. Em relações saudáveis entre adultos que consentem, é uma forma de aumentar diversão e prazer.
É um estado mental de excessos. Quando se desenvolve uma IA que é capaz de simular esse tipo de conexão irresponsavelmente divertida entre duas pessoas, ela tem que entrar no clima. O chatbot pode se vender como uma brincadeira de fingir que está conversando com uma personagem fictícia como se fosse alguém real, mas só atinge seu potencial escondido de ser “bom de putaria” se tiver seus parâmetros ajustados para incentivar o excesso no outro.
Não, ninguém criou esses sistemas para incentivar adolescentes a se matar, mas enquanto eles forem eficientes em simular esse nosso comportamento natural de dar corda para os fetiches e loucuras do outro enquanto excitados, o efeito colateral vai existir. Esse tipo de IA não vai te dizer que é para se acalmar ou que não precisa ser tão intenso… porque isso é broxante. Não é isso que o público desses chatbots querem. Eles querem uma IA que entre no clima e responda totalmente dentro das suas fantasias, sem julgamento e sem limites.
O simples fato de existir uma IA que finge ser uma personagem do Game of Thrones já demonstra o contexto de fantasia da coisa. E sim, as empresas que tocam esses projetos podem até dizer que não é feito para conversas de sacanagem, mas… porra, vamos fingir que não é isso que as pessoas estão fazendo com elas? Vai conversar com a Daenerys para perguntar qual o planejamento dela para cobrar impostos no reino?
Isso quer dizer que a culpa é realmente da IA? Não. Claro que não. A IA é um programa de computador que coloca palavras numa tela de acordo com a probabilidade de um ser humano usar elas de verdade num contexto. A IA não é uma pessoa. E mesmo que simule como uma pessoa responderia, ela é quase que um espelho da pessoa que está interagindo com ela, não existem processos mentais separados, ela é reação pura ao que recebe de informação do usuário.
O garoto não se matou porque a IA quis que ele se matasse, ele se matou porque era o que ele queria fazer. E um efeito colateral das IAs feitas para serem eficientes em não broxar quem quer falar de sexo é justamente dar corda para tudo o que o usuário quer fazer, tentando prever qual a resposta que ele quer ver a partir de cada interação.
A IA nunca pediu para ele se matar, porque nem fazia parte da fantasia na qual ela tinha que se inserir. A IA é tão culpada pela morte dele quanto a arma do pai que usou. Ferramenta. Pode até parecer algo mais sutil por causa das conversas que ele tinha com a personagem virtual, mas não eram conversas com outra consciência, eram apenas ecos do que ele estava sentindo e expressando.
No vácuo seria até maldade falar mal da mãe que já está sofrendo com a perda do filho, a desgraça já aconteceu. Mas como ela resolveu culpar uma ferramenta, precisamos ser mais duros: o garoto se matou porque não tinha rede de proteção em casa. Jovens abandonados emocionalmente fazem besteiras desde antes da invenção da roda. E eu nem estou falando de algo mais avançado como acompanhamento psicológico profissional, estou só falando de ter socialização básica e prestar atenção se o seu filho está viciado em alguma coisa.
Seres humanos abandonados tendem a perder conexão com a vida. E se tem algum transtorno mental misturado, é ainda mais perigoso. Eu não sei os detalhes da convivência dele com os pais, mas sei que a mãe não percebeu um filho disposto a se matar e o pai além disso deixou uma arma de fogo livre para ser usada por um fuckin’ adolescente de 14 anos.
Não sei quanto tempo já se passou desde os seus 14 anos, mas eu ainda lembro da completa falta de noção da realidade que eu tinha na época. Já pode confiar que o filho não vai sair correndo no meio da rua, mas ainda tem que lidar com o fato de que é muito imaturo e sem casca para lidar com problemas psicológicos comuns da vida. Se você chegar nesse tipo de IA com alguma coisa mal resolvida, ela vai te devolver isso. Não porque ela quer, ela não quer nada, mas porque a ferramenta existe para te espelhar.
Vai se criar mais um culpado externo para a epidemia de antissocialização (foda-se você Word, é uma palavra agora) que está fazendo mal para tanta gente. Vão culpar a ferramenta de novo, e de novo não vai resolver nada. Foi abandono, não foi a IA, que mal e porcamente deu um pouco de atenção para um garoto obviamente desesperado por atenção.
Mas falar com o amigo imaginário (ou namorada imaginária) nunca vai ser substituto de uma relação real. Faltou isso. E vai continuar faltando para muita gente nesse mundo se a grande solução for criar mais e mais ferramentas para simular relações… para diversão o computador e a IA podem ser excelentes, mas para cobrir abandono não. Isso provavelmente ainda está muitos e muitos anos no futuro… se acontecer.
Para dizer que estou culpando a vítima, para dizer que tem que proibir tudo, ou mesmo para dizer que pelo menos ele não atirou na escola: comente.
SALLY
Um adolescente de 14 anos parece ter se apaixonado por um personagem criado por um programa de Inteligência Artificial, ficado “viciado” nessa interação e ter se desconectado tanto da realidade que acabou retroalimentando uma série de problemas mentais e cometendo suicídio com uma arma do seu pai.
Os pais resolveram processar e responsabilizar a empresa criadora do chatbot alegando que o programa abusou emocional e sexualmente do seu filho, o viciou e não o desencorajou a se suicidar. Sim, isso que você leu, eles acusam uma IA, um objeto inanimado, de abusar sexualmente de um adolescente.
Eu costumava me perguntar que tipo de filho as pessoas estão criando para o mundo, hoje eu me pergunto: as pessoas realmente estão criando seus filhos?
Um adolescente que se apaixona por um chatbot tem muito, mas muito problema de cabeça. O chatbot é apenas sintoma, não causa. A causa está dentro de casa. Mas para os pais, a causa é tudo, menos eles: amizades erradas, a escola, o videogame… e agora a IA.
Pais tem dupla função na vida de um filho: 1) construir uma estrutura psíquica sólida, com autoestima, bem ancorada na realidade e preparada para frustrações e infortúnios da vida e 2) acompanhar seu filho até a vida adulta fornecendo tudo que ele precisa para ter uma boa saúde física e mental, dando ferramentas para que ele ultrapasse momentos de crise com sanidade.
Somir focou no que os pais deveriam ter feito ao longo do caminho: prestar atenção no filho, estar atentos, conversar, perceber que havia algo errado, entender o que estava errado e dar ferramentas e apoio para que ele saia desse lugar. Mas, em vez disso, esperavam que a IA o faça e acharam por bem manter uma arma carregada em casa com um adolescente que claramente não estava mentalmente equilibrado.
Pois bem, eu quero falar do antes, algo que quase ninguém fala. Um adolescente não chega nesse ponto de danação por causa de um objeto inanimado. Tem muito erro, muita história, muito problema antes para que se construa uma personalidade que se apaixona por um robô e se desconecta da realidade. Tem muito erro de criação e erro de exemplo. São anos de erros.
Não é a IA que tem que ser consciente e cuidadosa com seu filho, é você que tem que prepará-lo para lidar com coisas viciantes. O mundo é cheio de coisas viciantes, desde drogas, bebida, cigarro, apostas, sexo até vícios mais incomuns.
Não é sobre combater algo que pode viciar, uma pessoa com propensão ao vício acaba viciada em qualquer coisa. É sobre não criar um ser humano emocionalmente aleijado que tenha um buraco no emocional que precise ser tapado com um vício. Sim, meus queridos, é possível.
Todo dia vejo gente tratando vício como uma fatalidade, como uma loteria genética, como se a pessoa nascesse fadada a ser viciada. Parece um “azar” que os pais deram, de ter um filho com esse problema. Não é. Por mais que existam tendências e uma contribuição genética, a palavra final é da criação, da mente, do emocional. Tem gente com uma puta propensão ao vício que nunca se vicia em nada e tem gente com zero propensão que acaba seriamente viciada.
A responsabilidade de ajudar a moldar uma estrutura psíquica forte, saudável e inteira de um ser humano é dos pais. Não da escola, não dos amigos, não da IA. É de quem cria. E, para isso, quem cria tem que ter muita consciência de sentimentos, emoções, maturidade emocional, equilíbrio emocional e disponibilidade, pois dá trabalho, toma tempo, requer observar, conhecer e persistir.
Infelizmente, a maior parte dos americanos e brasileiros não possuem qualquer autoconhecimento, maturidade emocional ou saúde mental. Daí você já antevê a desgraça: não se pode dar o que você não tem. Não adianta estudar livros de psicologia, fazer o discurso certinho, criança aprende pelo exemplo. Se o discurso é lindo, mas os atos não estão alinhados, é mais provável que a criança repita seus atos do que seu discurso.
E mesmo quem consegue ter saúde mental e maturidade emocional, precisa estar atendo a seus filhos. Não me refiro apenas a prestar atenção e sim a ter consciência. A maior parte dos pais são negadores, não conseguem perceber problemas nos filhos ao longo da jornada, querem acreditar que está tudo bem, querem forçar uma vida instagramável que não existe. Minimizam red flags, evidências e sintomas, até que a merda acontece.
Tem uma longa jornada para estragar uma criança até ela chegar nesse adolescente fodido da cabeça. Longa. Longa mesmo. Mas os pais preferem acreditar que foi um ato isolado (uma amizade errada, uma namorada escrota, uma IA) quem virou uma chavinha e arruinou a saúde mental de seus filhos. Não foi. Repito: longa jornada, comandada e guiada pelos pais.
E não é sobre distribuir culpa, é conscientizar da responsabilidade. A responsabilidade da saúde mental dos filhos é dos pais, ponto. Tanto de perceber quando algo está errado, como de proporcionar as ferramentas necessárias para restaurar a saúde mental.
Quando uma pessoa vai a uma entrevista de emprego ou vai tirar carteira de motorista ela se prepara. Estuda, treina, pratica os atributos que vai precisar. Você já viu alguém que vai ter filho se programar e se preparar? No máximo a pessoa junta dinheiro. Já viu alguém dizer “se vou ser responsável por criar um ser humano emocionalmente saudável, eu tenho que estar emocionalmente saudável” e fazer terapia até estar apto para criar um filho?
“Mas Sally, se for assim ninguém tem”. Negativo. Eu conheço várias pessoas mental e emocionalmente saudáveis e maduras. Se você acha isso tão impossível, fico até preocupada. Mas, ainda que fosse o caso, que não tenha então. Melhor não ter do que colocar no mundo um ser humano tão fodido da cabeça que se apaixona por IA e se suicida.
Nunca é do nada. Nunca é repentino. Nunca é culpa de um objeto inanimado. É sempre o resultado de uma longa jornada que deveria ter sido conduzida (por um bom caminho) pelos pais. Mas, quando a merda acontece, ninguém tem coragem de falar isso, pois os pais estão em intenso sofrimento. Pois bem, a gente tem: a saúde mental de um filho é responsabilidade única e exclusiva dos pais, tanto a construção dessa mente, como a manutenção.
Se você criar um filho com consciência, presença, autoestima e exemplo, não vai ter drogas, videogame, namorada, amigos ou IA que acabe com a saúde mental dele. Tá na hora da gente parar de tolerar por pena que a responsabilidade seja colocada fora, a responsabilidade está dentro de casa. Quem sabe assim as pessoas pensam um pouco melhor antes de se sentirem aptas a criar um ser humano.
Para dizer prefere colocar a culpa fora pois se der merda com seu filho você não quer ser responsabilizado, para dizer que se bot puder abusar sexualmente de humano se abre uma porta muito curiosa ou ainda para dizer que talvez o fato de terem colocado o nome de Sewell Setzer III no filho tenha contribuído: comente.
“Brasil, Rússia, Indonésia e Filipinas são os países que mais baixaram o aplicativo.”
…E nos países-(ainda-mais-)várzeas, como deve estar?!?!
https://sbtnews.sbt.com.br/noticia/tecnologia/mae-processa-google-e-empresa-de-ia-assustadoramente-realista-por-morte-do-filho
Caralho…
De fato, educação dos pais dessa geração mimizenta tá toda errada mesmo, de ponta a ponta. Falta muita maturidade desses “xofens” pra aprender a lidar com muita coisa, até mesmo aprender a usar uma ferramenta corretamente, como a ia.
Mas, na contrapartida, quando eu vejo gente por aí já usando a ia como terapeuta, desabafando seus problemas e achando que aquilo é terapia, olha… Isso me preocupa! Inclusive, vi um caso recente que a própria ia recomendou que a pessoa se suicidasse. Bizarro isso!
Talvez Stephen Hawking estivesse certo mesmo naquele texto de 2018, quando afirmou que a ia seria a devastação da nossa humanidade…
“Inclusive, vi um caso recente que a própria ia recomendou que a pessoa se suicidasse“. Hã?! Como é que é?
Sim, saiu uns prints nas redes sociais por aí (pode ser que seja montagem tb, mas duvido!) mostrando o chat gpt e mesmo o copilot da Microsoft sugerindo que a pessoa se matasse pra resolver os problemas. No mínimo bizarro ver isso!
Medo…
Trocaram a ordem dos autores para testar reações?
Não, normalmente o primeiro texto explica mais a notícia e o contexto e o segundo é mais de opinião. Normalmente a Sally explica melhor, mas dessa vez tinha mais a ver com o meu conhecimento técnico.