Skip to main content

Colunas

Arquivos

Sem direção?

Sem direção?

| Somir | | 13 comentários em Sem direção?

No domingo passado (dia 18), tivemos algo acontecendo pela primeira vez: um carro autônomo – isso é, um que dirige sozinho guiado por computadores – atropelou e matou uma pessoa. O carro era da Uber, e estava dirigindo na cidade americana de Tempe, no Arizona. A vítima atravessava a rua na hora da colisão. O assunto em si é polêmico, mas a discussão sobre como uma inteligência artificial deve lidar com os perigos do trânsito é ainda pior…

Assim como várias outras empresas, a Uber estava testando carros guiados por computador há algum tempo. Google, Tesla e mais algumas acabaram escolhendo o estado americano do Arizona, que permitiu e até incentivou os testes em algumas de suas cidades. Num desses testes, finalmente aconteceu: uma mulher atravessava a rua de noite carregando sua bicicleta, fora da faixa. O carro autônomo do Uber estava fazendo mais um de seus testes, com uma pessoa dentro do carro para assumir em caso de emergências, mas com o computador do carro dirigindo mesmo. Por algum motivo, o sistema não conseguiu reconhecer a mulher e frear a tempo. Ela morreu.

As investigações preliminares dão conta que foi um acidente que uma pessoa não conseguiria ter evitado. O vídeo saiu ontem mesmo. Essa foi inclusive a primeira declaração da polícia local, sob suspeitas de estar aliviando a barra para a Uber. Ainda vamos ter dados mais concretos, mas cá entre nós… eu não teria conseguido desviar da mulher. Mas a pessoa dentro do carro também não ajudou: em diversos momentos parecia estar olhando para baixo, possivelmente para seu celular. A função dela era estar atenta a esses imprevistos, mas até pelo layout da criança (viram o vídeo?), não me passou muita confiança de reflexos rápidos.

Mas… e daí que uma pessoa provavelmente não teria evitado o acidente? Um computador não tem que pensar muito mais rápido? Bom, é aí que a trama se complica de vez. Em tese, os sensores do carro deveriam ter notado a pessoa, porque o computador não depende exclusivamente da visão como nós. Tendo um sistema de laser e radar para detectar possíveis colisões à sua frente. Outros carros autônomos já demonstraram uma capacidade impressionante de reagir a surpresas no trânsito, então não está descartada uma falha nos sistemas do carro… mas, notem a sutileza: a falha do carro autônomo, se aconteceu, aconteceu num nível de excelência que não se espera de um ser humano.

Ver alguém surgindo no meio de uma estrada escura seria pedir demais em qualquer julgamento de responsabilidade para uma pessoa, ainda mais se ela estava com os faróis ligados e andando na velocidade permitida da via. Se não fosse um carro autônomo, provavelmente estaríamos falando sobre alguém ver as luzes de um carro na pista e decidir atravessar na frente mesmo assim. Até que ponto temos que cobrar mais de uma inteligência artificial? As leis para carros autônomos deveriam ser mais severas? Se o máximo que eles alcançarem for capacidade humana de resolver problemas, será que já não está bom demais? Colocamos carros na mão de pessoas que bebem, que usam drogas, que descontam sua raiva… um computador que falha mais ou menos nas mesmas coisas que uma pessoa saudável e atenta falharia não parece um grande problema.

Mas, podemos mais. Com o tempo, as tecnologias avançam e chegaremos num ponto onde os computadores não falharão nesses momentos. E aí vamos descobrir o enorme dilema que sai disso: se não é falha, é escolha. Como os computadores de carros autônomos tem que ser instruídos a escolher quando vidas humanas estão em risco? Porque retirar falhas do sistema não significa excluir acidentes da equação. Enquanto pessoas ainda puderem dirigir, o fator de aleatoriedade estará muito presente. Enquanto pessoas estiverem atravessando ruas ou vivendo perto de estradas, nenhuma máquina vai estar livre desse tipo de surpresas.

E mesmo com computadores enxergando muito bem ao seu redor e com tempos de resposta espetaculares, máquinas ainda quebram. O sistema pode ser perfeito quando funcional, mas se der algum bug no software ou se der um mau contato no hardware, as coisas ainda podem dar muito errado. Nesses casos de imprevisibilidade, como um computador deve agir?

Em primeiro lugar, deve proteger a vida humana, correto? Nem quero imaginar um mundo onde os carros autônomos estão programados para reduzir os custos de um acidente antes de pensar em salvar vidas. Presume-se que a primeira regra de todas seja manter todas as pessoas envolvidas sãs e salvas. Mas isso já começa a dar trabalho: porque vamos ter que começar a pensar em dilemas do tipo sob uma nova ótica, a de que vai dar tempo de tomar a melhor decisão. Uma pessoa não é obrigada a escolher corretamente numa situação de pânico, nosso sistema de leis entende que o ser humano é falho e faz muita coisa errada sem a clara intenção de fazer mal a outras pessoas.

Mas, num computador, alguém tomou a decisão antes. Digamos que a lógica é reduzir o número de casualidades. Ferir o mínimo de pessoas possível. Parece razoável, não? Mas complica… sempre complica. Vamos dar um exemplo para esclarecer melhor: você está dirigindo, e um casal atravessa a rua sem aviso algum, bem na sua frente. Está muito em cima para frear, você só tem duas opções, desviar para a calçada onde uma outra pessoa aleatória está esperando para atravessar, ou atropelar o casal que está bem na sua frente. Pela lógica do número de casualidades, o computador deveria ir para a calçada e ferir uma pessoa ao invés de duas. Mas… o casal atravessou quando não podia, a outra pessoa estava certa esperando sua vez. Vamos recompensar irresponsabilidade nesse caso?

Ok, então vamos colocar mais um grau de complexidade aqui: menor número de casualidades de acordo com o grau de obediência às regras de trânsito vigentes. Aí o computador seria responsável por julgar quem merece ou não ser protegido das consequências de um acidente. Quem escreveu o código teria poder de vida ou morte na nossa sociedade… a pessoa que escreveu esse código tem autoridade para tomar essa decisão? Quando uma pessoa tem uma decisão dessas para tomar, convencionamos aceitar que ela não estava em condições para fazer um juízo de valor verdadeiro da situação. Ela age por instinto. Um computador toma a decisão deliberadamente. Se você toma uma decisão de matar alguém sabendo muito bem o que está fazendo, mesmo que seja para proteger outras pessoas… você é ou não um assassino? Porque esse tipo de decisão numa pessoa comum vem com valores internos… entendemos quando uma pessoa decide ferir ou matar outra para proteger alguém querido, mas um computador não tem que ter ninguém querido. É uma escolha fria.

Você não pode simplesmente matar alguém por achar que essa pessoa vai fazer mal a outras, não sem uma provocação clara que possa ser provada depois. Um computador não poderia também. E voltando ao ponto das pessoas queridas, qual seria a responsabilidade do carro autônomo sobre as pessoas que está levando? Deve tratá-las como qualquer um ou colocar alguma prioridade na vida delas para a decisão? Outro exemplo: o computador nota que vai acontecer uma colisão se continuar em linha reta. Se não mudar de rota, tem 20% de chance de matar seu passageiro e 50% de chance de matar o motorista do outro carro. Se mudar de rota, tem 25% de chance de matar a pessoa que carrega e 30% de chance de matar a do outro carro. Mudar de rota diminui a chance de morte em geral, mas aumenta a do próprio passageiro. Qual escolher?

Vamos querer andar em carros que arriscam nossa própria vida para proteger outras pessoas? Será que dá pra confiar que outras pessoas não hackeariam os sistemas dos próprios carros para fazê-los escolher sempre a via de menor risco para elas? Tem mais, tem muito mais: se o sistema que faz essas escolhas pode ser mexido e está na mão de autoridades, será que um carro carregando um desembargador não vai ter um algorítimo de proteção desequilibrado em relação a outras pessoas? Será que o carro do presidente não vai ter prioridade total sobre todas as outras pessoas do país?

Alguém vai ter que tomar essas decisões. E piora… durante boa parte desse processo, vai ter um volante ou algo do tipo no carro, para o caso de uma pane. A pessoa tem que ter a chance de assumir o controle do veículo caso note o computador fazendo algo errado. E se a pessoa errar nessa decisão e assumir o controle do carro para fazer algo ainda pior? O computador tem que tomar uma decisão de passar por cima das decisões de um humano para protegê-lo. O que pode dar muito errado. Computadores podem ter capacidade de tomar decisões em frações de segundo, mas ainda sim foram programados por pessoas. Ele pode ter prioridades completamente malucas para nós e decidir atropelar criancinhas se for a opção mais correta na sua lógica. Como é que fica o psicológico de alguém que viu seu carro atropelar uma criança deliberadamente? Por mais correta que possa ter sido a opção da máquina, ela pode parecer moralmente errada para nós.

Ainda não temos que lidar com todas esses dilemas no mundo de hoje, mas carros autônomos são uma tendência que vai pegar. Precisamos entender toda essa complexidade comportamental e tomar decisões muito difíceis que estamos protelando faz tempo. Não tenho problemas com um carro autônomo atropelando alguém, mesmo se errou. Motoristas erram o tempo todo, e na média um computador vai errar muito menos, ou pelo menos errar de formas mais previsíveis. O perigo é quando não for mais erro, for decisão. Quem vai definir esse código de conduta?

Ou pior, quem vai definir esse código de conduta quando isso fatalmente chegar ao Brasil?

Para dizer que preferia o texto de funk, para dizer que é só colocar o sistema do Carmaggedon em todos os carros, ou mesmo para dizer que vai adorar transferir os pontos da sua carteira para um computador: somir@desfavor.com

Comentários (13)

Deixe um comentário para Somir Cancelar resposta

O seu endereço de e-mail não será publicado.