Programado para matar

Programado para matar

Repercussões morais e jurídicas dos veículos autônomos que vão decidir por nós quem vive

Ainda não sabemos ao certo quando teremos carros autônomos, aqueles dirigidos sem intervenção humana, circulando nas nossas ruas. O que sabemos é que eles são o futuro da indústria automobilística e que a disputa por essa tecnologia está acirrada. Além da Google, Uber, e seu concorrente Lyft, há outras dezenas de fabricantes automotivos e empresas de softwares que estão investindo pesado em pesquisa e desenvolvimento para antecipar essa realidade. Muita gente pode estar ansiosa para querer andar em um desses veículos ou comprar o seu próprio, mas até lá temos ainda muito o que discutir e decidir, pois esses veículos não representam apenas a comodidade de poder ler um livro enquanto se “dirige”, interagir no celular, ou até mesmo tirar uma soneca no caminho.

Esses carros também vão decidir algo por quem estiver conduzindo. Uma decisão de cunho moral e com repercussão jurídica; quem matar?

Imagine um mundo cheio de máquinas circulando por aí com o poder de decidir sobre quem vive e quem morre em um eventual cenário de situação inusitada no trânsito. Isso não é uma ficção. É uma realidade que vem sendo discutida por especialistas de centros como o MIT (Massachusetts Institute of Technology), que até criou o projeto Moral Machine em que as pessoas podem julgar quais decisões esses automóveis devem tomar em algumas circunstâncias hipotéticas, mas perfeitamente possíveis de acontecer na vida real.

O que esses especialistas estão levantando, e que nós devemos aprofundar do ponto de vista ético e legal, é que, apesar de esses veículos estarem sendo criados com o propósito de reduzir os acidentes, afastando o fator humano, a inteligência artificial, que é a motorista, é desprovida de intuição e de julgamento. Vamos supor que você está dirigindo seu carro e uma criança entre bruscamente em sua frente, sem que haja qualquer tempo de frenagem.

Como um ato de reflexo, você pode desviar para a direita e atropelar um casal de idosos que estava na calçada; desviar para esquerda e bater de frente com o ônibus que vem na outra direção, ceifando sua vida e pondo a dos passageiros em risco; ou você continua seu trajeto e atropela a criança. Independentemente da decisão tomada, nossa escolha tem origem em nossa natureza humana, mesmo tendo como consequência a morte de alguém ou de alguns.

Imaginemos agora este mesmo cenário com um carro autônomo, que não age por reflexo ou instinto, mas conforme programado para agir. Qual deverá ser o comando de reação do veículo? Matar a criança que tem a vida toda pela frente? O casal de idosos, pois já desfrutaram um pouco do que a vida pôde lhes proporcionar, ou matar o passageiro indo contra nosso instinto de sobrevivência?

O exemplo acima nada mais é do que uma releitura do problema trazido pelo professor Michael Sandel, muito reproduzido nas aulas das faculdades de direito, usando-se trem, bonde, médicos etc., o qual, dentre outros dilemas, traz uma problemática moral de quem salvar em uma situação dessas: o casal de idosos, assumindo que duas vidas valem mais que uma? A da criança já que ela ainda não teve a oportunidade de desfrutar a vida? Ou tirar a própria vida em um ato de sacrifício?

Deixando as perguntas acima sem respostas a questão que queremos tratar aqui não é o dilema moral em si, mas a problemática de uma eventual conclusão desse dilema. Supondo que se decida que em uma situação dessas a resposta do carro seja no sentido de preservar o maior número de vidas, você compraria um carro que lhe coloca em risco em benefício dos demais? Ou que a resposta seja a manutenção da vida mais jovem em detrimento do mais velho, você abriria mão da sua autonomia? Independentemente da reação, o grande problema é que a programação desses veículos irá acarretar na premeditação do que irá ocorrer em uma situação inusitada e a escolha poderá ser fatal.

No primeiro semestre deste ano, foi registrado o primeiro caso mundial de morte causada por um carro autônomo, em fase de teste, na cidade de Tempe, no estado norte-americano do Arizona. O veículo, da Uber, que tinha um motorista humano como backup, falhou em reduzir a velocidade ao avistar uma mulher atravessando a rua à noite. O acidente fez a empresa suspender temporariamente o seu programa.

Humano tirando a vida de outro humano é algo que nossa sociedade já está acostumada a tratar. São anos de evolução convivendo com essa questão. O que será novo para nós é como tratar e lidar com máquinas tirando vidas humanas. Mas, principalmente, como vamos programar as reações de nossas máquinas, pois, no fim, não importa a resposta do carro. Ele terá sido programado para matar.

 

fonte: www.jota.info/opiniao-e-analise/artigos/programado-para-matar-04112018