Veículos autônomos: proteger o motorista, acima dos demais?

Em entrevista no Paris Motor Show de 2016, Christoph von Hugo, da Mercedez-Benz, afirmou que os carros autônomos salvarão a vida dos passageiros em detrimento da de pedestres, quando estas forem as únicas opções (em clara alusão ao Dilema do Bonde, de Philippa Foot[1]). No lançamento do novo modelo de Mercedez-Benz com função de piloto automático, o executivo justificou a escolha argumentando que em face da natureza caótica comum a acidentes com automóveis, a inteligência artificial deveria priorizar as vidas sobre as quais tem controle mais direto, ou seja, a dos passageiros dos carros com ela equipados.

Posteriormente, a fabricante conseguiu que a revista publicasse um adendo na matéria declarando que o entrevistado havia sido citado incorretamente e que seria ilegal na Alemanha e em outros países favorecer uma vida em detrimento de outra. Adicionou, nesse sentido, que “nem programadores nem sistemas autônomos têm o direito de pesar o valor de vidas humanas”[2].

Filosoficamente, a ética kantiana não oferece resposta a situações em que todos os resultados envolvem morte humana.

E em formulação análoga à do Dilema do Bonde – com carro autônomo no lugar do bonde e programador no lugar da pessoa que pode desviar os trilhos -, o carro transporta passageiro em alta velocidade, um transeunte invade a pista, e eis que a inteligência artificial do veículo tem que optar entre seguir o rumo original atropelando o pedestre ou desviar abruptamente para salvá-lo porém arriscando capotar ou colidir com obstáculo lateral e ferir ou matar o passageiro.

No caso de inteligência artificial pré-programada para salvar o passageiro em detrimento do pedestre, não caberia invocar legítima defesa pois a decisão não fora do passageiro e sim do programador. O programador da I.A. do carro autônomo foi confrontado com a contingência de ter que escolher o resultado, em abstrato e antecipadamente. Em quê essa decisão necessária seria eticamente inadequada, se considerarmos que um motorista poderia validamente decidir salvar sua vida à custa daquela de um transeunte? Em outras palavras, por quê a Mercedez-Benz depois refutou  tomar decisão que um motorista naturalmente haveria de tomar?

Talvez uma das respostas esteja em como percebemos o “robô”, sobretudo no imaginário jurídico. Em Allen v. State, a Suprema Corte do Alabama negou o recurso de um condenado por assassinato que alegava que as expressões faciais do juiz durante o julgamento revelavam parcialidade e teriam criado preconceitos no júri. A apelação foi desprovida sob o entendimento de que “o juiz é um ser humano, não um autômato ou um robô”[3],sinalizando que um robô seria discreto quanto a emoções mas não seria capaz de plena sabedoria ou justiça[4]. Embutida nessa lógica está a noção de que embora vivamos sob “o governo das leis, não dos homens”[5], como escreveu John Adams na Constituição do Estado de Massachusetts de 1780[6], as leis devem ser interpretadas por seres humanos[7].

Na situação em que o carro autônomo levará à morte de um ser humano, o programador se arvora em juiz e o robô é executor da programação – a menos que o carro tenha sido equipado com computação cognitiva, que permite que o robô transborde do repertório fornecido na inteligência artificial, e passe a conceber inferências, sendo nesse caso o próprio juiz.

Privacy Safety by design?

Vigente desde 25 de maio de 2018, o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho de 27 de abril de 2016, intitulado General Data Protection Regulation, estabelece como norma a “privacy by design”. Seu artigo 25º(2) dispõe: “O responsável pelo tratamento aplica medidas técnicas e organizativas para assegurar que, por defeito [by default], só sejam tratados os dados pessoais que forem necessários para cada finalidade específica do tratamento”[8].

Em se falando de veículos autônomos, não seria adequado propor como princípio geral a “safety by design”? Mas qual deveria ser o padrão?

Em verdade, as fabricantes de carros (e de caminhões, trens, passenger drones, ou outros) podem estar diante de um dilema, enquanto fornecedores. No cenário em questão não necessariamente se trata de proteger apenas um consumidor. Tem-se possíveis danos tanto para o consumidor direto (o passageiro) quanto para consumidores por equiparação[9] (pedestres, ou passageiros de outros veículos).

E se no passado era possível discernir claramente os nexos de responsabilidade imediata entre fabricante e motorista, e mediata entre fabricante e pedestre, as tecnologias disruptivas cada vez mais diluem tais fronteiras, transportando para dentro do direito o efeito da disrupção.

A Inteligência Artificial e a Computação Cognitiva prometem alterar substancialmente o equilíbrio na relação entre fornecedores e consumidores de carros autônomos, programados por algoritmos, que convertem motoristas em passageiros sem controle sobre a direção do veículo, e cuja interferência poderia ser vista, em alguns casos, até mesmo como contraproducente do ponto de vista da segurança.

Num primeiro momento, aparentemente o pêndulo da responsabilidade civil tende para a penalização sobretudo dos fornecedores, até que, como costuma ocorrer, a oscilação caminhe para um ponto intermediário[10]. Nesse percurso, se pode antever o aprofundamento de algumas questões jurídicas e a agudização de dilemas éticos.

Pedro Rogério Borges de Carvalho

pedro@mda.com.br

[1] O problema, na sua versão aperfeiçoada por Judith Jarvis Thomson, imagina um bonde desgovernado em alta velocidade em rota de colisão com cinco trabalhadores que conduzem manutenções nos trilhos. Um observador é confrontado com a decisão de assistir ao inevitável desenrolar da cena, ou intervir acionando a chave de desvio dos trilhos e alterando o rumo do bonde para trilhos sobre os quais há apenas uma pessoa. Essencialmente, o problema ético testa a capacidade de escolher entre a vida de uma pessoa e um grupo. Vide: THE NEW YORK TIMES, “Philippa Foot, Renowned Philosopher, Dies at 90”. Disponível em: https://www.nytimes.com/2010/10/10/us/10foot.html. Acessado em: 21/08/2018.

[2] FORTUNE, “Mercedes-Benz’s Self-Driving Cars Would Choose Passenger Lives Over Bystanders”. Disponível em: http://fortune.com/2016/10/15/mercedes-self-driving-car-ethics/. Acessado em: 21/08/2018.

[3] Allen v. State, 276 So. 2d 583, 586 (Ala. 1973).

[4] CALO, Ryan, “Robots as Legal Metaphors”, Harvard Journal of Law & Technology, Vol.30, Nº1, 2017, p.217.

[5] JOHN ADAMS, “Novanglus Papers,” no. 7.—The Works of John Adams, ed. Charles Francis Adams, vol. 4, 1851,  p. 106.

[6] Massachusetts Constitution, Bill of Rights, 1780, art. 30.

[7] CALO, idem, p.219.

[8]Nos termos da versão oficial em português. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32016R0679&from=PT. Entenda-se “defeito” como “padrão”.

[9] Código de Defesa do Consumidor, Art. 17. Para os efeitos desta Seção, equiparam-se aos consumidores todas as vítimas do evento.

[10] WAGNER, Gerhard, “Robot Liability”, p.9. Disponível em: https://ssrn.com/abstract=3198764. Acessado em: 20/08/2018.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

error: Content is protected !!