Quão ético deve ser um carro autônomo?

Quando confrontado com um acidente inevitável, qual vida um veículo autônomo deve tentar priorizar?

A ideia de se sentar e relaxar, enquanto seu carro se dirige através das ruas da cidade pode parecer algo de um filme de ficção científica, mas os avanços na tecnologia de carros autônomos pressionam a praticidade de tal conceito cada vez mais em direção à realidade.

Pode não demorar muito para que esse cenário se torne comum e os carros movidos manualmente se tornem uma coisa do passado.

Um dos maiores dilemas em relação ao uso de tais veículos, no entanto, continua a estar na programação que determina o que o carro deve fazer no caso de um acidente inevitável.

Em um estudo recente, pesquisadores do Instituto de Ciências Cognitivas da Universidade de Osnabruck pediram a voluntários para operarem uma realidade virtual simulando vários cenários de trânsito diferentes.

A simulação expôs cada um dos participantes a acidentes inevitáveis ​​envolvendo pessoas e animais e depois analisou como eles reagiram a cada situação.

Um modelo foi então desenvolvido com base nos resultados que poderiam ser aplicados a um veículo de auto condução.

“Agora sabemos que implementar decisões éticas humanas em máquinas irão nos colocar em duplo dilema”, afirmou o co-autor do estudo, Peter Konig.

“Em primeiro lugar, temos que decidir se os valores morais devem ser incluídos nas diretrizes para o comportamento da máquina e, em segundo lugar, se forem, as máquinas irão funcionar exatamente como seres humanos?”