Estariam os carros autônomos sendo programados para atropelar ciclistas?

Um novo estudo mostra como os veículos autônomos tomarão decisões éticas na estrada

(Foto: Getty Images/ Alexander Ryumin)

Em março, um carro autônomo atropelou e matou uma mulher que pedalava em uma estrada em Temple, no Arizona (EUA). O veículo, que era operado pela Uber, tinha uma motorista ao volante, mas que estava olhando para o celular no exato momento do acidente.

A ciclista, Elaine Herzberg, de 46 anos, foi atingida pelo carro a mais de 60 km/h. Mais tarde ela morreria no hospital em razão dos ferimentos sofridos, tornando-se a primeira “pedestre” morta por um veículo autônomo.

De acordo com um relatório da National Transportation Safety Board, os sensores do carro detectaram Elaine cerca de seis segundos antes do acidente. Mas o programa teve dificuldade em reconhecê-la como pessoa, primeiro classificando-a como um “objeto desconhecido”, depois como outro veículo e, finalmente, como uma bicicleta.

Pouco mais de um segundo antes do impacto, o sistema decidiu que o carro deveria simplesmente parar. No entanto, a Uber tinha desativado os freios de emergência para evitar paradas repentinas durante os testes – um risco que, nesse caso, foi fatal.

Leia também: 5 frases de Mandela explicadas pelo ciclismo

O acidente aponta para como os carros autônomos irão agir em futuros cenários de colisão, à medida que a tecnologia melhora: o software reunirá dados por meio de sensores e o veículo fará o que julgar melhor e mais seguro.

Carros autônomos – questionamento ético

Mas e se essas escolhas apresentarem um conflito ético? Se o carro tiver que escolher entre, por exemplo, desviar para uma ciclovia, colocando potencialmente em perigo os ciclistas, ou arriscar uma colisão que feriria ou mataria seus passageiros?

Um estudo recente levou em conta o jogo online “Moral Machine” (Máquina Moral) (jogue AQUI) que dá aos jogadores um conjunto de 13 dilemas éticos gerados aleatoriamente, em que carros autônomos podem enfrentar nas ruas, e pergunta a eles para escolher entre a melhor opção.

“Máquina Moral”: O que você faria? (Ilustração: MIT Media Lab)

Em última análise, os seres humanos reais programarão o software autônomo, que tomará essas decisões – e suas atitudes se refletirão no modo como a tecnologia vai atuar.

De acordo com Azim Shariff, professor associado de psicologia da Universidade da Colúmbia Britânica e co-autor do estudo, os resultados mostraram que os princípios morais que orientam a tomada de decisão das pessoas no jogo variam de país para país. E, embora o jogo não tenha perguntado especificamente sobre os ciclistas, ele disse que, pela maneira como os jogadores veem os pedestres, isso pode indicar como os carros autônomos eventualmente serão programados para tratar pessoas em bicicletas.

Shariff descobriu que, quando as pessoas se imaginam como passageiros, prefeririam ter um carro autônomo que priorize suas próprias vidas em detrimento dos pedestres fora do carro.

É claro que a promessa de veículos autônomos é que eles podem reagir mais rápido que os humanos, e nunca ficarão cansados, bêbados ou distraídos como as pessoas. Em tese, isso significa menos mortes em geral.

Mas, se aqueles que programam carros autônomos não podem se imaginar como ciclistas, é lógico que os ciclistas não receberão a mesma consideração que os passageiros do carro quando o software tiver que tomar decisões rápidas de vida ou morte. O que significa que os ciclistas podem enfrentar um risco desproporcional de lesão ou morte, mesmo quando compartilham a estrada com motoristas não-humanos e, teoricamente,“neutros”.

[Informações extraídas de reportagem de Jordan Smith para o site Bicycling.com]