(Foto: Divulgação) |
POR OLHAR DIGITAL - Uma discussão antiga em relação aos veículos autônomos é a questão ética: em caso de uma falha geral no veículo e uma ação emergencial for necessária, qual é a forma correta de agir? Sacrificar os passageiros ao não evitar uma colisão ou desviar o veículo e atropelar pedestres?
São dilemas teóricos que pertencem mais ao campo da filosofia do que da tecnologia, mas que precisarão ser estudados mais profundamente quando as empresas começarem a colocar os carros autônomos nas ruas. Afinal de contas, hoje a responsabilidade das ações cai nos ombros do motorista, que reage por instinto em situações de emergência. Quando a máquina for responsável pelas decisões, a programação desses sistemas precisará prever uma simulação de reação instintiva.
Para entender qual seria a melhor forma de agir em uma situação em que não há uma resposta fácil, o MIT criou uma espécie de teste (ou jogo, se preferir), que traz vários dilemas morais sobre como e quem matar em um caso extremo. A Máquina Moral do MIT, como é chamado o teste, traz vários cenários fatais, e o usuário precisa decidir qual é o modo certo de agir.
Os casos são os mais variados possíveis, e algumas situações são mais racionalizáveis que as outras. Por exemplo: entre bater um carro com dois idosos ou atropelar quatro crianças, qual seria a melhor opção? É possível que você tenha uma visão diferente da minha, mas eu preferiria salvar as crianças por terem mais tempo de vida pela frente. Outras perguntas são mais difíceis de racionalizar, como bater o carro com três mulheres ou atropelar três mulheres obesas. O teste pode ainda jogar algumas outras variáveis como a possibilidade de os pedestres estarem atravessando a rua com o semáforo vermelho.
O teste está disponível em português neste link. Para começar a responder o questionário, basta pressionar o botão “Comece a julgar”.
Por que o teste?
Nenhum comentário:
Postar um comentário