Essa ninguém esperava!
Lembra até aquelas situações de livro texto, do tipo “freakonomics”, onde você toma uma atitude, esperando um resultado, e encontra curiosamente o oposto. Abaixo, temos o artigo “Human drivers are bumping into driverless cars and exposing a key flaw”, divulgado pelo site autonews.com.
Quando do lançamento do veículo sem motorista, de alta tecnologia, um dos principais argumentos seria a diminuição de acidentes, com enorme economia de custos para a sociedade, em vários sentidos. O veículo sem motorista não erra e cumpre plenamente as leis. Só que o artigo citado mostra que, no mundo real de um tráfego caótico, isso nem sempre é a melhor opção. Por andar de forma estritamente correta, o veículo sem motorista tem provocado duas vezes mais acidentes – todos de pequena monta, ressalte-se -, envolvendo, sobretudo, batidas na traseira desse veículo.
Os técnicos de computação agora estão em um problema ético importante. Até que ponto eles podem programar que esse veículo cometa pequenas infrações, se isso for seguro? Qual o limite? Será que eles devem fazer com que os veículos sem motoristas sejam um pouco mais agressivos? A tecnologia será capaz de tomar essa decisão, de quais infrações ela pode ou não fazer?
O Google, que está na linha de frente desse projeto, diz que todos estão aprendendo para encontrar o melhor modelo, e que isso faz parte do processo.
Vamos ver. Esse assunto ainda vai render.
Fonte: Francisco Galiza/Rating de Seguros, em 19.01.2016.