Se confirma que el coche autónomo de Uber que mató a una mujer no estaba programado para detectar y actuar ante peatones imprudentes

Se confirma que el coche autónomo de Uber que mató a una mujer no estaba programado para detectar y actuar ante peatones imprudentes

Han pasado 15 meses desde el accidente donde un coche autónomo de Uber atropelló y mató a Elaine Herzberg, de 49 años de edad, mientras cruzaba la calle en la noche con su bicicleta. Y tal y como se había adelantado en el informe preliminar de la Junta Nacional de Seguridad en el Transporte de Estados Unidos (NTSB), no se trató de un fallo en los sistemas sino de un error en la programación del software.

La NTSB publicó el informe final donde recaban toda la información del accidente y los registros de Uber, donde se confirma que el coche autónomo no estaba programado para identificar y actuar ante peatones imprudentes, ya que Elaine decidió cruzar por donde no era un paso peatonal.

Antes del accidente fatal, Uber había tenido 37 accidentes con sus coches autónomos

De acuerdo al documento de la NTSB, el coche autónomo de Uber tenía serias fallas de software, donde se incluía la incapacidad de reconocer a las personas que cruzan la calle en zonas no autorizadas. Según la agencia, el coche de Uber no identificó a Elaine como persona sino hasta 1,2 segundos antes del impacto, cuando ya era demasiado tarde.

La NTSB descubrió que el coche de Uber «no incluía una consideración para los peatones que cruzan la calle».

«Aunque el sistema detectó al peatón casi seis segundos antes del impacto, nunca lo clasificó como peatón, porque estaba cruzando en un lugar sin un cruce peatonal y el diseño del sistema no incluía una consideración para los peatones que cruzan a pie por otras zonas.»

Además, el software del coche estaba programado con un retraso de un segundo para iniciar el frenado después de detectar un objeto en la carretera, esto con el objetivo de descartar posibles falsos negativos, calcular rutas alternativas o dejar que el conductor de seguridad tomara el control. Uber ya confirmó que este retraso intencional ya ha sido eliminado del software.

Uber también decidió configurar al mínimo el umbral de sensibilidad para evitar falsos-positivos, y así los sistemas sólo reaccionarían ante «objetos sólidos de gran tamaño que representaran una amenaza real» y no ante bolsas u otros objetos aparentemente inofensivos. Esto significó que también se desactivaron los sistemas de seguridad que la propia Volvo había instalado a su XC90, ya que Uber buscaba que no interfirieran con la operación de sus sistemas.

Uber Self Driving Volvo At Harrison At 4th

Según la NTSB, después del accidente, Uber hizo simulaciones con el software ya corregido usando los sensores del coche involucrado en el accidente. Bajo este escenario se percataron que el sistema habría sido capaz de detectar al peatón 88 metros o 4,5 segundos antes del impacto a una velocidad de 69,5 km/h. Tras esta detección, el coche habría frenado a los 4 segundos antes del impacto.

Es decir, si los sistemas de Uber hubieran estado bien configurados, el accidente se habría evitado, ya que la distancia promedio de frenado ante la presencia de una persona es de aproximadamente 39,62 metros a esa velocidad de casi 70 km/h. Incluso habría habido suficiente tiempo para que los sistemas calcularán una maniobra evasiva o el conductor de seguridad tomara el control de la situación.

Adicional a esto, la NTSB descubrió que 18 meses antes del accidente fatal, Uber sufrió un total de 37 accidentes con sus coches autónomos, donde 33 de éstos fueron de otros coches chocando contra el vehículo autónomo de pruebas. Pero dos de estos accidentes son los que llaman la atención, ya que están relacionados con el escenario que llevó al atropello y posterior muerte de Elaine.

En el primero de estos accidentes, el coche de Uber chocó contra uno de los postes que evitan que los vehículos pasen al carril bici, ya que estaba doblado y parte de éste invadía un carril. En el segundo accidente, el conductor de seguridad tuvo que tomar el control para evitar un vehículo que invadió su carril y que los sistemas no detectaron, pero al cambiar de carril terminó chocando contra un coche aparcado.

La NTSB informó que han pasado una serie de recomendaciones a Uber en varias áreas de seguridad relevantes que encontraron durante toda la investigación. La agencia se reunirá de nueva cuenta el próximo 19 de noviembre para determinar la causa probable del accidente y poner punto final a este tema.

Cabe señalar que en marzo de este año los fiscales de Arizona dijeron que Uber no era responsable en el accidente automovilístico, y fue absuelto de responsabilidad penal. Pero todavía se está contemplando presentar cargos penales por posible homicidio involuntario en contra la conductora del coche autónomo, Rafaela Vásquez. Y es que de acuerdo a la investigación, y el vídeo del accidente, Vásquez no estaba prestando atención a la carretera por estar mirando su smartphone.

Sarah Abboud, portavoz de la división de coches autónomos de Uber, mencionó:

«Hemos adoptado mejoras críticas en el programa para dar mayor prioridad a la seguridad. Valoramos profundamente la minuciosidad de la investigación de la NTSB sobre el accidente y esperamos revisar sus recomendaciones.»

Fotos | Dllu

También te recomendamos


Anthony Levandowski, ex ejecutivo de Uber, ahora es acusado por el FBI de robar documentos secretos de coches autónomos a Google


Quién es Didi Chuxing, el gigante del transporte chino que «se comió» a Uber en el gigante asiático


Tesla, demandada por la familia del conductor que murió en accidente de tráfico mientras viajaba con el Autopilot activado


La noticia

Se confirma que el coche autónomo de Uber que mató a una mujer no estaba programado para detectar y actuar ante peatones imprudentes

fue publicada originalmente en

Xataka

por
Raúl Álvarez

.