Hola. El vehículo de Uber que atropelló a una mujer no sabía que los peatones cruzan la calle imprudentemente Por Cosmin Firsov 07/11/2019 Vehículos Hace un año, un coche autónomo de Uber atropelló mortalmente a una mujer en el estado de Arizona, mientras esta cruzaba la carretera con su bicicleta de noche sin asegurarse de si algún vehículo circulaba próximo a ella. Ahora, año y medios después, llega un informe de la Junta Nacional de Seguridad del Transporte de EE.UU. Este informe, en forma de 40 documentos que abarcan cientos de páginas, detalla lo ocurrido en el accidente. Uber suspendió su programa de prueba de vehículos autónomos durante meses después del fatal accidente y limitó sus vehículos a 40 kph cuando regresaron a las calles en diciembre de 2018. FOTOGRAFÍA: AARON JOSEFCZYK / REUTERS Los nuevos documentos indican que el sistema desarrollado por Uber no estaba equipado para identificar o para prevenir a peatones que caminan fuera de un cruce peatonal. Los ingenieros de Uber parecen haberse preocupado demasiado por las falsas alarmas, por lo que incorporaron un retardo automático de un segundo entre la detección de un choque y la acción. La compañía también decidió desactivar el sistema de frenado de Volvo, que podría haber reducido drásticamente la velocidad a la que el automóvil golpeó a Herzberg o evitar completamente el golpe. "El vehículo necesita un solo sistema maestro", afirma Raj Rajkumar, un ingeniero eléctrico que estudia sistemas autónomos en la Universidad Carnegie Mellon. "Tener dos sistemas maestros podría terminar activando comandos en conflicto. Pero eso funciona mucho mejor cuando el sistema maestro funciona correctamente." A 1,2 segundos antes del impacto, el automóvil de Uber decidió que era necesario accionar el frenado de emergencia, pero la “supresión de acción” lo detuvo. Las bandas amarillas muestran la distancia en metros, y la púrpura indica el camino del automóvil. A pesar de que el automóvil detectó a Herzberg con tiempo más que suficiente para detenerse, la golpeó y la arrojó a 22 metros cuando el vehículo iba a una velocidad de 112 km/h. Cuando el automóvil detectó por primera vez su presencia, 5.6 segundos antes del impacto, la clasificó como un vehículo. Luego cambió de parecer a "otro", luego a vehículo nuevamente, de nuevo a "otro", luego a bicicleta, luego a "otro" nuevamente y finalmente a bicicleta. "El diseño del sistema no incluyó una consideración para los peatones que cruzan la calle imprudentemente", se lee en el Informe de Automatización de Vehículos de la NTSB. Cada vez que intentaba realizar una nueva suposición, reiniciaba el proceso de predicción. No fue hasta 1.2 segundos antes del impacto que el sistema reconoció que el SUV iba a golpear a Herzberg, que no podía girar a su alrededor y que necesitaba frenar de golpe. Eso desencadenó lo que Uber llama “supresión de acción”, en el cual el sistema detiene la frenada durante un segundo mientras determina la naturaleza del peligro detectado. Un segundo en el que el conductor humano quizás podría haber tomado el control del vehículo y evitar el golpe. Pero la conductora estaba distraída mirando el móvil. Entonces, a 0,2 segundos del impacto, el vehículo hizo sonar una alarma de audio, momento en el que la conductora tomo el volante desactivando el sistema autónomo, lo que acabó en el atropello del peatón y en su posterior muerte. En un comunicado, un portavoz de Uber proclamó que la compañía "lamenta el accidente del 2018" y enfatizó que su Grupo de Tecnologías Avanzadas ha realizado cambios en su programa de seguridad. Ahora muchos se preguntan si realmente con ese segundo de margen un conductor humano realmente hubiera podido evitar el trágico accidente, aunque hay que recalcar que el accidente fue causo por la propia bicicleta. Fuente: https://elchapuzasinformatico.com/2...atones-podian-cruzar-la-calle-imprudentemente En inglés: https://www.wired.com/story/ubers-self-driving-car-didnt-know-pedestrians-could-jaywalk/ Saludos.
Hola. Tengo la impresión de que algunas (malas) decisiones de diseño estaban condicionadas por la premura en obtener resultados.... Saludos.
No he leído el artículo, pero es muy difícil pensar en todo cuando se programa algo. No me quiero ni imaginar el montón de variables y cálculos que tiene que hacer el ordenador para hacer siempre lo ‘correcto’. Supongo que a base de ‘errores’ podrán ir perfeccionando el sistema, lástima que estos ‘errores’ cuesten vidas... Un saludo
Pues como muchos conductores, que no prevén que pueda cruzar una persona aunque haya un paso de cebra o tantas otras, muy realista el Uber ese.
Mi suegro con 90 tacos, que se tira a la carretera y dice "que paren ellos". Por suerte para todos, ya no sale solo desde que me lo he traído a casa
Los que hemos programado lo sabemos. Hasta en el programa más sencillo, si no haces un análisis meticuloso, se te escapan situaciones que inducen errores. Y programar un vehículo para que interactúe con el azar no es precisamente sencillo.
Leyendo todo como fue la verdad es que lo que no entiendo es como no tenían puesto para que emitiese la alarma sonora antes para alertar al conductor (que iba empanada con el movil). Es entendible que el sistema quiera estar seguro que realmente hay un peligro antes de hacer una frenada de emergencia pero avisa antes al conductor para que este alerta!
Se me ocurre, así a toro pasado, que si el sistema detecta un objeto en su trayectoria lo mínimo es avisar al conductor y reducir la velocidad, sin llegar a pegar un frenazo. Ya solo con eso, habrían salvado esta situación. Pero claro, el objetivo final es prescindir del conductor de seguridad y por tanto no se le tiene en cuenta a efectos de diseño. Aún así, ante esa duda del sistema incapaz de identificar un objeto pero seguro de su existencia, lo normal habría sido tomar la acción más conservadora, no esperar un segundo. Mejor ir puliendo falsos positivos que esto...
Este tipo de sistemas no deberían de salir a la calle asta que no estubieran totalmente probados y requeteprobados en pistas de prueba, y aun así, una vez certificados, cuando salieran a probarlo, el conductor debería ir siempre atento en ese tipo de conducción autónoma asta su nuevo visto bueno de la compañía, pero parece como si estas tuvieran prisa por ser la primera en imponer este tipo de sistemas antes de su completa revisión y salida al mercado
Pues en pocos años será un extra más de los coches y veremos si aún dejan conducir a las personas en un par de décadas
Hola. Aparte de que la ¿conductora? iba mirando al móvil, esto me recuerda a lo que contaban los de Top Gear hace años ya. Recuerdo también al trío de The Grand Tour troleando a un coche autónomo para que no pudiera moverse, pero no lo encuentro.... Saludos.
Bastaría con que en caso de duda (el software no duda, pero hay varias interpretaciones/órdenes contrarias) el coche hubiera accionado el claxon. El conductor reacciona y el peatón o ciclista también podría reaccionar.
Al hilo de lo cual: Una bocina diferente (de dos tonos o así) para cuando un sistema autónomo se encuentre entre la espada y la pared. Que signifique: Humanos, corred, que se me va la olla con este mundo. Lógicamente, cada vez que eso sucediera habría que investigarlo como incidente. Pero al menos le daría una oportunidad a todo el mundo de alrededor de salvar el pellejo.