Un Tesla con piloto automático mató a dos personas en Gardena. ¿Es el conductor culpable de homicidio involuntario?
El 29 de diciembre de 2019, un Honda Civic se detuvo en la intersección de Artesia Boulevard y Vermont Avenue en Gardena. Era justo después de la medianoche. El semáforo estaba en verde.
Mientras el auto avanzaba por la intersección, un Tesla Model S de 2016 en piloto automático salió de una autopista, se pasó el semáforo en rojo y chocó contra el Civic. El conductor del Civic, Gilberto Alcázar López, y su pasajera, María Guadalupe Nieves-López, murieron al instante.
Casi dos años después, los fiscales del condado de Los Ángeles presentaron dos cargos de homicidio involuntario contra el conductor del Tesla, Kevin George Aziz Riad, de 27 años. Los expertos creen que se trata del primer procesamiento por delito grave en Estados Unidos de un conductor acusado de causar una muerte mientras utilizaba un sistema de asistencia al conductor parcialmente automatizado.
El caso representa un hito en el cada vez más confuso mundo de la conducción automatizada.
“Es una llamada de atención para los conductores”, dijo Alain Kornhauser, director del programa de vehículos autoconducidos de la Universidad de Princeton. “Sin duda hace que, de repente, tomemos conciencia de que somos los responsables, no solo de nuestra propia seguridad sino de la de los demás”.
The federal government hasn’t required automakers to provide data on crashes involving cars with automated-driving systems. That’s changing.
Aunque las capacidades automatizadas están destinadas a ayudar a los conductores, los sistemas con nombres como Autopilot, SuperCruise y ProPilot pueden engañar a los consumidores haciéndoles creer que los autos son capaces de mucho más de lo que realmente son, dijo Kornhauser.
Sin embargo, a pesar de que los autos totalmente autónomos se están probando en las carreteras públicas, los fabricantes de automóviles, las empresas tecnológicas, las organizaciones que establecen las normas de ingeniería, los reguladores y los legisladores no han logrado aclarar al público -y en algunos casos entre sí- cuáles son las diferencias técnicas, o quién está sujeto a la responsabilidad legal cuando las personas resultan heridas o muertas.
Riad, conductor de un servicio de limusinas, se ha declarado inocente y está en libertad bajo fianza mientras el caso está pendiente. Su abogado no respondió a una solicitud de comentarios el martes.
En caso de que Riad sea declarado culpable, “va a dar escalofríos a todos los que tengan uno de estos vehículos y se den cuenta de que son los responsables”, dijo Kornhauser. “Al igual que cuando conducía un Chevy del 55, soy el responsable de asegurarme de que se mantiene entre las líneas blancas de la carretera”.
Después de la colisión mortal en Gardena, la Administración Nacional de Seguridad del Tráfico en las Carreteras abrió una investigación sobre el accidente para determinar qué había ocurrido. Aunque los documentos judiciales presentados en Los Ángeles no mencionan a Autopilot por su nombre, se espera que la agencia publique pronto las conclusiones que reflejan que la tecnología estaba activada.
Un desfile de investigaciones similares en los años siguientes ha seguido cuestionando la seguridad y la fiabilidad de las funciones de conducción automatizada, incluida una investigación más amplia sobre nada menos que 765.000 autos Tesla fabricados entre 2014 y 2021.
El año pasado, la NHTSA ordenó a docenas de empresas automovilísticas y tecnológicas que informaran sobre los datos de los accidentes de los vehículos automatizados con el fin de supervisar mejor su seguridad.
The top federal traffic safety regulator says Tesla’s partially automated driving system, Autopilot, failed to spot parked police cars and fire trucks. It wants to know why.
Ningún vehículo disponible comercialmente hoy en día puede conducirse completamente solo, inform´ó la agencia. La función Autopilot de Tesla está clasificada como autonomía vehicular de “Nivel 2”, lo que significa que el vehículo puede controlar la dirección y la aceleración, pero un humano en el asiento del conductor puede tomar el control en cualquier momento.
“Ya sea que un sistema de conducción automatizada [Nivel 2] esté activado o no, todos los vehículos disponibles requieren que el conductor humano esté en control en todo momento, y todas las leyes estatales hacen que el conductor humano sea responsable de la operación de sus vehículos”, dijo un portavoz de la NHTSA. “Ciertas características avanzadas de asistencia a la conducción pueden promover la seguridad ayudando a los conductores a evitar choques y mitigar la gravedad de las colisiones que se producen, pero como con todas las tecnologías y equipos en los vehículos de motor, los conductores deben utilizarlos correctamente y con responsabilidad”.
El resultado del caso podría sentar un precedente para una industria que se encuentra en la disyuntiva de la tecnología de vanguardia y el error humano básico.
Bryant Walker Smith, profesor de la Universidad de Carolina del Sur y experto en leyes relacionadas con los vehículos de motor automatizados, dijo que aunque las empresas se enfrentan habitualmente a la responsabilidad civil, “rara vez se enfrentan a la responsabilidad penal por las decisiones de diseño”.
Sin embargo, Smith discrepa de la afirmación de que los conductores -y solo los conductores- son responsables en el nivel 2 de automatización o por debajo de él. Por ejemplo, si el airbag de un auto en buen estado explotara de repente y provocara un accidente, el conductor no sería culpable, dijo.
“Por el contrario, si un fabricante de automóviles vende un auto peligroso, podría ser responsable civilmente. Y, al menos en teoría, podrían enfrentarse a la responsabilidad penal. Sin embargo, esto es una posibilidad poco frecuente”, expuso, señalando que cuando el estado de Indiana procesó a Ford por un accidente de su modelo Pinto hace más de cuatro décadas, la empresa fue absuelta.
No fue posible contactar con un representante de Tesla, que ha disuelto su departamento de relaciones con los medios de comunicación.
Police said a Tesla exited the freeway, ran a red light and slammed into a Honda Civic on Sunday.
Muchos expertos legales tienen claro que la responsabilidad de los sistemas de nivel 2 como Autopilot recae directamente en el conductor, no en las empresas que comercializan tecnologías que pueden hacer creer a los consumidores que las funciones tienen más capacidades de las que realmente poseen.
Pero el Departamento de Motores y Vehículos de California está luchando con la confusión sobre la función de autoconducción completa de Tesla, una versión de vanguardia de Autopilot que pretende hacer exactamente lo que dice el nombre: proporcionar autonomía total, hasta el punto de que no se necesite ningún humano para conducir.
Pero mientras otros desarrolladores de vehículos autónomos, como Waymo y Argo, utilizan conductores de prueba que siguen estrictas normas de seguridad, Tesla está llevando a cabo sus pruebas utilizando sus propios clientes, cobrando a los propietarios de los autos 12.000 dólares por el privilegio.
Y mientras que las otras empresas de tecnología autónoma están obligadas a informar de los accidentes y los fallos del sistema al Departamento de Motores y Vehículos bajo su sistema de permisos de prueba, la agencia ha estado permitiendo a Tesla no cumplir con esas regulaciones.
Tras la presión ejercida por los legisladores estatales, provocada por los aterradores videos publicados en YouTube y Twitter en los que se señalaba el mal funcionamiento del Full Self-Driving, el DMV dijo a principios de este mes que estaba “revisando” su postura sobre la tecnología de Tesla.
La agencia también está llevando a cabo una revisión para determinar si Tesla está violando otra normativa del DMV con sus sistemas de autoconducción total, una que prohíbe a las empresas comercializar sus autos como autónomos cuando no lo son.
Esa revisión comenzó hace ocho meses; el DMV la describió en un correo electrónico a The Times como “en curso”.
L.A. County prosecutors have filed two counts of vehicular manslaughter against the driver of a Tesla on Autopilot after a deadly crash in 2019.
En medio de la confusión sobre los vehículos automatizados, lo que es menos turbio son las verdaderas tragedias que se derivan de los accidentes.
En 2020, las autoridades de Arizona presentaron cargos de homicidio por negligencia contra el conductor de un todoterreno de Uber que atropelló y mató a un peatón durante una prueba de capacidades totalmente autónomas. Se cree que la persona fallecida en esa colisión, Elaine Herzberg, es la primera víctima mortal de un vehículo de conducción autónoma.
En Los Ángeles, las familias de López y Nieves-López han presentado demandas contra Riad y Tesla.
Arsen Sarapinian, abogado de la familia Nieves, dijo el martes que están siguiendo de cerca el caso penal, esperando los resultados del informe de investigación de la NHTSA y en espera de que se haga justicia.
Pero, dijo Sarapinian, “ni el caso penal pendiente ni la demanda civil devolverán la vida a la Sra. Nieves o al Sr. López”.
Si quiere leer este artículo en inglés, haga clic aquí.
Suscríbase al Kiosco Digital
Encuentre noticias sobre su comunidad, entretenimiento, eventos locales y todo lo que desea saber del mundo del deporte y de sus equipos preferidos.
Ocasionalmente, puede recibir contenido promocional del Los Angeles Times en Español.