Quizás lleve ya tiempo sobre la mesa, pero la cuestión no ha perdido interés, ni tampoco actualidad: ¿Quién es el responsable de un accidente cuando el vehículo implicado es autónomo o dispone de cierto grado de conducción automatizada ¿El piloto? ¿El coche y su fabricante? ¿Ambos? Un jurado de California acaba de pronunciarse —y de forma rotunda, además— sobre un siniestro protagonizado hace casi cuatro años por un Tesla Model S provisto del sistema Autopilot, el software de conducción desarrollado por la compañía de Elon Musk.
La conclusión es interesante. Sus lecturas, también.
De la carretera, al tribunal. Los tres protagonistas del caso en cuestión son el sistema Autopilot, un Model S y Justine Hsu, una conductora de Los Ángeles que en julio de 2019 sufrió un aparatoso accidente mientras manejaba el vehículo en modo semiautónomo. Según la demanda presentada por Hsu hace tres años en el tribunal californiano, el sistema Autopilot de su vehículo no funcionó de forma correcta y provocó que el coche se desviara hacia la mediana central de una carretera a tal velocidad que —asegura— no le permitió reaccionar.
¿Qué dice la conductora Además de apuntar al sistema Autopilot, Hsu asegura que el airbag tampoco funcionó como debía, con lo que el siniestro acabó con un saldo bastante negativo para ella, siempre según su demanda: la mandíbula fracturada, dientes rotos y múltiples lesiones en las manos, las piernas y el rostro, donde se habrían visto afectados nervios. Por esa razón reclama a la compañía de Musk más de tres millones de dólares por daños. Hsu asegura que ha tenido que someterse a tres cirugías y todavía hoy sigue en tratamiento médico.
¿Y la compañía La visión de Tesla sobre lo que ocurrió en la carretera aquella jornada veraniega es bastante distinta. Básicamente la multinacional descarga la responsabilidad en Hsu, a la que achaca un manejo incorrecto de su software: uno de sus principales argumentos es que la conductora usó Autopilot en las calles de la ciudad a pesar de que el manual del usuario advierte que no debe hacerse. La empresa insiste en que sus coches no son totalmente autónomos y recalca: los conductores deben estar listos para “tomar el control en cualquier momento”.
Para el abogado de la multinacional, Michael Carey, el sistema sí habría dado margen suficiente a Hsu para frenar el coche si hubiese estado atenta a la carretera. “La evidencia que prueba la distracción es bastante sencilla”.
La conclusión del jurado. La lectura del jurado de California encargado de analizar el caso —avanzada por Reuters— deja poco margen para la interpretación: la función Autopilot no falló. Tras valorar los hechos han concluido que la empresa advirtió con claridad de que el software de conducción parcialmente automatizada no era un sistema autopilotado, por lo que achacan lo ocurrido con una distracción de la conductora, a la que no le reconoce una compensación por los daños sufridos en el siniestro. El jurado también ha sentenciado que el airbag funcionó bien y considera que Tesla no eludió de forma intencionada revelar los hechos.
¿Por qué es importante? Como comenta Reuters, el juicio es “pionero” para el software de conducción de Tesla, uno de sus grandes reclamos, promocionado por el propio Musk como una pieza crucial para el futuro de la multinacional, pero que a lo largo de los últimos años ha centrado el foco de las autoridades. En 2022, por ejemplo, la propia NHTSA, el organismo de seguridad en las carreteras de EEUU, publicó un análisis exhaustivo sobre Autopilot que no lo dejaba en buen lugar.
El resultado del juicio no es vinculante para otros casos, pero los expertos consultados por la agencia creen que puede convertirse en un referente para juicios futuros. “Este caso debería servir de llamada de atención para los propietarios de Tesla: no pueden confirmar demasiado en Autopilot y necesitan estar listos para tomar el control”, reflexiona Ed Walters, experto en vehículos autónomos.
¿Qué supone para Autopilot? Walters considera la sentencia una “gran victoria” para Tesla, pero lo cierto es que la demanda de Hsu no es el único frente que tiene la multinacional. Hace meses la NHTSA reseñaba una “acumulación de choques” con vehículos de Tesla que tenían en Autopilot activado, centrándose en 16 accidentes, y la compañía tiene pendiente un caso presentado por cinco policías de Texas heridos en 2021 por un incidente con un Model X y Autopilot.
Incluso las autoridades de California acusaron a Tesla de hacer afirmaciones falsas sobre el sistema y las capacidades de conducción autónoma completa, el conocido como FSD (Full Self-Driving), en el que la compañía de Musk sigue trabajando. A mediados de 2022 The Washington Post publicó que a lo largo del año anterior los coches de Tesla con Autopilot se habían visto involucrados en 273 accidentes. Algunos de los incidentes han sido especialmente mediáticos.
Imagen de portada: Mario Duran-Ortiz (Flickr)
En Xataka: En 2016, Tesla lanzó un vídeo promocionando las habilidades de su coche autónomo. Era un montaje
–
La noticia Esta mujer sufrió un grave accidente al usar su Tesla con Autopilot. Ahora ya sabemos sobre quién cae la responsabilidad fue publicada originalmente en Xataka por Carlos Prego .