Tesla ha anunciado, en repetidas ocasiones, que su sistema de conducción autónoma nivel L3 está a punto de ser homologado en Estados Unidos y Europa. En la actualidad, los únicos sistemas homologados para su uso en la vía pública son los de Mercedes-Benz (con el Clase S/EQS Drive Pilot en Alemania y EEUU), y Honda (con el Traffic-Jam Pilot del Legend en Japón). El nivel L3 supone que el coche pueda conducir solo y el conductor pueda apartar la vista de la carretera, en situaciones definidas.
Los sistemas de Mercedes-Benz, Honda y del resto de fabricantes que están trabajando para homologar sus tecnologías se basan en sensores, cámaras, radar y LiDAR. Tesla, con su sistema Autopilot FSD es el único fabricante que confía en un modelo basado exclusivamente en cámaras y en la profundidad de análisis y de aprendizaje con datos (millones de imágenes y vídeos de tráfico real) de las redes neuronales de Inteligencia Artificial.
Carglass ha publicado un estudio acerca de la situación actual de los sistemas de asistencia a la conducción ADAS (L2 y L3) y la implantación de los sensores LiDAR en ellos, que repasa su funcionamiento, legislación y planteamientos técnicos.
¿Qué es el LiDAR?
Esta tecnología se basa en un emisor láser, que emite rayos de luz láser infrarroja que impactan sobre los objetos y al rebotar son registrados por un receptor. Es capaz de medir, con precisión la distancia, posición y altura de ese objeto y su radio de alcance es de hasta 250 metros.
Es un sistema muy fiable, que funciona igual de día que por la noche y que permite generar representaciones fiables en condiciones meteorológicas adversas. El sensor LiDAR complementa a las cámaras y los radares, y proporciona redundancia adicional en la detección de objetos alrededor del vehículo. Esto es especialmente útil en situaciones en las que las cámaras o el radar pueden fallar debido a las malas condiciones de visibilidad o a la interferencia de las señales de otros vehículos. Carglass alerta de que numerosos estudios han demostrado que la eficacia de los ADAS disminuye en condiciones de lluvia y nieve, o con el parabrisas sucio; y esta carencia puede solventarse incorporando un sensor LiDAR.
¿Qué dice la legislación?
Las normativas de seguridad funcional marcan el estándar técnico dominante en diferentes regiones del mundo para homologar un sistema L3 de conducción autónoma. Esta normativa no obliga a incorporar LiDAR, pero sí habla de redundancia de sensores y de que el sistema tenga un rendimiento adecuado en todas las condiciones. Esa redundancia de sensores puede ser aceptada como redundancia funcional (dos cadenas de percepción independientes) en lugar de redundancia física.
Homologar un sistema basado solo en cámaras es más complicado, porque hay que convencer a los reguladores, aportando pruebas, datos estadísticos y simulaciones, de que el sistema funciona con seguridad en todas las condiciones de visibilidad. Los sistemas basados en sensores de naturaleza diferente (cámara, radar y LiDAR) ya han conseguido aprobaciones en Europa, Estados Unidos y Japón; y tienen un camino regulatorio menos complejo.
Capacidad y hardware
Los sistemas con redundancia de sensores son más caros y complejos, y necesitan mucha más potencia de cálculo. La mayor cantidad de información, su procesamiento, la fusión de los datos recibidos por los de sensores y la resolución de discrepancias entre ellos, requiere de un hardware muy potente, que sea capaz de realizar todas esas operaciones prácticamente en tiempo real (menos de 100 milisengundos), que es lo que exige la conducción de un vehículo.
¿Qué pasa cuando hay discrepancia de sensores?
Los procedimientos basados en cámaras no tienen este problema, que puede aparecer en los de múltiples sensores. En ellos el sistema recibe imágenes láser del LiDAR con puntos 3D de cada objeto, imágenes de la cámara con la forma y el color; y datos del radar con la velocidad a la que se mueve cada objeto. Para fusionar esa información, el sistema crea una fusión temprana que genera un mapa geométrico único y determina la distancia, posición, tamaño y velocidad de los objetos circundantes. Después, los algoritmos reconocen qué es cada cosa y comprueban que la información de todos los sensores cuadra con ese reconocimiento.
Si la información de algún sensor es discrepante, se emplean varios procesos. El primero es una fusión jerárquica algoritmos Bayesianos (uso de probabilidades previas), filtros de Kalman (comprueba si la posición nueva encaja con la trayectoria anterior) y técnicas Dempster-Shafer (asigna un grado de creencia a cada sensor) para ponderar la fiabilidad de cada fuente en cada ciclo.» El sistema de Mercedes-Benz duplica la cadena completa: por un lado LiDAR y radar; y por otro, cámaras. Se cotejan resultados y cualquier divergencia se resuelve a favor del camino más conservador. Y si no se puede resolver la discrepancia, el sistema notifica fallo, avisa al conductor y baja a nivel L2.
Aerodinámica y diseño
Los sensores LiDAR para conducción autónoma L5 tienen una completa visión de 360 grados, se montan en el techo del vehículo y gira sobre sí mismos (hasta 900 veces por minuto) para obtener un ángulo de visión despejado de todo el entorno. Pero los LiDAR para conducción L3 son más sencillos. Esto sensores tienen un ángulo de 120º de visión y apuntan hacia la parte frontal del vehículo y a los laterales (en modelos con tres sensores) recogiendo información de todos los objetos que el coche tiene por delante y a los lados.