Hagamos un breve ejercicio de memoria. Hace apenas un lustro, hacia 2018 o 2019, el ambiente en Silicon Valley y Detroit vibraba con una certeza casi religiosa: el conductor humano estaba en vías de extinción.

Los CEOs más visionarios y las startups más cotizadas nos aseguraron que, para estas fechas, nuestras ciudades estarían pobladas por flotas de “robotaxis”. Imaginábamos un presente donde pediríamos un vehículo sin volante, nos sentaríamos a leer un libro y llegaríamos al trabajo sin jamás preocuparnos por el tráfico.

Hoy, en 2024, basta mirar por la ventana para confirmar que esa utopía futurista no ha llegado. Los coches siguen teniendo pedales, volantes y, crucialmente, conductores humanos estresados. La industria automotriz ha sufrido un severo “baño de realidad” respecto a la conducción autónoma. La euforia inicial ha dado paso a una etapa de pragmatismo forzado, descubriendo que enseñar a una máquina a navegar el mundo real es quizás uno de los desafíos ingenieriles más complejos de la historia.

La Trampa de los “Casos Borde”

El problema fundamental radica en una malinterpretación de la dificultad. Lograr que un coche se mantenga en su carril en una autopista bien pintada y con buen clima es, tecnológicamente hablando, relativamente sencillo. De hecho, ya lo hemos logrado en un 99% por ciento.

El abismo reside en ese 1% restante. En la jerga técnica se les llama edge cases o “casos borde”. Son esas situaciones impredecibles, caóticas y profundamente humanas que ocurren en el tráfico diario: un policía haciendo señales manuales contradictorias en un cruce, un niño que corre detrás de una pelota entre coches estacionados, una bolsa de plástico volando que los sensores confunden con una roca, o una nevada repentina que ciega las cámaras.

El cerebro humano es magnífico interpretando el caos y el contexto en milisegundos; la inteligencia artificial, por el contrario, lucha enormemente cuando las reglas se rompen. Perfeccionar ese último 1% no es un poco más difícil que el resto; es exponencialmente más difícil y costoso.

El Laberinto Ético y Legal

Más allá de la ingeniería, la conducción autónoma total (lo que se conoce como Nivel 5, donde el humano es prescindible en cualquier circunstancia) se ha topado con un muro legal y ético.

Si un vehículo autónomo se ve forzado a elegir entre atropellar a un peatón que cruzó imprudentemente o desviarse y chocar contra un muro, poniendo en riesgo a su pasajero, ¿qué debe decidir el algoritmo? Y más importante aún: ¿De quién es la culpa en caso de accidente? ¿Del dueño, del fabricante del coche o del programador del software?

Mientras los reguladores y las aseguradoras no resuelvan este campo minado de responsabilidades, el despliegue masivo de vehículos sin conductor seguirá siendo una quimera. Las empresas no pueden asumir el riesgo financiero y reputacional de una tecnología que, aunque estadísticamente más segura que un humano ebrio, no es infalible.

El Nuevo Rumbo: Asistencia, no Reemplazo

Ante este panorama, la industria ha realizado un giro estratégico silencioso pero significativo. El objetivo grandilocuente del Nivel 5 se ha pospuesto indefinidamente. El enfoque actual se centra en monetizar tecnologías más realistas y tangibles: los sistemas avanzados de asistencia al conductor (ADAS).

Estamos hablando del Nivel 2+ y el incipiente Nivel 3. Son sistemas donde el coche puede acelerar, frenar y girar en ciertas condiciones (como en un embotellamiento o en autopista), pero que exigen imperativamente que el humano mantenga la atención y esté listo para tomar el control en cualquier segundo.

La narrativa cambió. Ya no se trata de reemplazar al conductor, sino de convertirlo en un “supervisor” apoyado por un copiloto digital muy avanzado. La revolución autónoma no se canceló, simplemente se transformó en una evolución mucho más lenta, cautelosa y humana de lo que nos prometieron.

Frenada de emergencia: Cuando la IA se enfrenta al caos de la calle real

COMPARTIR