Uncategorized

Una empresa de 17 personas quiere revolucionar el complicado software de los vehículos autónomos

Durante el último año y medio, dos Tesla Model 3 blancos modificados, equipados cada uno con cinco cámaras adicionales y una supercomputadora del tamaño de la palma de la mano, han circulado tranquilamente por San Francisco. En una ciudad y un momento llenos de preguntas sobre las capacidades y límites de la inteligencia artificial, la empresa detrás de estos Tesla intenta responder una pregunta sencilla: ¿qué tan rápido se puede desarrollar software para vehículos autónomos?

Esta startup se llama HyprLabs

Su equipo, de 17 personas, solo ocho a tiempo completo, se divide entre París y San Francisco. HyprLabs está dirigida por Tim Kentley-Klay, veterano del sector de vehículos autónomos y cofundador de Zoox, quien dejó la compañía, ahora propiedad de Amazon, en 2018. Hypr ha recibido relativamente poca financiación, 5.5 millones de dólares desde 2022, pero sus ambiciones son enormes. Eventualmente, planea construir y operar sus propios robots: “Piensa en el hijo ilegítimo de R2-D2 y Sonic. Va a definir una categoría completamente nueva que hoy no existe”.

Sin embargo, por ahora, HyprLabs está anunciando su producto de software llamado Hyprdrive, que califica como un salto adelante en la forma en que los ingenieros entrenan a los vehículos para que se conduzcan solos. Este tipo de avances están presentes en todo el sector de la robótica, gracias a los avances en el aprendizaje automático, que prometen reducir el costo de la formación de software para vehículos autónomos y la cantidad de mano de obra humana implicada. Esta evolución ha traído un nuevo movimiento a un espacio que durante años sufrió un “abismo de desilusión”, ya que los desarrolladores no cumplían sus propios plazos para operar robots en espacios públicos. Ahora, los robotaxis recogen pasajeros de pago en cada vez más ciudades, y los fabricantes de automóviles hacen nuevas y ambiciosas promesas de llevar la conducción autónoma a los autos personales de los clientes.

Pero utilizar un equipo pequeño, ágil y barato para pasar de “conducir bastante bien” a “conducir de forma mucho más segura que un humano” es un enorme obstáculo. “No te puedo decir a ciencia cierta que esto vaya a funcionar, pero lo que hemos construido es una señal muy sólida. Solo hay que ampliarla”, afirma Kentley-Klay.


Un robotaxi Waymo por las calles de Los Ángeles.

En 2026, Múnich será la primera ciudad europea en probar vehículos autónomos para uso comercial, allanando el camino para una revolución en el transporte urbano.


Vieja tecnología, nuevos trucos

La técnica de entrenamiento por software de HyprLabs se aleja de los planteamientos de otras empresas de robótica para enseñar a sus sistemas a conducirse solos. Durante años, la gran batalla de los vehículos autónomos parecía librarse entre los que solo utilizaban cámaras para entrenar su software (Tesla) y los que dependían también de otros sensores (Waymo, Cruise), incluidos los costosos lidar y radar. Pero bajo la superficie se agitaban diferencias filosóficas de mayor calado.

Los partidarios de las cámaras, como Tesla, querían ahorrar dinero mientras planeaban lanzar una gigantesca flota de robots; durante una década, el plan de Elon Musk ha consistido en convertir de repente todos los autos de sus clientes en autoconducidos mediante una actualización de software. La ventaja era que estas empresas disponían de montones de datos, ya que sus vehículos aún no autoconducidos recogían imágenes por donde pasaban. Esta información se introdujo en lo que se denomina un modelo de aprendizaje automático “de extremo a extremo”, mediante refuerzo. Por ejemplo, el sistema recibe imágenes de una bicicleta y emite órdenes de conducción: mueve el volante a la izquierda y acelera suavemente para no chocar. “Es como entrenar a un perro. Al final, dices: ‘Perro malo’ o ‘Buen chico'”, explica Philip Koopman, investigador de seguridad y software para vehículos autónomos de la Universidad Carnegie Mellon.

Por su parte, los partidarios de los multisensores gastaron más dinero por adelantado. Tenían flotas más pequeñas, que capturaban menos datos, pero estaban dispuestos a pagar a grandes equipos de personas para etiquetar esa información, de modo que el software de conducción autónoma pudiera entrenarse con ella. Por ejemplo: así es como se ve una bicicleta y así es como se mueve. Estos equipos humanos enseñaron a los sistemas de conducción autónoma mediante aprendizaje automático. Mientras tanto, los ingenieros pudieron programar reglas y excepciones para que el sistema no asumiera que, por ejemplo, una imagen de una bicicleta se comportaría como un objeto tridimensional.