Cartel de la NASA para anunciar su nuevo reloj atómico que proporciona una variación de un segundo cada 10 millones de años. Ha sido diseñado para dar soporte a las expediciones a Marte.
ENTREVISTA A EFRÉN ALONSO
DIRECTOR GENERAL DROTIUM
Por Redacción DROTER
10 | OCTUBRE | 2021
> DEFINIR EL OBJETIVO
——Vd. nos dice que una desviación de 1° del radar puede posicionar un objeto a 100 metros de distancia, otro vehículo, con un error de 1,75 metros, por ejemplo, ponerlo en otro carril. ¿Estamos hablando de mala calibración?
—Tendemos a montar radares específicos para la conducción autónoma y de alta precisión. Lo puedes fastidiar si lo colocas detrás de un radomo inapropiado que te organiza una desviación y puede que tengas un problema conceptual de integración. En la conducción autónoma todo lo relacionado con la precisión te pisa los talones.
—¿Mejora la precisión al integrar la información que nos proporcionan distintos sensores? ¿Cuándo las comparamos?
—Mejora, pero tienes que tener certeza de que estas trabajando dentro de un «horizonte de precisión» adecuado para los tres sensores. Y tienes que sumar la precisión conceptual. Mal planteado el problema macro te lleva a algoritmia que añade errores. Por eso decimos que tienes que obtener, definir, previamente, un «horizonte de precisión».
—¿El aprendizaje profundo, automatizado en todo caso, resuelve estos problemas?
—Digamos que
coloca el problema. Tienes que añadir tu propio «horizonte de precisión», previamente definido conceptualmente. El aprendizaje profundo te proporciona soluciones macro. A veces buenas, definitivas. Pero hablamos de flujos de datos, muy dinámicos, y ya le digo que el «horizonte de precisión» siempre te pisa los talones. Notas su aliento sobre la nuca.
Efrén Alonso
—Y acto seguido entrenamos las soluciones macro, con más aprendizaje profundo…
—Vd. lo ha dicho, entrenamos la solución macro. La retroprogramación te ayuda muchísimo, pero necesitas tener definido tu «horizonte de precisión».
—Preparas un vehículo, lo sacas a la carretera, los sensores empiezan a recopilar datos y datos y después…
—En la primera fase lo vuelcas sobre computación adecuada en laboratorio y el sistema inicia un trabajo de selección. El trabajo de selección lo aceleras si, previamente, has etiquetado lo que estás buscando. Por ejemplo, quiero clasificar estos datos, dentro de este contexto (un dominio, una maniobra específica). El sistema acopiará los datos que afectan a tu dominio y dentro del dominio establecerá la clasificación. Puedes encontrar una solución para esa clasificación. Imagine que la obtenemos. Tienes que experimentarlas, virtualmente primero y someterla a situaciones de estrés para observar su comportamiento. Estamos en una primera fase
—La fase siguiente es encadenar las soluciones…
—Las encadenas dentro del dominio y en función de los dominios contiguos. Lo más difícil es patronar el avance dentro de flujos muy dinámicos. De nuestro «horizonte de precisión» forma parte lo que llamamos «avance sano». Es un avance del ingenio sin contratiempos bioemencánicos, excluyendo, cualquier tipo de presión sobre el cinturón de seguridad de origen cinético. Aquí tenemos, por ejemplo, un problema que afecta al «horizonte de precisión», vinculado al confort y no tanto a la resolución de una maniobra. Tienes que definir el rango de tolerancia, la horquilla, donde la presión sobre el cinturón de seguridad abandona tu horizonte. Eso condiciona la solución al dominio con el que estés trabajando (la maniobra). El sistema te proporciona soluciones y tienes que ir validándolas dentro de cada patrón, hasta consolidar la solución que buscas.
—¿Una solución puede tener muchas posiciones?
—Por supuesto. El sistema ha planificado un adelantamiento y en plena maniobra cae un poste de la luz por delante del ingenio. Tienes que interrumpir la maniobra y tienes que hacerlo cumpliendo reglas. Las situaciones de estrés máximo son, contra todo pronóstico, las más fáciles de resolver cuando cumples reglas. El problema, de nuevo, depende del «horizonte de precisión» que hayas establecido.
—La industria, entiendo, comparte iguales desafíos.
—Todos tenemos problemas de detección, es un problema compartido por toda la industria, tenemos problemas similares de predicción de movimientos. Se necesita predecir el futuro, a muy corto plazo, el próximo minuto y realizar los movimientos precisos. Y necesitamos predecir el movimiento en 2D y en 3D. Son problemas que compartimos la industria de conducción autónoma. Pero tienen distinta envergadura y encarnadura si te enfrentas a un contexto caótico, el actual, o a un contexto amable, con un alto grado de previsibilidad, dentro de un «horizonte de precisión».
—¿Se trata de colocar, así está planteado por la industria, un supermán inteligente dentro del caos y sobrevivir?
—Los problemas de movimiento y de interacción se disparan con la simple hipótesis de que un miembro del tráfico incumpla las reglas. Afecta al minuto siguiente (en términos de predicción, de computación, un mundo). La posición de DROTIUM se separa del resto de la industria. Nosotros otorgamos un gran papel a los mTRIs, actualizados en tiempo real- Mejora los rangos de previsibilidad, otorgamos, por igual razón, una importancia crítica a las comunicaciones y ponemos arriba del todo, en la pirámide, el problema principal, combatir el caos, eliminar caos gratuito, que aporta ruido, estrés, desolación y nada más. Nada más.
—¿El horizonte de precisión, reduce o aumenta las necesidades de computación a bordo?
—No es un problema de reducción o ampliación, es un problema de eficiencia y utilizar con más criterio la capacidad de computación. Hay que predecir menos y computar mejor.
—¿Sugiere que el desafío no es predecir?
—Eso digo. Hay que saber más y predecir menos. Es más eficiente. DROTIUM apuesta por el tráfico NERTRA, proactivo. Apostamos por el tráfico transparente y altamente eficiente. Los ingenios deben hablar entre sí y comunicar su propósito. No es necesario predecirlo. Saber, conocer, con certeza, las maniobras que van a realizar todos los miembros de la calzada, es mucho más eficiente. A eso le llamamos nivel 6 de conducción autónoma o conducción proactiva, en la que todos los miembros de la calzada, participan en las misiones de seguridad y forma parte, el nivel seis, del «horizonte de precisión». Consiste en minimizar los problemas de predicción o dicho de otro modo consiste, en aumentar la inteligencia de todo el sistema.
—¿Qué ocurre si un miembro de la calzada informa al resto maliciosamente?
—De eso también trata el «horizonte de precisión». No digo que no se pueda manipular el conductor DROTIUM, digo que su arquitectura es difícilmente manipulable. Pero si se hiciera… lo que tenemos es un delito. Estamos ante un caso de policía y depende de su gravedad. A DROTIUM le importan los problemas de policía. Hemos visto en las dos últimas décadas el uso de aviones civiles en forma de bombas contra la ciudad. Hemos visto el uso de vehículos como misiles contra los ciudadanos. Desde el punto de vista de la seguridad el actual modelo de movilidad es muy vulnerable, altamente vulnerable. La siniestralidad nos indica que la seguridad del actual modelo de movilidad es muy endeble.
—El «horizonte de precisión» generaría un sistema más seguro que el actual…
—De eso se trata. Mucho más seguro. ¿Qué le impide a un kamikaze incorporarse a la calzada en dirección contraria? No se puede impedir. En el futuro será un supuesto imposible.
—¿Cómo se validan los sistemas autónomos, quién los valida?
—No los valida nadie en parte alguna. Es un problema. Y es fácil deducir, por tanto, que no todo vale.
—¿No valen todos los sistemas autónomos?
—El «horizonte de precisión» contribuirá a centrar el problema y a resolverlo. Y su no existencia es el mayor obstáculo. DROTIUM resolverá dicho problema o si lo prefiere, para no parecer petulante, DROTIUM hará una aportación significativa. Muy significativa.
—Los problemas de seguridad en el avance ocupan un lugar central…
—Exactamente. Es lo que nosotros llamamos «avance sano». Y la seguridad es un aspecto crucial del «avance sano». ¿Qué se supone qué debe hacer el supermán inteligente cuando un miembro de la calzada se salta las reglas? ¿Seguir saltándoselas para ponerse a salvo? ¿Cuántos más tienen que saltárselas? Predecir el comportamiento durante 15 segundos, cuando la calzada está muy concurrida, en términos de computación, es una machada. Espero que se comprenda que se necesita un «horizonte de precisión». El «horizonte de precisión» contribuirá a patronar mucho mejor el tráfico, el avance. DROTIUM trabaja con dicha premisa.
> DROTIUM LIBERARÁ A FINALES DE 2022 SU DOCUMENTO «HORIZONTE DE PRECISIÓN»
—Waymo ha liberado una parte de su base de datos. DROTIUM hará lo mismo.
—Nosotros vamos a liberar en primer lugar, porque nos parece más relevante, el «horizonte de precisión». Lo haremos a finales de 2022. Damos por bueno que ayudará a toda la industria a encajar el problema.
—¿La industria de conducción autónoma colabora o compite?
—Bueno… las dos cosas. El potencial tecnológico es fabuloso y lo ya logrado asombra. Corremos el riesgo, no obstante, de malgastar o entorpecer el fabuloso potencial tecnológico, lo ya logrado, que apabulla, si nos empeñamos en preservar el caos, el tráfico caótico. El «horizonte de precisión» influye sobre las funciones de pérdida, sobre el aprendizaje supervisado o motivado y, naturalmente, sobre la optimización. Hemos llegado hasta la retoprogramación para sacarla mucho provecho y lo estamos haciendo. En el caso de la conducción autónoma tenemos que ir al grano y dejar atrás los prejuicios, y la hipótesis de crear un supermán que supere nuestra intuición o caprichos y los derrote. Escriba «debemos dejar atrás al supermán de mallas azul celeste y braguitas rojas».
—¿La humanidad está condenada, acaso, al tráfico caótico?
—Las reglas, los procedimientos, los protocolos, las normas de conducta, las leyes, han hecho avanzar todo y avanzar mucho. Si nos empeñamos en llamar libertad a una castaña pilonga, vamos mal. El tráfico actual es caos. El caos es caos y para unas risas está bien, pero todo el tiempo… Vivir dentro de un colapso, es el caso del tráfico actual, es una práctica antisocial y está más cerca de la barbarie que de ninguna otra cosa. Es vandalismo. A cada cosa por su nombre. ¿Qué sentido tiene meter a un supermán dentro del caos? ¿Estamos tontos?
—En una situación extrema el conductor humano utiliza todo su potencial…
—Para salvarse él, exclusivamente. No existe dilema moral. Manda el instinto de supervivencia y primero tu y después los demás. Así funciona. En una situación extrema hay que operar cumpliendo reglas y eliminar el debate moral. En una situación extrema los humanos reaccionamos instintivamente, autoprotegiéndonos… siempre. Sacrificas a tu hijo, a tu mujer, a los que tienes delante del morro e incluso llegar a matar para proteger tu bien (el vehículo). Eso es lo que realmente hacemos y el resto son mandangas. ¿Es bueno o malo lo que hacemos? Ni una cosa ni la otra. El instinto de supervivencia toma el control y elimina al córtex en una milésima de segundo. Así es, tanto si nos gusta como si nos entristece. Hay que ser serios.
> RESOLVIENDO PROBLEMAS
—¿Última pregunta, los algoritmos se ponen nerviosos?
—Je, je. ¿Vd. qué cree?
—Que no.
—La respuesta es «sí». Se pueden poner nerviosos si las condiciones físicas cambian. Pueden incluso colapsar. Fundido. Se le ha quedado cara de piroplasto. Los humanos nos ponemos muy nerviosos con apenas un suspirito. Los algoritmo en cuanto a calma y estabilidad se refiere, nos sacan muchos cuerpos de ventaja. Recuerde que el algoritmo AlphaZero gana a todos los jugadores con todo lo listos y entrenados que están.
—¿Se pueden poner nerviosos los algoritmos de nuestros ingenios?
—¿Cómo cree que se puede comportar nuestros algoritmos, dentro un computador, que va dentro de un ingenio que está dentro de una explosión nuclear? Estamos en la industria de conducción autónoma, de la movilidad, precisamente, porque la conducción que conocemos se produce en un entorno muy, pero que muy reglado. Un entorno que hemos destruido anegándolo con chatarra e intuición.
—Hay que estar tranquilos...
—Mientras sigan los humanos conduciendo, hay que estar preocupados. Somos pésimos conductores. Eso es lo correcto. Hay que estar esperanzados porque los humanos estamos trabajando y muy duro para resolver nuestras insuficiencias y mejorar nuestra calidad de vida. Hay que estar preocupados, por un lado, y esperanzados, por otro. Los humanos somos, es cierto, muy vulnerables, pero.... también somos la bomba resolviendo problemas.
—Otra especie más inteligente que la nuestra, también puede pensar, que somos unos necios.
—Pues también. En fin, esa es la cosa.