Investigador sueco rompe con la exageración en torno a los vehículos autónomos

La Fundación Knut y Alice Wallenberg apoya varios proyectos innovadores en Suecia, y uno de los más notables es el Programa de software, sistemas autónomos y IA de Wallenberg (Avispa), el mayor proyecto de investigación del país hasta la fecha.

Michael Felsberg es parte de ese proyecto. Felsberg, profesor de la Universidad Linköping de Suecia, también es director del laboratorio de visión artificial de la universidad. Gran parte de su investigación en inteligencia artificial (IA) está financiada como parte de Wasp.

Si bien Felsberg forma parte de varios comités que respaldan el proyecto Wasp en general, su propio trabajo se centra en la percepción y el aprendizaje automático. Lleva más de dos décadas investigando en IA y ha observado de primera mano los ciclos de financiación e interés general en áreas de investigación científica, especialmente aquellas que captan la atención del público.

Un buen ejemplo es la investigación en torno a los vehículos autónomos que, según Felsberg, comenzó hace más de 40 años. Las pruebas de autos sin conductor comenzaron en la primera mitad del siglo XX, dice, y los prototipos serios fueron desarrollados por Ernst Dickmanns en la década de 1980 Pero la mayoría de la gente no empezó a oír hablar de la posibilidad de coches autónomos hasta principios de la década de 2000.

Y luego, hace apenas 15 años, hubo tanta publicidad en los medios en torno al tema que los inversores comenzaron a perder interés en la investigación académica en el campo porque ya no parecía necesaria. Ese pensamiento estuvo fuertemente influenciado por los anuncios de prensa de las empresas, especialmente de marcas emergentes como Tesla. Los actores industriales y los medios parecían estar insinuando que todo lo que quedaba por hacer era el ajuste y la implementación, y que los fabricantes lanzarían los primeros autos sin conductor en un futuro muy cercano.

Los ciclos de exageración causan estragos en la financiación de la investigación

“Eso es típico con la nueva tecnología”, dice Felsberg. “Las empresas hacen muchas relaciones públicas y exageran sus contribuciones al dominio. Esto conduce a un malentendido general entre el público, lo que a su vez conduce a la depresión dentro del área de investigación. Demasiados inversores aceptan la exageración y creen erróneamente que ya no es un área de investigación académica, que ahora está en manos de la industria. Cuando los inversores empiezan a pensar así, nadie se atreve a pedir financiación.

“Pero entonces, lo que también es típico es que ocurre una falla importante en un sistema comercial, o se produce un gran avance en la pequeña investigación académica que aún continúa a pesar de la depresión. Entonces todo el mundo se preocupa por lo que se percibe como un problema nuevo, que de hecho, los investigadores serios habían reconocido como un problema todo el tiempo. De repente, la gente pide más investigación académica para encontrar una solución”.

Felsberg agrega: “Lo que falta en nuestra sociedad es una apreciación por la investigación académica clásica. Hacer investigación básica, permitir todos estos avances, significa hacer mucho trabajo preliminar. Esto lleva muchos años y muchas generaciones de estudiantes de doctorado”.

Para Felsberg, estos ciclos de atacar un área y luego exagerarla son malos para el desarrollo científico. El progreso se beneficiaría mejor si estos picos y valles se nivelaran para mantener un ritmo constante en estos campos que están recibiendo tanta atención.

A veces, los investigadores serios, que se ocupan pacientemente de resolver problemas importantes, hablan, pero sus voces a menudo no son más que un susurro en medio del ruido del mercado.

Por ejemplo, en 2008, en una entrevista para la televisión sueca, se le preguntó a Felsberg si sus hijos alguna vez necesitarían una licencia de conducir. Su respuesta fue que seguramente necesitarían una licencia porque los vehículos totalmente autónomos, es decir, los vehículos autónomos de nivel 5, no estarían disponibles dentro de 10 años, a pesar de lo que decían las empresas en ese momento. Nadie prestó mucha atención a su predicción en ese momento, a pesar de que fue acertada.

Ahora, en 2022, Felsberg todavía cree que, aunque muchos de los problemas más fáciles para los vehículos autónomos se han resuelto, todavía hay muchos problemas difíciles que no están ni cerca de resolverse. La automatización de nivel 5, en la que los vehículos no requieren atención humana, aún está muy lejos.

Todavía muchos problemas por superar

Según Felsberg, varios grandes problemas aún se interponen en el camino de los vehículos totalmente autónomos, por ejemplo, la clasificación de imágenes. “Sabemos por cada imagen, esto es una bicicleta, este es un perro y este es un automóvil”, dice. “Las imágenes están etiquetadas a mano por humanos y las imágenes anotadas se utilizan para entrenar sistemas de reconocimiento de imágenes”.

La generación actual de algoritmos de IA requiere un período de aprendizaje supervisado antes de que se pueda implementar un sistema. En preparación para esta fase, se necesita un ejército de anotadores para etiquetar las imágenes para una aplicación determinada. Las imágenes se anotan no solo con el nombre de la clase de objetos que debe buscar el algoritmo, sino también con la ubicación del objeto dentro de la imagen.

Para el uso industrial a gran escala de la IA, esta cantidad de anotaciones no es práctica: al menos debería ser posible proporcionar una secuencia de imágenes que tengan un automóvil sin tener que indicar dónde está el automóvil. También debería ser posible que un algoritmo reconozca un objeto parcialmente oscurecido; por ejemplo, un hombre parado detrás de un banco con solo la parte superior del cuerpo visible debería ser reconocido como un hombre. Si bien el reconocimiento de objetos parcialmente oscurecidos es un tema de investigación básica en curso, actualmente no está listo para producción.

Para que los vehículos autónomos funcionen a gran escala, los algoritmos deberían poder reconocer nuevas clases de objetos sin tener que someterse a otra ronda de entrenamiento supervisado. Se necesita demasiado tiempo y esfuerzo para volver a etiquetar los enormes volúmenes de datos. Sería mucho mejor si el algoritmo pudiera aprender a reconocer la nueva clase después de que se haya implementado. Pero los investigadores aún tienen que encontrar una forma sólida de hacer este proceso, que se conoce como “aprendizaje incremental en clase”.

“Digamos que tenemos un sistema de clasificación de imágenes que detecta automóviles y de repente tenemos un nuevo tipo de vehículo como el e-scooter, que se ha vuelto muy popular recientemente”, dice Felsberg. “La nueva clase de objeto no se reconocerá porque no se conocía en el momento en que se construyó el sistema. Pero ahora tenemos que agregarlo, lo que significa pasar por un entrenamiento supervisado una vez más. Esto es inaceptable. Realmente necesitamos agregar la nueva clase de objetos sobre la marcha”.

Otro problema es el volumen puro de datos de entrenamiento y la cantidad de computación necesaria para procesar esos datos. Se consume una enorme cantidad de energía para entrenar sistemas de IA porque el aprendizaje automático a menudo se realiza de manera de “fuerza bruta”.

“Si se va a usar la IA en la escala necesaria para los vehículos autónomos, sería necesario tener un hardware más eficiente que consuma menos energía durante el proceso de aprendizaje automático”, dice Felsberg. “También necesitaríamos mejores estrategias para el aprendizaje automático, métodos que funcionen mejor que solo el barrido de parámetros, que es lo que se hace hoy”.

Grandes cuestiones legales y éticas siguen sin resolverse

“Otro problema es el aprendizaje continuo o el aprendizaje permanente en los sistemas de IA”, dice Felsberg. “Desafortunadamente, muchos mecanismos para el aprendizaje automático no se pueden usar de esta manera incremental. Le gustaría dedicar alrededor del 90 % del tiempo de capacitación antes de lanzar el sistema y luego el 10 % restante mientras está activo para mejorarlo. Pero no todos los sistemas son compatibles con esto, y también genera algunos problemas relacionados con el control de calidad.

“Diría que la versión más común de cómo funcionaría esto es que un proveedor de automóviles tiene un software en el automóvil que se produjo durante un año determinado, tal vez cuando el automóvil se fabricó inicialmente. Luego, cuando el automóvil se pone en servicio, obtiene un nuevo software. Es muy posible que los métodos de aprendizaje automático hayan mejorado mientras tanto y, en cualquier caso, habrán vuelto a entrenar el sistema hasta cierto punto. Introducirán la actualización del software en el automóvil y eso incluirá los resultados del nuevo entrenamiento”.

Felsberg agrega: “No está claro cómo se certificarán estas actualizaciones y dónde recae la responsabilidad cuando ocurren los errores inevitables. ¿Cómo se realiza un control de calidad en un sistema que cambia continuamente?”

“La mayoría de los problemas difíciles se revisan varias veces antes de que realmente se resuelvan”

Michael Felsberg, Universidad de Linköping

En última instancia, los automóviles cargarán nuevos datos en la nube para usarlos para el entrenamiento. La ventaja de este enfoque será la gran cantidad de nuevos datos y el aprendizaje compartido. Pero aquí nuevamente, hay desafíos en torno a la garantía de calidad y hay problemas en torno a la protección de la privacidad del propietario del automóvil.

“Asociado con los controles de calidad está la idea de que una IA pueda proporcionar un nivel de confianza, o incertidumbre, cuando toma una decisión”, dice Felsberg. “Quieres que el sistema tome una decisión e indique un nivel de confianza, o una probabilidad estimada de que sea correcto. También nos gustaría saber la razón por la que un sistema tomó una determinada decisión. Este segundo concepto se denomina IA explicable. Queremos entender lo que está sucediendo en este sistema y nos gustaría que ese sistema nos diga cómo tomó la decisión y qué tan seguro está de su decisión.

“Hemos identificado varios de estos problemas muy fundamentales que son muy difíciles de abordar. No habrá progreso inmediato en todos estos frentes dentro de los próximos dos años. Algunos de ellos pueden durar hasta el próximo bucle de la exageración. Tal vez en siete años, habrá un nuevo entusiasmo por el aprendizaje automático después de un período intermedio de depresión. Entonces la gente seguirá trabajando en estos problemas. Sin embargo, eso no es inusual: la mayoría de los problemas difíciles se revisan varias veces antes de que realmente se resuelvan”.

Felsberg agrega: “Estos son solo algunos de los problemas abiertos hoy, y ya estábamos trabajando en ellos antes de la gran exageración más reciente”.

La insistencia de la sociedad en los vehículos autónomos puede prevalecer

Durante las grandes exageraciones, el público en general piensa que debido a que ha habido un gran progreso, ya no se requiere investigación. Esta actitud es tóxica porque la implementación puede comenzar antes de que la tecnología esté lista.

Además, esto solo aborda los aspectos técnicos de los vehículos autónomos. Todavía quedan muchas cuestiones éticas y de responsabilidad por resolver. ¿Cuándo es responsable el conductor y cuándo es responsable el fabricante? Estos temas están en manos de las compañías de seguros y de los legisladores. Los investigadores académicos ya tienen suficiente trabajo por hacer.

Según Felsberg, la Fundación Knut y Alice Wallenberg es una inversora paciente. Intenta luchar contra las grandes exageraciones y suavizar el panorama para financiar la investigación básica en su conjunto, incluso durante los períodos en que este no es el tema más popular, porque utiliza expertos en las áreas respectivas para comprender dónde es importante invertir. De esta forma, la fundación tuvo conocimiento de muchos requisitos antes de que fueran conocidos públicamente en los medios de comunicación.

“Una buena estrategia para la investigación es construir tecnologías que las empresas puedan usar 10 años más tarde para desarrollar productos que cambien el mundo”, dice Felsberg.

“Con respecto a si un niño que nace hoy alguna vez necesitará una licencia de conducir, eso será dentro de 15 o 16 años, lo que representa aproximadamente dos ciclos de exageración en el futuro. La tecnología aún no estará lista, pero las empresas la obligarán a funcionar de todos modos. Incluso si la tecnología no está lo suficientemente madura para hacer el trabajo de conducción autónoma en todas partes, creo que la necesidad social de vehículos autónomos y las expectativas de la gente habrán crecido tanto para entonces que las empresas obligarán a que funcione”.

Felsberg concluye: “La tecnología no estará completamente lista, pero se pondrá en uso con todos sus déficits. Habrá ciertas limitaciones y habrá soluciones para evitar los problemas no resueltos. La sociedad insistirá, y esta vez prevalecerá”.

Exit mobile version