Su plataforma Habitat ahora permite incorporar sonidos realistas para que los modelos de IA aprendan cosas como abrir la puerta cuando alguien está llamando. El objetivo es mejorar la capacidad de navegación simulada y trasladar esos conocimientos a robots para que los apliquen en el mundo físico

facebook sharing buttontwitter sharing buttonlinkedin sharing buttonwhatsapp sharing buttonmeneame sharing buttonsharethis sharing button
por Karen Hao | traducido por Ana Milutinovic 24 Septiembre, 2020
En junio de 2019, el laboratorio de inteligencia artificial (IA) de Facebook, FAIR, lanzó AI Habitat, una nueva plataforma de simulación para entrenar a asistentes de IA. El servicio permitía a los algoritmos explorar varios entornos virtuales realistas, como un apartamento amueblado y una oficina llena de cubículos. Luego, la IA podría implementarse en un robot para adquirir la inteligencia generada para navegar por el mundo real sin accidentes.

En el año transcurrido desde entonces, FAIR ha ampliado rápidamente los límites de su trabajo. En una reciente publicación de blog, el laboratorio anunció tres hitos adicionales alcanzados: dos nuevos algoritmos que permiten a un modelo crear y recordar rápidamente un mapa de los espacios por los que navega, y la adición de sonido en la plataforma para que los asistentes también aprendan a escuchar.

Los algoritmos se basan en un trabajo de FAIR de enero de este año, cuando un modelo fue entrenado en Habitat para navegar en entornos desconocidos sin mapa. Utilizando solo una cámara con sensor de profundidad, GPS y datos de la brújula, aprendió a entrar en un espacio casi como lo haría un ser humano y a encontrar el camino más corto posible hacia su destino sin giros equivocados, marcha atrás ni exploración.

El primero de estos nuevos algoritmos ahora puede generar un mapa del espacio al mismo tiempo, lo que le permite recordar el entorno y navegar por él más rápido si regresa. El segundo mejora la capacidad del modelo para mapear el espacio sin necesidad de visitar cada parte del mismo. Como ya se había entrenado en suficientes entornos virtuales, es capaz de anticipar ciertas características en uno nuevo. Por ejemplo, puede saber que es probable que haya un espacio vacío en el suelo detrás de una mesa de cocina sin tener que navegar hacia el otro lado para mirar. De nuevo, esto al final permite que el asistente se mueva más rápido por un entorno.

Además, el laboratorio también creó SoundSpaces, una herramienta de reproducción de sonido que permite a los investigadores añadir un audio altamente realista a cualquier entorno de Habitat. Podría reproducir los sonidos generados al golpear diferentes muebles, o el ruido de tacones sobre el suelo, contrario al de unas zapatillas deportivas. Ese plus le da a Habitat la capacidad de entrenar a los modelos en tareas que requieren detección visual y auditiva, como «Coger el teléfono que suena» o «Abrir la puerta a la que alguien llama».

VER FUENTE

Se ha producido un error. Actualiza la página y/o inténtalo de nuevo.