Los robots observan a través de los ojos de las moscas

Para entender cómo el pequeño cerebro de una mosca procesa la información visual de manera tan eficiente como para guiar sus hazañas acrobáticas —y, en definitiva, para construir mejores robots— unos investigadores en Munich han creado un simulador de vuelo para moscas

Comunes y de pobre aspecto, las moscas son verdaderas artistas del vuelo. Cambian de dirección de repente, se quedan estables en un lugar del aire, giran como relámpagos sobre su propio eje y pueden aterrizar con precisión en un área muy pequeña. Casi todas esas maniobras son, simplemente, una cuestión de tiempo.

Una visión extremadamente rápida las ayuda a mantenerse sin perder la orientación y moverse velozmente de un lado a otro. Sin embargo, ¿cómo procesa su diminuto cerebro la multiplicidad de imágenes y señales de una manera rápida y eficiente?

Para llegar al fondo de esto, los miembros de un «grupo de excelencia» que se llama Cognition for Technical Systems, o CoTeSys, han creado un singular entorno de investigación: un simulador de vuelo de moscas. Allí investigan lo que sucede en los cerebros de las moscas cuando están volando.

Su objetivo lograr capacidades similares en productos hechos por manos humanas, por ejemplo, ayudar al desarrollo de robots que pueden independientemente aprehender y aprender de su entorno.

El cerebro de la mosca le permite lo increíble: el insecto elude obstáculos con facilidad en vuelo rápido, reacciona en una fracción de segundo ante la mano que la trata de capturar y la lleva navegando sin error a las delicias malolientes de las que vive.

Los investigadores saben desde hace mucho tiempo que las moscas toman muchas más imágenes por segundo que los humanos.

Para los ojos humanos, algo más de unas discretas 25 imágenes por segundo se fusionan en un movimiento continuo. Una mosca, por otra parte, puede percibir 100 imágenes por segundo en una discreta percepción, y puede interpretarlas con suficiente rapidez como para dirigir su movimiento con precisión y determinar su posición en el espacio.

Sin embargo, el cerebro de la mosca no es más grande que una cabeza de alfiler, demasiado pequeño para permitir estas hazañas si funciona exactamente de la forma que lo hace el cerebro humano. Debe haber una manera más simple y eficaz de tratar las imágenes en la percepción visual, y este es un tema de gran interés para los constructores de robots.

Los robots aún tienen grandes dificultades para percibir su entorno a través de sus cámaras, y aún más difícil es darle sentido a lo que ven. Incluso el reconocimiento de los obstáculos de su propio espacio de trabajo les lleva mucho tiempo. De modo que se hace necesario proteger a sus ayudantes automatizados, rodeándolos, por ejemplo, con coberturas que los aseguren.

La colaboración entre el hombre y la máquina es un objetivo central de la investigación del «grupo de excelencia» llamado CoTeSys. Esta iniciativa de investigación con base en el área de Munich fue co-fundada por un centenar de científicos e ingenieros procedentes de cinco universidades e institutos. En el marco de CoTeSys, los investigadores del cerebro del Instituto Max-Planck de Neurobiología están estudiando cómo hacen las moscas para aprehender su entorno y sus propios movimientos de manera tan eficiente.

Han construido un simulador de vuelo para moscas bajo la dirección del Prof. Alexander Borst, neurobiólogo. En una pantalla semiesférica, los investigadores presentan diversos patrones, movimientos y estímulos sensoriales a las moscas en vuelo. El insecto se mantiene en su lugar por un cabestro, de manera que los electrodos pueden registrar las reacciones de sus células cerebrales. Así los investigadores observar y analizar lo que ocurre en el cerebro de una mosca cuando el animal se desliza y cruza en vuelo alrededor de la habitación.

Los primeros resultados muestran una cosa muy clara: La forma en que las moscas procesan las imágenes de sus ojos inmóviles es completamente diferente de la manera en que el cerebro humano procesa las señales visuales. Los movimientos en el espacio producen los llamados «campos de flujo óptico» que caracterizan definitivamente a determinados tipos de movimiento. En la marcha hacia adelante, por ejemplo, los objetos pasan de prisa a los lados, y los objetos al frente parecen más grandes. Y los objetos cercanos y distantes parecen moverse de otra manera.

El primer paso para la mosca es la construcción de un modelo de estos movimientos en su diminuto cerebro. La velocidad y dirección con la que parecen moverse los objetos delante de los ojos de la mosca generan, momento a momento, un patrón típico de vectores de movimiento, el flujo de campo, que en una segunda etapa es evaluado por la llamada «placa lobula», un mayor nivel del centro de visión del cerebro.

En cada hemisferio hay sólo 60 células nerviosas responsables de esto, cada una reacciona con especial intensidad cuando se les presenta los patrones apropiados a ella. Para el análisis de los campos de flujo óptico, es importante que se reuna la información de movimiento de ambos ojos. Esto ocurre sobre una conexión directa de neuronas especializadas llamadas células VS. De esta manera, la mosca obtiene una precisa determinación de su posición y movimiento.

«Por nuestros resultados, la red de células VS en el cerebro de la mosca, responsable del movimiento de rotación, es uno de los circuitos mejor comprendidos en elsistema nervioso». Sin embargo, estos esfuerzos no terminan en la investigación puramente fundamental. Los descubrimientos de los neurocientíficos en Martinsried también son particularmente interesantes para los ingenieros asociados con la cátedra de dirección y control en la Technischen Universität München (TUM), con quienes el Prof. Borst colabora estrechamente en el marco de CoTeSys.

Bajo la dirección del Prof. Dr. Martin Buss y el Dr. Kolja Kühnlenz, los investigadores de la TUM están trabajando para desarrollar máquinas inteligentes que pueden ver su medio ambiente a través de cámaras, aprender de lo que ven, y reaccionar adecuadamente a la situación que se les presenta. Su objetivo a largo plazo es lograr la creación de máquinas inteligentes que puedan interactuar con la gente directamente, de manera eficaz, y segura. Incluso en las fábricas, deben desaparecer las barreras de seguridad entre los seres humanos y los robots. Con ese fin, son absolutamente esenciales métodos simples, rápidos y eficientes para el análisis y la interpretación de imágenes de la cámara.

Por ejemplo, los investigadores de la TUM están desarrollando pequeños robots voladores, cuya posición en vuelo y movimientos serán controlados por un sistema informático que haga un análisis visual inspirado en el ejemplo de la mosca del cerebro.

Un robot móvil, el Autonomous City Explorer (ACE) se enfrenta al reto de encontrar su camino desde el instituto a Marienplatz, en el corazón de Munich —una distancia de alrededor de un kilómetro y medio— deteniendo a los transeúntes y pidiendo direcciones. Para ello, ACE ha de interpretar los gestos de las personas que señalan el camino, y tiene que manejarse con las aceras y los cruces de tráfico en condiciones de seguridad.

Una interacción cada vez más natural entre las máquinas inteligentes y los seres humanos es impensable sin un eficiente análisis de la imagen.

Los conocimientos adquiridos del simulador de vuelo de las moscas —por medio de la interacción científica que fomenta CoTeSys entre investigadores de diversas disciplinas— ofrecen un enfoque que podría ser lo suficientemente simple como para ser técnicamente portable de un dominio a otro, desde los insectos a los robots.

Fuente: TUM. Aportado por Eduardo J. Carletti

Más información: