¿Cuándo seremos capaces de construir cerebros como los nuestros?

Más pronto de lo que se piensa… y la carrera ha causado últimamente una «pelea de gatos»

Cuando los físicos desentrañan el funcionamiento de una nueva parte de la naturaleza, este conocimiento se puede utilizar para crear dispositivos que hacen cosas increíbles: el vuelo de los aviones, o la radio, que llega a millones de oyentes. Cuando lleguemos a comprender cómo funciona el cerebro, esto nos debería permitr la construcción de increíbles objetos con capacidades cognitivas, como ser automóviles con la capacidad de conducir mejor que nosotros porque se comunican con otros coches y comparten conocimientos sobre las condiciones de la carretera. En el 2008, la Academia Nacional de Ingeniería de EEUU eligiió como uno de sus grandes retos realizar una ingeniería inversa del cerebro humano.

¿Cuándo se cumplirá esto?

Algunos predicen que la primera tanda de resultados llegará en una década, impulsados por los rápidos avances tanto en la neurología y en la informática. Esto suena increíble, pero es cada vez es más plausible. Tan factible, en efecto, que la gran carrera de la ingeniería inversa del cerebro ya está provocando una controversia sobre los «primeros» logros históricos.

El telón de fondo para el debate es el del dramático progreso. Los neurocientíficos están desmontando cerebros en componentes, hasta la última molécula, y tratan de entender cómo funcionan desde abajo hacia arriba. Los investigadores se apresuran a elaborar los diagramas de cableado de los grandes cerebros, comenzando con ratones, gatos, y finalmente humanos, en un nuevo campo llamado conectómíca. Las nuevas técnicas están permitiendo grabar los datos de muchas neuronas simultáneamente, y estimular o silenciar de forma selectiva neuronas específicas. Hay excitación en el aire y la sensación de que estemos comenzando a comprender cómo funciona el cerebro a nivel de circuitos. Los que crean modelos del cerebro se han limitado hasta ahora a pequeñas redes con unos pocos miles de neuronas hasta el momento, pero esto está cambindo rápidamente.

Mientras tanto, las computadors digitales acrecietan en forma exponencial su poder de procesamiento, almacenamiento de memoria y ancho de banda de sus comunicaciones. Hasta hace poco, esto se lograba acelerando la velocidad de reloj, que pasó del reino de los kilohertz al de los gigaherts en pocos años. Pero los relojes de las computadoras ya no se aceleran tan rápido, los avances en el poder de computación se dan por incrementos en la catidad de procesadores y la capacidad para distribuir el problema entre ellos. Los superordenadores más veloces tienen cientos de miles de procesadores y las GPUs (Graphic Process Units o Unidades de Procesamiento Gráfico) les dan a las computadors personales la misma capacidad de computación que tenían los supercomputadores hace 10 años. Si se cumple la Ley de Moore del crecimiento exponencial en la potencia de computación, en algún momento las cmputadoras deberían ser suficientemente potentes, y nuestro conocimiento del cerebro suficientemente completo, como para construir dispositivos en base a los principios de la computación neuronal. Al igual que los cerebros, estos dispositivos se basarán en una lógica probabilítica más que en lógica determinista, y razonarán de forma inductiva más que deductiva.

La disputa conocida por todos como “pelea de gatos” se originó cuando, en noviembre pasado, el investigador de IBM Dharmendra Modha anunció en una conferencia de supercomputación que su equipo había escrito un programa que simulaba un cerebro de gato. La noticia tomó a muchos por sorpresa, dado que se había adelantado al cerebro de ratón y sobrepasado a otros grupos en este hito. Por este trabajo, Modha ganó el prestigioso galardón ACM Gordon Bell, que se concede para reconocer méritos sobresalientes en la investigación de aplicaciones computacionales.

Sin embargo, su audaz afirmación fue impugnada por Henry Makram, un neurólogo del Ecole Polytechnique Fédérale de Lausanne y líder del proyecto Blue Brain, quien anunció en el 2009 que “no es imposible construir un cerebro humano y lo podemos hacer en 10 años”. En una carta abierta a la Oficina del Director Técnico de IBM, Bernard Meyerson, Makram acusó a Modha de “engaño de masas” y dijo que su artículo es un “engaño” y una “estafa”. Esto se convirtió en un tema c{elebre en la blogosfera y sigue siendo un tema candente para los que viven en la intersección entre el cerebro y la informática.

El quiz de la ontroversia es: ¿Qué significa modelar el cerebro de un gato? Ambos grupos están simulando un gran número de neuronas modelo y conexiones entre ellas. Ambos modelos corren de manera mucho, mucho más lenta que en tiempo real. Las neuronas del modelo de Modha sólo tienen un soma —el cuerpo celular que contiene el núcleo celular— y picos simples. En contraste, el modelo de Markram posee una reconstrucción detallada de las neuronas, con complejos sistemas de conexiones ramificadas llamadas dendritas, e incluso una gran cantidad de mecanismos de comunicación y compuerta como los canales de iones. Las sinapsis y las conexiones entre las neuronas del modelo de Modha están simplificadas en comparación con las detalladas sinapsis biofísicas en el modelo de Markram. Los dos modelos están en los extremos de simplicidad y complejidad.

La controversia pone en perspectiva la tensión que existe entre los partidarios de utilizar modelos simplificados de las neuronas, para conseguir simulaciones más rápidas, y los partidarios de incluir los detalles biológicos de las neuronas para poder entenderlas. Mirando a la misma neurona, los físicos y los ingenieros tienden a ver la simplicidad donde los biólogos tienden a ver la complejidad. El problema con los modelos simplificados es que pueden estar tirando al bebé junto al agua de baño. El problema con los modelos biofísicos es que la cantidad de detalles es casi infinita y una gran parte de ellos son desconocidos. ¿Cuánto de la función cerebral se pierde al utilizar neuronas y circuitos simplificados? Esta es una de las preguntas que podríamos responder si pudiésemos comparar directamente ambos modelos.

Por desgracia, las simulaciones a gran escala de ambos grupos se parecen mucho más en la actualidad a los ritmos del sueño o a la epilepsia que lo que se asemejan a la conducta de un gato, ya que no tiene entradas sensoriales ni salidas motoras. También se pierden estructuras subcorticales esenciales, como el cerebelo, que organiza los movimientos, la amígdala, que crea estados emocionales y la columna vertebral, que mueve la musculatura. Sin embargo, con la modelación de Modha estamos aprendiendo a programar en paralelo a gran escala de arquitectura para llevar a cabo simulaciones que se escalen hasta llegar al gran número de neuronas y sinapsis del cerebro real. De los modelos de Markram estamos aprendiendo a integrar los diferentes niveles de detalle en estos modelos. En su documento, Modha predice que el mayor superordenador será capaz de simular los elementos básicos de un cerebro humano en tiempo real para el año 2019, de modo que al parecer él y Markram acuerdo en esta fecha; sin embargo, en el mejor de los casos, estas simulaciones se asemejarám a un cerebro de bebé, o tal vez a un psicótico. Hay mucho más en un cerebro humano que la suma de sus partes.

Por supuesto, puede que no sea necesario o deseable construir el cerebro de un gato o el de un humano, ya que tenemos gatos y humanos completamente funcionales. Esta tecnología, sin embargo, podría habilitar otras aplicaciones. En el 2005, Simon Haykin, director del Laboratorio de Sistemas Cognitivos de la Universidad McMaster, escribió un influyente artículo llamado “Cognitive radio: Brain-empowered wireless communications” que sentó la base para una nueva generación de redes inalámbricas que utilizan principios computacionales del cerebro para modelar de forma predictiva la utilización del espectro electromagnético y utilizar de forma más eficiente el ancho de banda que los estándares actuales. No se trata de castillos en el aire. Se han discutido planes para utilizar versiones iniciales de estos sistemas de comunicación inteligentes en la próxima distribución federal del espectro electromagnético en una reunión del Council of Advisors on Science and Technology con el Presidente Obama.

Otras utilidades están por llegar, como la “red eléctrica cognitiva” y otros dispositivos como el automóvil cognitivo. Los sensorios y motores de estos sistemas cognitivos serán la infraestructura del mundo. Los sensores distribuirán información —sobre uso de electricidad, condiciones de los caminos, del clima, avance de enfermedades— y la utilizarán para optimizar objetivos, como reducir el consumo de energía, y tiempo de viaje, regulando el flujo de recursos. Partes de estos sistemas ya están posicionados, pero aún no hay un sistema nervioso central que integre el torrente de información y ejecute las acciones adecuadas. Algún día, al parecer pronto, lo habrá. Y gradualmente, según vaya imitando nuestro cerebro, el mundo alrededor nuestro se convertirá en mejor y más eficiente. Cuando evolucione esta infraestructura cognitiva, quizá algún día llegue al punto en que rivalice en sofisticación con nuestro cerebro. La inteligencia heredará la Tierra.

Fuente: Scientific American. Aportado por Eduardo J. Carletti

Más información: