La importancia de fabricar una inteligencia con motivaciones
Algunos futurólogos como Ray Kurzweil tienen la hipótesis de que en algún día no muy lejano pasaremos por una singularidad, es decir, un período de rápidos cambios tecnológicos más allá de los cuales no podemos imaginar el futuro de nuestra sociedad. La mayoría de las visiones sobre la singularidad se enfocan en la creación de máquinas suficientemente inteligentes como para diseñar máquinas más inteligentes que ellas, y así sucesivamente, de forma recursiva, disparando un bucle de retroalimentación positiva de amplificación de la inteligencia. Es un pensamiento interesante. (Una de las primeras cosas que quería hacer cuando llegué al MIT como estudiante era construir un robot científico que pudiese hacer los descubrimientos más rápido y mejor que nadie.) Incluso el director de tecnología de Intel, Justin Rattner, ha especulado públicamente hace poco que estamos bien en camino hacia esta singularidad, y en conferencias como la Cumbre de la singularidad (en la que voy a estar hablando en octubre) se está explorando cómo pueden tener lugar estas transformaciones.
Como ingeniero del cerebro, sin embargo, creo que centrarse únicamente en el aumento de la inteligencia como el impulsor del futuro es dejar de lado una parte crítica del análisis, es decir, el cambio en la motivación que pudiese surgir cuando la inteligencia se amplifique. Llámelo la necesidad de «habilidades de liderazgo de la máquina» o «filosofía de las máquinas». Sin esto, un circuito de retroalimentación así puede entrar a hacer chispas rápidamente.
Todos sabemos que la inteligencia, como se define comúnmente, no es suficiente en sí misma para impactar el mundo. La capacidad de lograr un objetivo tenazmente frente a los obstáculos, haciendo caso omiso de lo severa que pueda ser la realidad (a veces incluso hasta el punto de engañarse, es decir, ir contra la inteligencia), también es importante. La mayoría de los relatos de ciencia ficción tienen una preferencia por hacer que sus inteligencias artificiales estén extremadamente motivadas para hacer cosas como, por ejemplo, esclavizar o liquidar a los seres humanos, si tomamos como ejemplo lo que nos dicen The Matrix y Terminator sobre el tema.
Pero me parece igualmente posible el robot Marvin, la máquina superinteligente de Guía del Autoestopista Galáctico, de Douglas Adams, que utiliza su enorme inteligencia principalmente para sentarse por ahí y quejarse, en ausencia de un gran objetivo.
En efecto, una inteligencia realmente muy avanzada, mal motivada, puede darse cuenta de la no durabilidad de las cosas, puede calcular que el Sol se apagará en unos pocos miles de millones de años, y entonces decidir que es mejor ponerse a jugar juegos de video durante el resto de su existencia, al llegar a la conclusión de que la invención de una máquina aún más inteligente es inútil. (Un corolario de esta forma de pensar, aplicado a la vida extraterrestre, podría explicar por qué no hemos encontrado todavía: inteligencias en la cúspide al haber alcanzado el viaje interestelar. Podrían ser propensos a pensar que con las galaxias quemándose a distancias de 1019 años, tal vez sería mejor mantenerse en casa y ver la televisión.) Así que, si uno está tratando de construir una máquina inteligente capaz de idear máquinas más inteligentes, es importante encontrar una manera de darle no sólo motivación, sino una amplificación de la motivación: que el constante deseo de construir sea, en sí mismo, lo que mantiene la motivación, mientras la inteligencia se amplifica. Si las generaciones futuras de la inteligencia poseen una motivación así —meta-motivación, por decirlo así— entonces es importante descubrir estos principios ahora.
Un ser inteligente puede ser capaz de imaginar muchas más posibilidades que uno menos inteligente, pero esto no siempre puede dar lugar a una acción más eficaz, especialmente si algunas de las posibilidades distraen a la inteligencia de los objetivos originales (por ejemplo, la meta de construir una inteligencia más inteligente). La incertidumbre inherente del universo también puede abrumar, o hacer irrelevante, el proceso de decisión de esta inteligencia. De hecho, en un espacio con una dimensión muy grande de posibilidades (con los ejes representando los diferentes parámetros de la acción a tomar) podría ser muy difícil evaluar qué camino es el mejor. La mente puede hacer planes en paralelo, pero las acciones son en última instancia únicas, y teniendo en cuenta un limitado acceso a recursos, las eficaces acciones a menudo serán escasas.
Los dos últimos párrafos se aplican no sólo a la inteligencia artificial y lkos extraterrestres, sino que también describen las características de la mente humana que a veces afectan a la toma de decisiones en muchos de nosotros: la falta de motivación y unidad, y la parálisis en la toma de decisiones al enfrentarse a muchas opciones posibles. Pero esto se pone peor: nosotros sabemos que la motivación puede ser desviada por opciones que simulan la satisfacción de haber encaminado la motivación.
Las adicciones a sustancias afecta a decenas de millones de personas en los Estados Unidos, y las adicciones a cosas más sutiles, como ciertos tipos de información (tales como e-mail), son importantes también. Y pocas artes son más difíciles que traspasar la motivación para el logro de una gran idea a la siguiente generación. Inteligencias que inventen más y más interesantes y absorbentes tecnologías que atrapen mejor su atención y la mantengan, mientras se reduce su impacto sobre el mundo, podrían generar lo opuesto de una singularidad.
¿Qué es lo contrario de una singularidad? La singularidad depende de una recursividad matemática: inventa una superinteligencia, y entonces ella inventará una superinteligencia aún más potente. Pero, como cualquier estudiante de matemáticas sabe, hay otros resultados de un proceso iterativo, como un punto fijo. Un punto fijo es un punto en el que, cuando se le aplica una función, da el mismo punto de nuevo. La aplicación de esa función a los puntos cercanos al punto fijo a menudo les enviará hacia el punto fijo.
Un «punto fijo en la sociedad», por lo tanto, se podría definir como un estado que autorefuerza la permanecencia en un status quo —que en principio podría ser pacífico y autosuficiente, pero también puede ser muy aburrido—, digamos, algo que incluye a muchas personas conectadas a Internet viendo videos para siempre. Por lo tanto nosotros, como seres humanos, deberíamos desear, en algún momento no muy lejano, empezar a trazar normas de diseño de tecnologías que nos motiven a una meta elevada o final, o al menos que nos alejen del callejón sin salida de puntos fijos sociales. Este proceso implica pensar en cómo la tecnología podría ayudar a hacer frente a una vieja cuestión de la filosofía, a saber, «¿Qué debo hacer, teniendo en cuenta todos estos caminos posibles?». Tal vez es hora de dar una respuesta empírica a esta cuestión, derivada de las propiedades de nuestro cerebro y del universo en que vivimos
Fuente: Edward Boyden en Technology Review. Aportado por Eduardo J. Carletti