Una invasión encabezada por máquinas inteligentes. Computadoras conscientes. Un teléfono inteligente con un virus tan capaz que puede comenzar a imitarlo a usted…
Se podría pensar que estos escenarios son risiblemente futuristas, pero algunos de los investigadores líderes mundiales en inteligencia artificial (IA) son conscientes del impacto potencial de los avances en la IA y han estado debatiendo sobre los riesgos durante el año pasado. Ahora se han conocido sus conclusiones.
Hasta ahora, la investigación en inteligencia artificial se ha ocupado principalmente de innumerables desafíos básicos que han resultado ser muy complejos, tales como enseñar a las máquinas a distinguir los objetos cotidianos. La inteligencia artificial a nivel humano o la libre evolución de las máquinas se consideran logros abstractos a largo plazo que todavía no están listos para un examen serio.
Ahora, por primera vez, fueron convocados 25 científicos de IA, robotistas, académicos éticos y jurídicos para formar un panel que aborde estas cuestiones, bajo los auspicios de la Asociación para la Promoción de la Inteligencia Artificial (AAAI) en Menlo Park, California.
Se examinaron temas como la viabilidad y las ramificaciones de ideas aparentemente exageradas, como la posibilidad de que Internet se vuelva autoconsciente.
El grupo se inspiró en la Conferencia de Asilomar de 1975 sobre el ADN Recombinante en California, en el que más de 140 biólogos, médicos y abogados consideraron las posibilidades y peligros de la entonces emergente tecnología para crear secuencias de ADN que no existen en la naturaleza.
Los delegados de la conferencia previeron que la ingeniería genética se convertiría en una disciplina ampliamente extendida, aunque las aplicaciones prácticas –como el aumento de los cultivos modificados genéticamente– todavía no se habían desarrollado.
A diferencia del ADN recombinante en 1975, sin embargo, la IA es algo que no existe aún en el mundo. Los robots como los Roombas y Scoobas ayudan en las mundanas tareas de limpieza y aspiración, mientras que hay dispositivos capaces de tomar decisiones que nos están ayudando en situaciones complejas, a veces de vida o muerte. Por ejemplo, Poseidon Technologies vende sistemas de IA que ayudan a los socorristas a identificar si una persona se está ahogando en una piscina, y Clearflow Systems, de Microsoft, ayuda a los conductores a elegir la mejor ruta mediante un análisis del comportamiento del tráfico.
Por el momento, estos sistemas sólo dan asesoramiento o ayuda a los seres humanos, pero el panel de AAAI advierte que no está lejos el día en el que las máquinas podrían tener una mayor capacidad para tomar y ejecutar decisiones por su cuenta, aunque dentro de un estrecho rango de experiencias. Cuando estos sistemas de IA se vuelvan más comunes, ¿qué avances podemos esperar, y qué efectos tendrán sobre la sociedad? Lo que es más, ¿qué precauciones debemos tomar?
Estas son algunas de las muchas preguntas que se abordaron en el panel, presidido por Eric Horvitz, presidente de la AAAI e investigador principal en Microsoft Research. El grupo comenzó sus reuniones por teléfono y teleconferencia a mediados de 2008 y, a continuación, en febrero de ese año, sus miembros se reunieron en Asilomar, una tranquila ciudad en la costa norte de California, durante un fin de semana, para debatir y buscar el consenso. Ellos presentaron sus primeras conclusiones en la Conferencia Conjunta Internacional para la Inteligencia Artificial (IJCAI) en Pasadena, California, el 15 de julio.
Los miembros del panel dijeron en IJCAI que acordaron por unanimidad que la creación de una inteligencia artificial a nivel de la humana –un sistema capaz de tener conocimientos en toda una gama de dominios– es posible en principio, pero discreparon en cuanto a cuando pueda ocurrir ese avance, con estimaciones que oscilan brutalmente, entre 20 y 1000 años.
El miembro del grupo Tom Dietterich, de Oregon State University en Corvallis, señaló que gran parte de la actual investigación de AI no está destinada a la construcción de un sistema de IA para uso general de nivel humano, sino que se centra en sistemas «idiotas-sabios», buenos para tareas en una gama muy reducida de aplicaciones, como las matemáticas.
El grupo de expertos examinó a fondo la idea de una «singularidad»: una reacción en cadena sin control de máquinas capaces de construir máquinas cada vez mejores. Aun admitiendo que era teóricamente posible, la mayoría de los miembros se mostraron escépticos de que se produzca tal explosión exponencial de la IA en un futuro previsible, dada la falta actual de proyectos que podrían conducir a sistemas capaces de mejorarse a sí mismos. «Tal vez la singularidad no sea la más grande de nuestras preocupaciones», dijo Dietterich.
Una preocupación más realista a corto plazo es la posibilidad de que surjan programas mal intencionados que puedan imitar el comportamiento de los seres humanos en el mundo digital. Según el panel, es factible que los ladrones de identidad pueden plantar un virus en el teléfono inteligente de una persona para que vigile silenciosamente los mensajes de texto, correo electrónico, voz, agenda y datos bancarios. El virus podría utilizar esos datos para suplantar la identidad de estas personas, necesitando poca o ninguna orientación externa de los ladrones. La mayoría de los investigadores piensan que se puede desarrollar un virus así. «Si podemos hacerlo, ellos pueden», dijo Tom Mitchell de la Universidad Carnegie Mellon en Pittsburgh, Pensilvania, refiriéndose a la delincuencia organizada.
Peter Szolovits, un investigador de AI en el Instituto de Tecnología de Massachusetts que no figura en el panel, está de acuerdo en que los sistemas comunes y cotidianas, como los smartphones, tienen niveles de complejidad que podrían conducir a consecuencias no deseadas que permitan una explotación maliciosa. «Hay algunos miles de líneas de código corriendo en mi teléfono celular y estoy seguro como el infierno que no se han verificado todos ellos», dice.
«Estas son tecnologías potencialmente poderosas que se podrían utilizar de buena manera y de no tan buena maneras», dice Horvitz, y advierte que, además de la amenaza planteada por el malware, estamos cerca de la creación de sistemas tan complejos y opacos que no los comprendemos.
Dadas estas posibilidades, «¿cuál es la responsabilidad de un investigador de IA?», dice Bart Selman de Cornell, co-presidente del panel. «Estamos empezando a pensar en ello».
Al menos por ahora usted puede estar tranquilo en una cosa: El grupo llegó a la conclusión de que Internet no está a punto de convertirse en auto-consciente.
La inteligencia humana se basa en una estructura que no tiene nada en común con los ordenadores. Por lo tanto, no es una opción tratar de clonar la inteligencia humana con ellos. Tal vez sería mejor abandonar la idea y en su lugar concentrarse en el aprendizaje de máquinas que pueden ser útiles en su propio dominio.