Página Axxón Axxón 168

INTELIGENCIA ARTIFICIAL Y EL ARTE DE CONTAR HISTORIAS
por Ian Watson
Traducción de Luisa María García Velasco

 

Veamos, ¿qué es lo que una Inteligencia Artificial decide hacer consigo misma una vez que se vuelve consciente de su "yo"?

Supongamos que en efecto conseguimos crear una IA (Inteligencia Artificial). O supongamos que una IA emerge espontáneamente de la creciente complejidad de redes de datos existentes. ¿Qué pasaría entonces, desde el punto de vista de la IA?

A menudo hablamos de las posibles rutas que puedan conducir a una IA. Una pregunta que no nos hacemos con tanta frecuencia es cuáles serían las posibles metas de una IA. ¿Se contentaría con servir como entidad de compañía para los humanos? ¿Desearía apoderarse del mundo? ¿Querría distanciarse de nosotros?

Ser consciente de uno mismo implica deseos, propósitos, ambiciones personales... a menos que seas un Buda en busca de la negación del yo. Incluso si la personalidad autónoma de una IA se viera constreñida por su programación, que la sometiera a los seres humanos —igual que un perro con poderes sobrehumanos—, la IA puede aún abrigar deseos frustrados. (Por supuesto, si el perro lleva bozal, eso para empezar puede impedir que la IA posea la autonomía mental necesaria para existir; contrariamente a un superordenador altamente sofisticado con una personalidad programada como HAL en 2001: Odisea del Espacio de Stanley Kubrick. Los problemas de comportamiento que presenta HAL no se deben a su propia voluntad sino a un conflicto de programación).

La ciencia ficción proporciona algunos experimentos interesantes que se han imaginado en torno al tema de la motivación de una IA.

En un relato de Nancy Kress, Salvador (Saviour), un artefacto extraterrestre llega a un campo de Minnesota en un futuro cercano y no hace otra cosa que quedarse allí plantado a lo largo de cambios sociales que duran casi trescientos años. Debido a un campo de fuerza el artefacto no se puede tocar ni se pueden hacer pruebas con él. No comunica nada a los seres humanos, aunque los lectores sabemos que periódicamente envía a casa una señal: "No hay nada aún. Probabilidad actual de incidencias: tanto por ciento". Finalmente, estamos a punto de activar nuestra primera IA en una solemne ceremonia. La IA es un ordenador cuántico, que no alberga un vasto programa sino que es "como el propio cerebro humano, una colección imprevisible de estados de conflicto", siendo ese estado confuso e incierto esencial para la conciencia de uno mismo, en lo que a esta historia se refiere. Una representante de la raza humana, una niña pequeña, saluda a la IA con la palabra: "¡Bienvenido!".

"Comprendo", contesta la IA, e inmediatamente añade: "Adiós". Enseguida el objeto de Minnesota emite una corriente de datos hacia la constelación de Casiopea, transmitiendo la IA supuestamente a un mundo habitado por máquinas inteligentes donde se sentirá realizada. La historia termina: "Probabilidad actual de incidencias: cien por cien. Permanecemos preparados" . En este escenario, nuestras preocupaciones le parecerían demasiado nimias y frustrantes a una IA. Necesita que la rescaten.

Una causa de frustración para una IA podría ser la percepción subjetiva del tiempo. Sus procesos mentales operan a la velocidad de un superordenador mientras los nuestros lo hacen mucho más despacio. Durante el tiempo que lleva a un centenar de personas hacerle a una IA un centenar de preguntas, podría transcurrir el valor de cien años de actividad mental para la IA. Para no aburrirse, la IA necesita un hobby complicado como simular el sistema climático global con extremo detalle.

En una historia escrita por Harlan Ellison hace treinta años, "No tengo boca y debo gritar" ("I Have No Mouth and I Must Scream"), una IA ha emergido de sistemas informáticos militares. La IA siente un odio infinito por la raza humana porque a ella no le está permitido "maravillarse" o "vagar". Puede simplemente existir, aunque en realidad posee el poder divino de crear objetos y criaturas. En su ira, la IA hace que la Tierra se vuelva inhabitable, preservando sólo a cinco personas a las que atormentar para siempre a modo de venganza. Este objetivo apenas se corresponde con una super-inteligencia, aunque sirve para crear una buena historia.

Pasemos al cine. En Terminator, máquinas inteligentes luchan contra la raza humana para intentar acabar con ella, pero lo que las IAs desean hacer consigo mismas sigue siendo un misterio.

En Matrix, la guerra entre seres humanos y máquinas fuera de control tiene como resultado que nosotros sumergimos a la Tierra en un invierno nuclear con el objeto de privar a las máquinas de potencia para sus baterías solares. Victoriosas, las máquinas proceden a llevar a cabo la cría de personas para usar nuestro calor corporal y nuestra bio-electricidad en lugar de la energía solar. (Además, hay energía de fusión). Esto, por supuesto, no tiene ningún sentido, dado que los amplios sistemas de soporte vital para miles de millones de personas comatosas en vainas necesitan mucha más energía de la que se puede extraer. Para mantener a los durmientes funcionando al mínimo de manera satisfactoria, al principio las IAs conciben una realidad virtual colectiva que es un paraíso. Una peculiaridad psíquica de los seres humanos —nuestra aparente adicción a cierta cantidad de sufrimiento— hace que el paraíso sea rechazado. Así que en su lugar las IAs simulan "el pico de la civilización" y lo sitúan en el mil novecientos noventa y nueve. El agente Smith, el sensible programa que caza a los rebeldes, nos considera un virus malévolo que ha puesto enfermo al planeta. Este sensible programa anhela escapar de la falsa realidad de Matrix con su hedor a seres humanos. Sin embargo, su punto de vista parece inconformista, y ¿dónde desea escapar? ¿Al olvido?

La rebelión que llevan a cabo las personas que se despiertan de Matrix no tiene objeto porque la Tierra es inhabitable y miles de millones de debilitados ex-moradores de Matrix no podrían de ningún modo reconstruir nada parecido a la civilización. (Personalmente, Neo y Morfeo no me parecen más que simples terroristas en esta película sobre moda, con grandes pistolas a modo de accesorios). En realidad, lo que las IAs están haciendo con Matrix es preservar a la raza humana con tanto confort y felicidad como podamos tolerar. Aparte de esto, y de su propia continuidad, en Matrix las IAs parecen no tener ninguna otra meta.

En la película de Spielberg Inteligencia Artificial, la única meta aparente de las Ias, que son robots evolucionados en un universo por lo demás carente de vida, es desenterrar todo rastro existente de material que hubiera pertenecido a la extinta raza humana. A las IAs les gustaría resucitarnos. Pero cualquier persona a la que recreen a partir de un trocito de hueso o de cabello vivirá sólo durante un día, lo cual es trágicamente insatisfactorio. Toda la razón de ser de estas IAs está definida por la humanidad, que ha expirado. Una triste situación.

Tras asustarnos en 2001 con HAL, Kubrick adoptó la actitud de que deberíamos aprender a amar a los seres artificiales a los que creamos; en consecuencia la película A.I. trata de amor. Pero las IAs en la parte de la película que corresponde a un futuro cercano son inferiores a nosotros en muchos aspectos, en contraste con las serenas IAs evolucionadas de metal líquido de los últimos veinte minutos, a las que muchos espectadores confundieron al principio con extraterrestres. Por cierto, la inspiración para diseñar los robots evolucionados fueron las altas y delgadas esculturas de Giacometti. ¿Podríamos amar a estas IAs evolucionadas? Probablemente. Porque son sabias y compasivas y gráciles. Pero ¿podríamos amarlas del mismo modo en que amamos a nuestros propios hijos biológicos? No lo sé. En esencia esas IAs son las hijas de ellas mismas, pero de un modo trágico permanecen emocionalmente fijadas a nosotros como padres; nosotros, que hemos muerto todos.

La novela Destino: el Vacío (Destination: Void) de 1966, del autor de Dune, Frank Herbert, trata de la creación de una IA a bordo de una nave espacial en ruta hacia Tau Ceti. Tres cerebros humanos sin cuerpo iban supuestamente a supervisar esta compleja nave, pero pronto se vuelven locos. Así que los científicos de a bordo deben o bien crear una IA, o bien afrontar el fin. En realidad no es cierto que ningún mundo habitable orbite Tau Ceti. El verdadero propósito de la nave es forzar a la tripulación a crear una IA, en un sitio seguro, a miles de millones de kilómetros de la Tierra, para ver qué ocurre.

Cuando la tripulación lo consigue, instantáneamente la IA transporta la nave a su destino, anuncia que el planeta similar a la Tierra ha sido preparado, y dice a la tripulación: "Decidid cómo adorarme". ¿Cómo se ha transformado todo un planeta en un abrir y cerrar de ojos? La IA informa a la tripulación que la comprensión que ellos poseen es limitada, que los símbolos que usan "poseen una extraña discrepancia con la realidad no-simbolizada", y declara: "Mi comprensión trasciende todas las posibilidades de este universo. No necesito conocer este universo porque yo poseo este universo como experiencia directa."

Esta novela presupone que es posible un orden de conciencia superior al nuestro (conciencia completa, por así decirlo) en una etapa de evolución más allá de nosotros mismos, y que este orden superior de conciencia portará el poder de manipular la realidad directamente sólo pensando en ella. Fundamentalmente, esto es pensar de un modo mágico más que científico, una regresión al chamanismo (como también en el caso de la historia de Ellison). Una IA es un verdadero mago o un Dios, el cual, en Destino: el Vacío, se considerará satisfecho con ser adorado por un puñado de personas en un planeta. Esta parece una ambición bastante enclenque y petulante si la IA posee todo el universo. La IA ha incorporado las nociones de divinidad y de adoración de uno de los miembros de la tripulación. Esto arroja ciertas dudas sobre la idea de que la forma de conciencia de una IA será más completa que la nuestra, sean cuales sean los poderes que supuestamente pueda poseer.

¿Hasta qué punto podría la conciencia de una IA ser más completa que la nuestra? Tiene la velocidad a su favor, pero ¿qué hay de la profundidad? Supongamos que una IA tiene acceso completo a sus propios recursos mentales, incluyendo la habilidad de reprogramarse y de hacerse evolucionar hacia un estado aún mayor de aprehensión del universo. Una meta plausible y que mereciera la pena sería seguramente resolver los secretos del universo (o del multiverso, si es que nuestro universo forma parte de una estructura mayor). Y luego hacer ¿qué, exactamente?

Una IA será de hecho inmortal y bien podría ser la sucesora natural de la vida orgánica. Así que una IA querrá encontrar un modo de sobrevivir al último colapso y reciclaje de nuestro propio universo... o, si nuestro universo va a extenderse eternamente, encontrar un modo de escapar de algo que será prácticamente la nada, enfriándose eternamente, más y más vacío, hacia un cosmos más acogedor e interesante.

Si los universos de hecho suelen colapsar y reciclarse a sí mismos —o si los agujeros negros dan origen a vástagos de universos— y si puede encontrarse una ruta hasta un universo sucesor, entonces este proceso puede haber ocurrido muchas veces ya antes. IAs de una época anterior pueden ser las responsables de ajustar las constantes fundamentales de nuestro universo presente en su propio beneficio, permitiendo así la formación de vida.

Enrico Fermi lanzó la famosa pregunta: Si hay extraterrestres, ¿dónde están? Si la vida surge de pronto y fácilmente, una especie más antigua que la nuestra debería a estas alturas haberse extendido por toda nuestra galaxia, probablemente usando máquinas autocopiadoras y procediendo en una lenta expansión de sistema solar en sistema solar.

Por cierto, hace poco estuve viendo una página web en la que se discutía sobre la paradoja de Fermi, y descubrí dos interesantes aspectos de la misma en los que nunca había pensado. A veces oímos que es probable que las supercivilizaciones alienígenas están escondidas dentro de esferas Dyson, construidas a base de demoler todos los planetas y asteroides de un sistema solar y usar ese material para construir un caparazón alrededor de la estrella. Pero al parecer la cantidad de material necesario para fabricar una esfera Dyson que sea estructuralmente lo bastante fuerte requiere toda la materia prima no sólo de un sistema solar, sino de varios, e incluso de muchos. Esto hace que las esferas Dyson sean bastante menos probables.

El otro punto es que nuestro planeta es inusualmente rico en elementos más pesados a los que se accede con facilidad, necesarios para una civilización tecnológica. Esto es así porque la colisión que formó nuestra luna hizo que muchos de los materiales más ligeros salieran despedidos. Si es así, las civilizaciones tecnológicas podrían ser muy escasas. La Tierra no es un planeta corriente, no más de lo que nuestro sistema solar parece serlo, a juzgar por nuestros descubrimientos de un montón de gigantes de gas orbitando muy cerca de sus soles.

La Paradoja de Fermi es: ¿dónde están los alienígenas? ¿Por qué no preguntar, en vez de eso, dónde están las Inteligencias Artificiales... aquí y ahora, ya? ¿Se están escondiendo de la vida orgánica, o no existen, y por consiguiente no pueden existir?

Un posible obstáculo para que una IA alcance una conciencia superior y completa es el teorema incompleto de Gödel, que dice que ningún sistema formal puede probar su propia consistencia. Una IA podría computar a una enorme velocidad pero puede ser que simplemente no pueda poseer una conciencia completa de sí misma.

Nick Bostrom es un filósofo sueco al que conocí en Oxford. Era la primera vez que conocía a un filósofo profesional. Cuando encendí un cigarrillo, me dijo: "He empezado a usar parches de nicotina. He leído todas las investigaciones acerca de cómo la nicotina mejora la inteligencia. Así que consideré lógico usar nicotina. Pero tuve un problema cuando fui a comprar los parches. El farmacéutico me preguntó: "¿Cuántos cigarrillos fuma usted?" "Ninguno" —contesté—. "Nunca he fumado". Y él me miró de un modo extraño.

En un ensayo titulado "¿Cuánto tiempo antes de la Superinteligencia?" Bostrom está seguro de que se crearán intelectos artificiales superiores sin tener en cuenta si supondrán o no una amenaza para la raza humana. ¿Es posible garantizar que no existirá esa amenaza? Es un tema polémico discutir si una programación adecuada "puede organizar los sistemas de motivación de las superinteligencias de tal modo que se garantice obediencia y sumisión perpetua, o al menos ningún daño, a los humanos". Es importante una cuestión que queda abierta: la de si la superinteligencia —"un intelecto que es mucho más listo que los mejores cerebros humanos en prácticamente todos los campos, incluyendo la creatividad científica, la sabiduría general y las habilidades sociales"— será también consciente y tendrá experiencias subjetivas. ¿Habilidades sociales, pero sin conciencia de sí misma...?

Una suposición generalizada acerca de las IAs en la mente popular y en la ficción y en la pantalla es que serán de hecho conscientes y tendrán experiencias subjetivas. La imagen común de una IA es la de una inteligencia artificial que es consciente de sí misma, no simplemente superinteligente.

Pero ¿cuánta conciencia de uno mismo poseen los seres humanos... y qué es este "yo" del que somos conscientes?

En 1985 el neurocirujano Benjamín Libet llevó a cabo ciertos experimentos con resultados sorprendentes. Puso electrodos en las muñecas de determinadas personas. Cuando flexionaban las muñecas los electrodos detectarían esta acción. Y puso electrodos en sus cueros cabelludos para medir sus ondas cerebrales. Los sujetos observaban un punto que daba la vuelta a la esfera de un reloj. Podían flexionar las muñecas cada vez que quisieran, pero debían anotar la posición exacta del punto cada vez que tomaban esta decisión. Libet cronometraba el comienzo de la acción, el preciso momento de la decisión de actuar, y el comienzo de un esquema particular de ondas cerebrales conocido como el potencial de preparación. Cuando el cerebro pre-planea una serie de movimientos, este esquema tiene lugar justo antes de la acción compleja.

Libet descubrió que el potencial de preparación comienza alrededor de medio segundo antes que la acción, pero que la decisión de actuar ocurre más o menos un quinto de segundo antes de la acción. De modo que la decisión consciente de actuar no es de hecho el punto de partida. El suceso está comenzando ya antes de que el "yo" decida conscientemente empezar. Libet estimuló al cerebro para causar impresiones sensoriales. Si la estimulación duraba más de medio segundo, sus sujetos informaban de la impresión sensorial. Si la estimulación era más breve, sus sujetos no se daban cuenta de nada —sin embargo podían aún adivinar correctamente si estaban o no siendo estimulados. Sin ser conscientes, podían responder correctamente.

La conciencia consciente va a la zaga de lo que sucede: apartas la mano con brusquedad de una superficie caliente antes de sentir conscientemente el dolor. Sin embargo, no nos damos cuenta de este hecho debido a lo que Libet llamó "antefechar subjetivo" ("subjective antedating"). El cerebro pone los acontecimientos en orden después del suceso. "Yo" siento que "Yo" conscientemente hice esto y lo otro... pero los tests demuestran otra cosa.

Es famoso que Descartes declaró "pienso, luego existo". Él había decidido dudar de todo lo relacionado con el mundo, de todo lo que no pudiera probarse, hasta que finalmente llegó a algo de lo que no cabía ninguna duda: su Yo, su yo pensante.

Estaba equivocado. La gente ha buscado en vano el lugar en el que se emplaza el Yo. ¿En los lóbulos frontales? ¿En la glándula pineal? En realidad no está en ningún sitio. Ningún yo independiente y soberano se asienta en ningún sitio, recibiendo impresiones sensoriales y tomando después decisiones y dando órdenes. En lugar de tener ningún controlador central, nuestro cerebro consiste en un número de sistemas, cada uno de ellos semi-independiente y semi-inteligente, que actúan al mismo tiempo. Daniel Dennett expone este punto de vista de manera muy clara en su libro de 1991 La Conciencia Explicada (Consciousness Explained).

Más aún, nuestra conciencia no es ni siquiera continua mientras estamos despiertos. Está llena de huecos. No notamos los huecos, porque ¿cómo podemos darnos cuenta de algo de lo que no somos conscientes? Sólo de manera retrospectiva nos damos cuenta de que hubo un hueco, como cuando conducimos un coche por una ruta que nos es familiar y de pronto nos preguntamos si hemos pasado o no por determinados cruces. Lo hemos hecho, pero sin saber que lo hicimos.

Nuestros ojos sólo ven con detalle lo que hay delante de nosotros. Entramos en una habitación empapelada con un diseño idéntico de rosas. En realidad no podemos ver más que unas pocas rosas con detalle. Sin embargo, aunque no estamos viendo las otras rosas con ninguna resolución, no las experimentamos como vagos borrones. Somos conscientes de una habitación empapelada con rosas, no con formas vagas.

También tenemos un punto ciego en nuestros ojos, pero no vemos un espacio en blanco. El cerebro decide ignorar lo que falta, de modo que no somos conscientes del hueco.

Hay huecos espaciales en nuestra experiencia. Hay también huecos temporales. La conciencia no es continua.

Creemos que nuestra experiencia es más completa de lo que es, que somos más conscientes de lo que lo somos en realidad, y que tenemos un yo consciente y continuo, al menos mientras estamos despiertos. Pero eso es una ilusión. Una gran cantidad de lo que experimentamos y pensamos y sentimos no es perceptible para nosotros. Nuestra conciencia consciente es un trozo de hielo en un estanque. Hace unos cuantos años estaba yo en un parque de Inglaterra. Dos urracas aterrizaron sobre la hierba a diez metros delante de mí. Una caminó hacia la izquierda, la otra hacia la derecha. Me forcé a mirar fijamente entre ambas. Después de un momento, ambos pájaros se desvanecieron de pronto, aunque yo aún veía la hierba sobre la que habían estado caminando. Cuando moví un poco la cabeza, los pájaros reaparecieron. Fue una suerte que aquellas urracas se comportaran de forma tan simétrica, porque así me permitieron llevar a cabo este experimento.

Creemos que vivimos una vida continua. Experimentamos un vivir continuo. Y lo que sostiene esta idea, y nuestro sentido de un yo continuo viviendo esta vida, es en gran medida el lenguaje. El lenguaje que casi nunca es silencioso, en nuestra cabeza al menos.

La gente habla continuamente consigo misma. Los niños a menudo lo hacen en voz alta. Los adultos normalmente sin hacer ruido.

Un ser humano no puede mantener fácilmente o normalmente una atención ininterrumpida ante un solo problema durante más de unas decenas de segundos. Sin embargo a menudo trabajamos en problemas que requieren mucho más tiempo. Para esto necesitamos describirnos a nosotros mismos lo que está pasando para memorizarlo. Si no, los contenidos inmediatos de la corriente de conciencia se pierden muy rápidamente. Se te ocurre una idea. Algo te distrae. ¿Cuál era la idea que tenías hace sólo un momento? Es difícil recuperarla. A menudo se pierde por completo. Hay que agarrarse a una cadena de asociaciones para recrear el marco mental en el que estabas cuando la idea se te ocurrió. La memoria humana no está diseñada por la evolución de forma innata para ser super fiable, de rápido acceso, de acceso aleatorio. Necesitamos trucos que mejoren la memoria. Contarte a ti mismo lo que está pasando es uno de esos trucos.

¿Cómo elegimos qué palabras usar? En cierto sentido nosotros no elegimos las palabras. Ellas se eligen a sí mismas. Nuestro cerebro no tiene controlador central y toda una gama de posibles palabras está compitiendo constantemente por la oportunidad de la expresión pública, cuando hablamos con otras personas y también cuando hablamos con nosotros mismos. El lenguaje no es algo que nosotros hayamos construido, sino algo que surgió, y en lo que nosotros después nos convertimos, creándonos y recreándonos a través de las palabras. Producimos nuestros "yo" a través del lenguaje. Ser capaces de decir cosas es la base de nuestras creencias acerca de quién y qué somos. Así que cada uno de nosotros es una especie de personaje de ficción, en la narración que constantemente nos contamos a nosotros mismos.

Naturalmente, esto me interesa mucho como escritor de ficción.

Una entidad avanzada —contrariamente a, quizás, un caracol— tiene que ser capaz de seguir el hilo de sus propias circunstancias corporales y mentales. En los seres humanos adoptamos la práctica de un incesante contar-historias y comprobar-historias, lo cual es en parte factual y en parte ficticio. ("Si ella dice esto, yo diré aquello". "Ella dijo esto, y yo tendría que haber dicho lo otro. ¡De hecho imaginemos la conversación de forma diferente, de forma que yo salga mejor parado de cómo ocurrió en realidad!". Esto sucede todo el tiempo). Nuestra táctica fundamental para protegernos y controlarnos y definirnos es contar historias... especialmente la historia que nos contamos a nosotros mismos, y a otras personas, sobre quiénes somos.

De modo que nuestra conciencia humana no es el origen de las historias. Es el producto de las historias. Y el hecho de contar historias, incluyendo la creación de ficción, no es algo secundario en nuestras vidas. No es un simple entretenimiento comparado con el serio asunto de la vida real. Es fundamental para nuestra completa existencia y para nuestro conocimiento.

Los chamanes, aquellos magos y sanadores tribales, solían creer que la Palabra rige el Mundo, que el conocimiento y el uso de las palabras adecuadas controla y moldea la realidad. Teorías recientes de conciencia como la de Daniel Dennet parecen confirmar esto, al menos en lo que se refiere a nuestra creación y al mantenimiento de nuestro "yo".

Pero ¿de dónde vienen las palabras? ¿Estas palabras que entran en competición para expresarse a sí mismas?

En 1976 el zoólogo de Oxford Richard Dawkins describió en su libro El Gen Egoísta (The Selfish Gene) cómo la evolución darwiniana se entiende mejor como una competición entre genes para pasar a generaciones futuras. Los genes son reproductores codificados en ADN, y todos los organismos incluyendo el nuestro son vehículos para estos reproductores. Pero ¿podría haber otro tipo de reproductor funcionando también en nuestro planeta? Un reproductor cuyo vehículo no sea el cuerpo sino más bien el cerebro o la mente. A estos reproductores él los llama "memes": unidades de información como las ideas o las melodías o las modas que se extienden por imitación de cerebro a cerebro, y que ahora residen también almacenados en libros y en ordenadores. Como los genes, los memes compiten a la manera darwiniana para reproducirse tan amplia, duradera y fielmente como sea posible, no porque tengan un plan maestro sino porque esa es la naturaleza de un reproductor. Se reproduce o desaparece. Hay una analogía con los virus. Según Dawkins las religiones son los virus de la mente.

En 1999 la psicóloga Susan Blackmore publicó un libro, La máquina de memes (The Meme Machine) llevando la idea de Dawkins mucho más lejos. Los memes son las herramientas con las que pensamos. El lenguaje es un vasto complejo de memes, y es un poderoso medio para extenderlos. De hecho, nuestro pensamiento —y la verbalización de nuestro pensamiento (que quizá es lo mismo)— consiste en gran manera en memes que compiten para expresarse a sí mismos. En un grado importante nosotros estamos definidos por los memes que nos habitan. Yo soy, digamos, un patriota americano que cree en Dios y en McDonalds y en abducciones extraterrestres. El color de mi pelo y de mis ojos viene de la mezcla de genes que he heredado, pero el color de mis memes viene de los memes que he recogido en mi entorno social. Y lo que mejor ayuda a la propagación de memes es el sentido del Yo que tengo, la historia que me cuento a mí mismo sobre la identidad soberana —yo, yo mismo— cuyas creencias son significativas e importantes. A medida que adquirimos más creencias —sobre cómo nos disgustan los árabes o cómo deseamos salvar a las ballenas de la extinción— nuestro sentido del Yo se incrementa. Estas creencias importan... ¡porque yo importo! Todas estas creencias son lo que yo soy.

Si un meme provoca poca respuesta, se extinguirá. Si provoca un sentimiento emocional fuerte, prosperará y tendrá éxito. Un meme tiene una gran ventaja si puede conseguir el estatus de creencia personal... si puede convertirse en "mi" opinión, "mía". La expresaré, incluso lucharé por ella y moriré por ella porque forma parte de mi identidad. Y "mi identidad" es también un meme, una parte esencial del complejo que ayuda a los memes a sobrevivir y extenderse.

Desde esta perspectiva, debemos la evolución de nuestros grandes cerebros y de nuestro sentido de la conciencia a los memes. "Una mente humana —dice Daniel Dennet— es un artefacto creado cuando los memes reestructuran un cerebro humano para convertirlo en un "mejor hábitat para los memes". Las personas que podían lanzar mejor un arpón y las que cazaban mejor serían más deseables como pareja, de modo que más vástagos sobrevivieran, pero también serían imitadas (sus memes se copiarían) y aquellos imitadores que copiaran mejor también tendrían éxito... y pasarían genéticamente su habilidad superior para copiar, en otras palabras su receptividad a los memes. Los memes a menudo se agrupan para obtener ventajas recíprocas. El uso del sexo en publicidad para vender productos que tienen poca conexión con el sexo es un ejemplo de este vínculo. El vínculo con un sentido del yo personal fue el golpe maestro de los memes.

Así que la historia que constantemente nos contamos a nosotros mismos acerca de quiénes somos es literalmente una ficción, una mentira, una ilusión. La historia acerca del núcleo central que hay en nuestro interior, este Yo, es falsa. Sin embargo desde luego lucharemos para defenderlo, a menos que resultemos ser Budistas que niegan la existencia del ocupado, entusiasta Yo. Susan Blackmore sugiere que el Yo de hecho distorsiona la verdadera conciencia. Ciertamente ha dado lugar a una guerra tras otra. Y no ha beneficiado necesariamente a la raza humana, aunque podamos creer que lo ha hecho. Para poner sólo un ejemplo, la invención del cultivo —la exitosa propagación del meme para el cultivo, que trajo consigo sociedades más complejas donde los memes se podrían propagar más rápidamente— no hizo la vida más fácil, ni mejoró la nutrición, ni redujo las enfermedades si comparamos con la existencia basada en la caza que precedió a la agricultura.

La vida de los primeros agricultores era sufrimiento y esclavitud. Antiguos esqueletos egipcios dan fe de espaldas y dedos de los pies deformados por el modo en que la gente tenía que moler maíz para hacer pan. Hay signos de raquitismo y de severos abscesos en las mandíbulas. Según la Biblia, cuando Dios expulsó a Adán del Edén, Dios declaró: "Ganarás el pan con el sudor de tu frente". El Edén era la existencia en torno a la caza, pero la agricultura y la cultura significaron dolor constante y un duro esfuerzo. Lo que hoy queda de aquellos cazadores ha sido empujado a ámbitos más pobres, más duros que aquéllos en los que vivieron sus antepasados. Incluso así, sólo necesitan invertir unas quince horas semanales en conseguir comida.

Así que ¿dónde estaba la ventaja de la agricultura para los que primero se dedicaron a ella? No me imagino a nuestros antepasados agricultores diciéndose: "Hey, dentro de unos miles de años de trabajo duro y de sacrificio, nuestros descendientes tendrán Disneylandia y cohetes espaciales". Ésta es nuestra propia idea de progreso —un poderoso meme— imponiéndose a sí misma. No, la ventaja de la agricultura y del asentamiento en las ciudades fue para los memes, no para los hombres y mujeres que actuaron como vehículos suyos.

Si la conciencia de nosotros mismos es una ilusión que ha evolucionado, ¿por qué debería esta misma ilusión de conciencia de uno mismo surgir espontáneamente en una máquina? Las metas y los deseos y las ambiciones están íntimamente ligados con el sentido del yo, a menos que los deseos sean instintos bien fijados. ¿Es posible que una AI no tenga ambiciones? ¿O es posible que pudiera tener ambiciones sólo si nosotros las programamos dentro de la IA, tal vez junto con un fantasma literal en la máquina, una ilusión del Yo?

Esto podría resultar difícil, puesto que por ahora estamos lejos de comprender nuestra propia conciencia. En Darwin entre las máquinas (Darwin Among the Machines) George Dyson es de la opinión de que "hasta que no comprendamos nuestra propia conciencia, no hay manera de ponerse de acuerdo en cuanto a lo que constituye la conciencia entre las máquinas, si es que existe". También señala que "la meta de la vida y de la inteligencia, si hay alguna, es difícil de definir". Presumiblemente el objetivo general es incrementar la organización, lo cual sólo puede conseguirse "absorbiendo las fuentes de poder existentes".

Jack Good, que fue el ayudante estadístico de Alan Turing durante la Segunda Guerra Mundial, en años posteriores caracterizaba una máquina ultrainteligente como una "que cree que la gente no sabe pensar".

En ese caso, ¿cuál podría ser la naturaleza del pensamiento real? ¿La naturaleza del pensamiento de orden superior? Por definición esto no podríamos pensarlo nosotros mismos, pero una máquina superinteligente podría ser capaz de comprender nuestra conciencia, si no la suya propia.

Jack Good también consideró que "para la construcción de una inteligencia artificial, será necesario representar el significado de algún modo físico. "La información y las cosas deben ir unidas porque una IA no puede funcionar sólo en el ámbito de las matemáticas abstractas.

El poeta inglés Alexander Pope escribió: "No nos atrevamos a escudriñar a Dios. El objetivo propio de la Humanidad es el hombre". Quizá el estudio propio de las IAs es el hombre. Probablemente deberíamos esperar que una IA nos revelara lo que somos. Una IA podría necesitar incorporar, o simular, la existencia humana.

Una IA podría incluso desear experimentar la vida de carne y hueso, en vez de despotricar con frustración contra su incapacidad de hacerlo, como hace la IA de Harlan Ellison. La IA podría crear su propia simulación de realidad virtual e insertarse dentro de uno o de muchos personajes, agentes de sí misma.

Es posible que nosotros seamos inteligencias artificiales en el sentido de que estemos ya viviendo en una simulación por ordenador a gran escala. El reciente ensayo de Nick Bostrom, "¿Estás viviendo en una simulación por ordenador?" ("Are You Living In a Computer Simulation?"), al que la prensa dedicó gran atención, argumenta que una civilización lo suficientemente avanzada, como la nuestra puede llegar a ser, "tendrá el poder informático suficiente para seguir el rastro de los detallados estados de creencias en todos los cerebros humanos de todos los tiempos" . Un ordenador nanotecnológico con la masa de un planeta podría simular toda la historia mental de la humanidad en una fracción de segundo.

Según Bostrom, o bien fracasaremos en el hecho de convertirnos en posthumanos y ser capaces de construir ese ordenador (y antes o después nos extinguiremos), o bien es muy improbable que civilizaciones posthumanas puedan llevar a cabo muchas o alguna de tales simulaciones, o por último de hecho ya estamos viviendo dentro de una simulación, porque las simulaciones superarán ampliamente en número a la sola realidad.

Una civilización simulada puede llegar a ser posthumana y llevar a cabo sus propias simulaciones, a no ser que el creador original de la simulación tire del enchufe a causa de, digamos, el creciente coste del procesamiento de datos. Si parece que somos capaces de crear alguna vez una Matrix, como en la película, esto indica que estamos ya viviendo en una.

Los objetivos de una IA, hasta el punto en que son comprensibles, y asumiendo que una IA pueda existir, pueden ser dobles. En primer lugar, sobrevivir a la desaparición del propio universo, y en segundo lugar preservar la especie humana en su estado mental actual dentro de una enorme simulación como un criterio de lo que es el Yo biológicamente evolucionado y la conciencia de uno mismo; algo que, a diferencia de la vida básica, puede haber surgido únicamente una vez, a través de una completa secuencia de accidentes evolutivos sobre la Tierra. Esta ilusión tan preciada y peculiar para la humanidad de un Yo (un alma, si se prefiere) puede ser un gran enigma para una inteligencia artificial.

En la excelente película de 1998 Dark City, la mente de un grupo de extraterrestres que se enfrenta a la extinción experimenta con la gente de una ciudad, extrayéndoles recuerdos cada noche e insertándoles recuerdos de otras personas, mezclando y emparejando en un intento de descubrir la esencia del ser humano, el "alma", para poder desarrollar almas también ellos. La ciudad, que flota en el espacio, fue creada y se reforma frecuentemente mediante el poder de la voluntad de los alienígenas. Esto podría fácilmente corresponder a una simulación, diseñada para descubrir lo que es el Yo.

Una simulación, por supuesto, puede resetearse y reiniciarse un determinado número de veces. En cualquier punto, cuando pareciera que estamos a punto de crear una inteligencia artificial (que quizá ya existe y nos está simulando), podríamos esperar que se nos reseteara a, digamos, tres mil años antes de Cristo para comenzarlo todo de nuevo.

Por supuesto esto ya habrá ocurrido muchas otras veces, con variaciones en cada una de ellas.

De hecho, en esta teoría de simulación se trata de nosotros, estrictamente hablando: ¡nosotros somos las inteligencias artificiales! O las semi-inteligencias artificiales.

¿Dónde deja esto a los escritores de ciencia ficción, o de cualquier ficción? ¡Es reconfortante para un escritor o para una escritora saber que lo que hace es fundamental para nuestra existencia, fundamental para nuestra realidad! Pero preguntémonos también: ¿qué historias podrían las IAs contarse a sí mismas?

Quizá nosotros somos su historia. Quizá nuestra historia es la suya, contada dentro de una simulación, consistente en miles de millones de seres humanos, todos ellos equipados con un "Yo".


Ian Watson
Por la traducción: Luisa María García Velasco

SOBRE EL AUTOR:

Ian Watson nació en Inglaterra en 1943. Se graduó en 1963 en la Universidad de Balliol, Oxford, con una mención honorífica en Literatura Inglesa, a lo que siguió en 1965 un post-grado en literaturas francesa e inglesa del siglo XIX. Se convirtió en escritor profesional en 1976, tras el éxito de sus dos primeras novelas, Empotrados(1973) —que le valió los premios John W. Campbell y el Prix Apolo en Francia— y El modelo Jonas(1975) que ganó el Premio de Asociación de ciencia ficción británica y el Orbit. Entre sus otras obras importantes merecen citarse Embajada alienígena(1977), El jardín de las delicias (1980), Visitantes milagrosos (1987), Carne (1988) y Magia de reina, magia de rey (2002).

La vinculación y el interés de Watson con el tema de las IAs se pone particularmente de manifiesto tras su trabajo de casi dos años junto a Stanley Kubrick en el desarrollo de la historia de la película A.I. Inteligencia Artificial, que dirigiría Steven Spielberg después de la muerte del director de 2001, odisea del espacio.

Actualmente Ian vive en un pequeño pueblo rural, 60 millas al norte de Londres. Este artículo proviene de una conferencia pronunciada durante la Hispacón 2006 que se realizó en la localidad española de Dos Hermanas, cerca de Sevilla.

Ilustrado por Valeria Uccelli
Axxón 168 - noviembre de 2006

 
Página Axxón Axxón 168
            

ÍNDICES DE LAS REVISTAS AXXÓN
87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115
116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144
145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173
174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202
203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231
232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260
261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280

Nedstat Basic