Noticias en la página Axxón Página Axxón
[Noticias de Axxón ] [ Página principal ] [ Zapping ]

09/Sep/04




Revista Axxón

Axxón en
facebook


Lectores de Axxón en facebook



La evolución será mecanizada

Bruce Sterling: "No tenemos idea de lo que realmente queremos de nuestras vidas o de la sociedad".

El escritor Bruce Sterling analiza aquí el concepto de "singularidad tecnológica", de Vernon Vinge. El mismo representa un momento donde los avances técnicos sobrepasan la comprensión humana y todo nuestro conocimiento y experiencia se vuelven inútiles como indicadores del futuro.

(Wired.com) El ritmo del cambio tecnológico es vertiginoso, y vez más rápido. En septiembre, en Standord, el Instituyo para el Estudio de la Aceleración del Cambio está reconociendo la tendencia en su segunda conferencia anual sobre Aceleración del Cambio. La charla del 2003 fue vendida como "la primera en el mundo enfocada en las implicaciones multidisciplinarias de la aceleración del cambio y las consecuencias de una singularidad tecnológica". ¿Qué es una singularidad tecnológica? Un momento donde los avances en curso sobrepasan la comprensión humana y todo nuestro conocimiento y experiencia se vuelven inútiles como indicadores del futuro.

Los futurólogos encuentran difícil resistirse a este futuro sobrehumano radicalmente cambiado, pero los futurólogos son, de hecho, humanos. Nuestros coeficientes intelectuales no son lo suficientemente altos como para hervir agua. Nuestros cerebros no están sobrecargados con excelentes chips de memoria de silicio. Nuestros órganos no son rejuvenecidos constantemente por nanomáquinas que circulan en la sangre. Estos disruptivos adelantos parecen más o menos plausibles, pero son tan sobrecogedores que no podemos decir nada útil sobre el efecto que pudieran tener.

El escritor de ciencia-ficción Vernor Vinge popularizó el término "singularidad" a principios de los 90. Por cerca de una década, esto alteró los engranajes de la ciencia-ficción como esfuerzo intelectual. Es difícil fantasear sobre el mañana cuando uno está firmemente convencido de que el mañana es inherentemente no fantaseable. Sin embargo, los solapados autores de CF han sido capaces de refinar el problema. Después de todo, el género no existe para predecir el futuro: es un entretenimiento que depende de hacer lo imposible parecer plausible. Una singularidad parece ser un excelente modo de hacerlo. Podrá ser impensable e indescriptible, pero el naufragio que deja no lo es. Luego de que una singularidad pasa por el mundo, éste podría convertirse en Oz, con espantapájaros parlantes y hombres de lata incluidos.

Los fans de las películas pueden ver esta pared imaginaria hacia el futuro en filmes como Terminator y Matrix, donde un evento tecnológico distópico permite a las máquinas inteligentes tomar el control. Los cacharros inteligentes se convierten en cucos asesinos seriales estándar, aunque usen lindo equipo, realicen hazañas de maravilla bíblica, y se conviertan en gobernador de California.

Una singularidad parece muy buena, vista en efectos especiales, pero, ¿Hay alguna sustancia en esta idea? Cuando Vinge planteó el problema por primera vez, le preocupaba que la inminente erupción de la inteligencia artificial condujera hacia unos "übermenschen" (superhombres) de insondable agilidad mental. Más de una década después, aún no podemos decir con ninguna precisión qué es la inteligencia, y mucho menos cómo construirla. Si uno no logra definir los términos que usa, es fácil dividir por cero y predecir una evolución exponencial infinita. Con seguridad las computadoras podrían algún día despertarse teniendo algo parecido a la conciencia humana, pero no tenemos métricas para describir semejante despertar y, por ende, ningún modo objetivo de reconocer si sucede. ¿Cómo se podría probar una afirmación semejante?

Aún si las máquinas permanecen inertes y tontas, todavía podríamos provocar una singularidad dando a los humanos un sobreimpulso. Esta noción es como hierba gatera para la "tecno- intelligentsia": "¡Caramba, si nosotros los sujetos inteligentes lo fuésemos un poco más de lo que ya somos, seríamos como dioses!". Pero, si miramos las biografías de genios de la vida real, como Newton, Goethe, Da Vinci, Einstein, encontraremos mortales vulnerables con dificultad para mantener el foco. En un mundo lleno de Da Vincis, seríamos todos italianos peleadores, gays y zurdos, y nunca podríamos dar por terminada una pintura.

Vinge lo expresa así: "Para mí, la superhumanidad es la esencia de la singularidad. Sin eso, tendríamos una sobreabundancia de técnicamente ricos que nunca serían apropiadamente asimilados". Si sacamos la amenaza mágica de la inteligencia artificial del pronóstico de Vinge, tendremos una brillante descripción de la actualidad: una sobreabundancia de técnicamente ricos no apropiadamente asimilados. En vez de supercomputadoras espirituales en lugar de cerebros, tenemos una Internet estrangulada por el spam.

El mayor defecto del concepto de singularidad no es que sea difícil de imaginar, sino que tiende a aplanar a sus inventores humanos. ¡Podríamos estar ya a la vera de un adelanto asombroso! O, con igual probabilidad, podríamos estar en el extremo de una nueva era de plagas, hambre masiva y desestabilización climática. Aún más probablemente, vivimos en un tonto, autosatisfecho y escuálido torbellino de la historia, dando tumbos sin ningún concepto de progreso ni sentido de la dirección. No tenemos idea de lo que realmente queremos de nuestras vidas o de la sociedad. Y ninguna ley de Moore surgida majestuosamente en un gráfico bidimensional irá nunca a hacernos magníficos ni espirituales, si nos falta la voluntad, la visión y el apetito por la magnificencia espiritual.

¿Es esta perspectiva demasiado difícil para nuestras cabezas? Bien, sí, quizá lo es.

Traducido por Laura Siri
Fuente: Wired


            

Noticias anteriores, por tema
Ciencia Cine Espacio Espectáculos Historietas Internet Juegos Libros Literatura Revistas Sociedad Tecnología Televisión

Noticias anteriores, por año
2017  2016  2015  2014  2013  2012  2011  2010  2009  2008  2007  2006  2005  2004  2003  2002