Archivo de la categoría: Informática

Computadora cuántica superconductora logra un entrelazamiento de diez qubits

Físicos en China y Estados Unidos han construido un procesador cuántico superconductor de diez qubits que podría ampliarse para abordar problemas que las computadoras clásicas no pueden resolver.

El rendimiento del dispositivo se verificó por medio de tomografía cuántica, que demostró que el nuevo enfoque puede generar un verdadero estado de diez partes de Greenberger-Horne-Zeilinger (GHZ), el más grande hasta ahora logrado en un sistema de estado sólido.

El campo de la computación cuántica está en su infancia, y todavía no se ha construido un dispositivo práctico genuinamente útil que supere a las computadoras clásicas. En esta etapa de desarrollo, los investigadores ni siquiera están de acuerdo en los aspectos básicos de la implementación, pero las técnicas que emplean circuitos superconductores tienen una ventaja sobre otros diseños en que se basan en procesos de microfabricación establecidos y escalables.




Resistente al ruido

Escribiendo un artículo en Physical Review Letters, una colaboración multi-institución liderada por Jian-Wei Pan de la Universidad de Ciencia y Tecnología de China, Shanghai, reportan una arquitectura superconductora en la que la información se codifica como transmons, una forma de qubit de carga especialmente resistente ante el ruido. El equipo utilizó un resonador de bus (bus resonator) para mediar el acoplamiento qubit-qubit, y mostró que una sola interacción colectiva podría producir un estado GHZ de diez qubits a partir de qubits inicialmente no entrelazados.

Pan y sus colegas proponen que la generación eficiente de entrelazados, y la capacidad de operar en diferentes pares de qubits en paralelo, hacen que su enfoque sea una ruta prometedora para lograr una computadora cuántica a gran escala.

Sobre el Autor: Marric Stephens es reportero de physicsworld.com

Fuente: Physics World. Aportado por Eduardo J. Carletti

Más información:

Una máquina de aprendizaje profundo se enseña ajedrez a sí misma en 72 horas y juega al nivel de Maestro International

Han pasado casi 20 años desde que la supercomputadora IBM Deep Blue venció por primera vez al actual campeón mundial de ajedrez, Gary Kasparov, bajo las reglas del torneo estándar. Desde entonces, las computadoras que juegan al ajedrez se han vuelto mucho más potentes, dejando con pocas posibilidades a los mejores seres humanos, incluso en contra de un moderno programa de ajedrez que se ejecuta en un teléfono inteligente

Pero mientras que las computadoras se han vuelto más rápidas, la forma en que funcionan los programas de ajedrez no ha cambiado. Su poder se basa en la fuerza bruta, un proceso de búsqueda a través de todos los futuros movimientos posibles para encontrar el mejor.

Por supuesto, ningún ser humano puede igualar eso o acercarse de ninguna manera. Mientras que Deep Blue buscaba unos 200 millones de posiciones por segundo, es probable que Kasparov no estuviese buscando más de cinco por segundo. Y, sin embargo, jugaba en esencia al mismo nivel. Es evidente que los seres humanos tienen un truco bajo la manga que los ordenadores todavía tienen que dominar.

Este truco está en la evaluación de las posiciones de ajedrez y reducirlos a los caminos de búsqueda más rentables. Eso simplifica dramáticamente la tarea de cálculo, ya que poda el árbol de todos los movimientos posibles a unas pocas ramas.

Las computadoras nunca han sido buenas en esto, algo que hoy cambia gracias al trabajo de Mateo Lai en el Imperial College de Londres. Lai ha creado una máquina de inteligencia artificial llamada Giraffe (jirafa) que se ha enseñado ella misma a jugar al ajedrez mediante la evaluación de posiciones de una manera mucho más al estilo de los seres humanos, y de una manera totalmente diferente a los programas convencionales de ajedrez.

Recién estrenada, la nueva máquina juega al mismo nivel que los mejores programas de ajedrez convencionales, muchos de los cuales se han puesto a punto durante muchos años. A nivel humano, es equivalente a la condición de Maestro Internacional FIDE, colocándolo dentro de la parte superior, que es de 2,2 por ciento de los jugadores de ajedrez en los torneos.

La tecnología detrás de la nueva máquina de Lai es una red neuronal. Esta es una forma de procesar la información inspirada en el cerebro humano. Se compone de varias capas de nodos que están conectados de una manera que cambia cuando el sistema es capacitado. Este proceso de entrenamiento utiliza una gran cantidad de ejemplos para poner a punto las conexiones para que la red produzca una salida específica al dársele una cierta entrada, como reconocer la presencia de rostro en una imagen, por ejemplo.

En los últimos años, las redes neuronales se han convertido en muy poderosas gracias a dos avances. El primero es una mejor comprensión de cómo afinar estas redes a medida que aprenden, gracias en parte a las computadoras mucho más rápidas. El segundo es la disponibilidad de masivos conjuntos registrados de datos para entrenar las redes.

Eso ha permitido que los científicos informáticos entrenen redes mucho más grandes organizadas en muchas capas. Estas llamadas redes neuronales profundas han convertido en muy poderosas, y ahora superan habitualmente a los humanos en tareas de reconocimiento de patrones, como el reconocimiento facial y el reconocimiento de escritura.

Así que no es ninguna sorpresa que las redes neuronales profundas sean capaces de detectar patrones en el ajedrez, y eso es exactamente el enfoque que ha tomado Lai. Su red se compone de cuatro capas que, juntas, examinan cada posición en el tablero de tres maneras diferentes.

La primera observa el estado global del juego, cosas tales como el número y el tipo de piezas en cada lado, de qué lado va a mover, los derechos de enroque, y así sucesivamente. La segunda analiza características centradas en las piezas, tales como la ubicación de cada pieza en cada lado, mientras que el aspecto final analizado es el mapeo de los recuadross que cada pieza ataca y defiende.

Lai entrena a su red con un conjunto cuidadosamente generado de datos extraídos de juegos de ajedrez reales. Este conjunto de datos debe tener una correcta distribución de las posiciones. «Por ejemplo, no tiene sentido entrenar el sistema de posiciones con tres reinas de cada lado, porque esas posiciones casi nunca surgen en los juegos reales», dice.

También debe tener un montón de variedad de posiciones desiguales, más allá de las que normalmente se producen en los mejores juegos de ajedrez de nivel. Eso es porque a pesar de que estas posiciones desiguales rara vez surgen en los juegos de ajedrez en la realidad, sí surgen todo el tiempo en las búsquedas que el equipo realiza internamente.

Y este conjunto de datos debe ser enorme. La cantidad masiva de conexiones dentro de una red neuronal tiene que ser ajustada durante el entrenamiento, y esto sólo se puede hacer con un vasto conjunto de datos. Utilice un conjunto de datos demasiado pequeño y la red puede quedar en un estado que no reconoce la amplia variedad de modelos que se producen en el mundo real.

Lai generó su conjunto de datos eligiendo al azar cinco millones de posiciones de una base de datos de juegos de ajedrez de computadora. Luego creó una mayor variedad, añadiendo un movimiento legal al azar a cada posición antes de usarla para el entrenamiento. En total generó 175 millones de posiciones de esta manera.

La forma más habitual de entrenar estas máquinas es evaluar manualmente cada posición y utilizar esta información para enseñar a la máquina a reconocer a aquellas que son fuertes y las que son débiles.

Pero esta es una tarea enorme con 175 millones de posiciones. Se podría hacer con otro programa de ajedrez, pero la meta de Lai era más ambiciosa. Quería que la máquina aprendiera sola.

En su lugar, utilizó una técnica de programa de inicio en la que Giraffe jugó contra sí misma, con el objetivo de mejorar la predicción de su propia evaluación de una posición futura. Esto funciona porque no se fijan puntos de referencia que en última instancia determinan el valor de una posición, tanto si el juego más tarde se gana, se pierde o se empata.

De esta manera, la computadora se entera de qué posiciones son fuertes y cuáles son débiles.

Después de haber entrenado a Giraffe, el último paso fue probarla, y aquí los resultados dan una lectura interesante. Lai probó su máquina en una base de datos estándar llamada Test Suite Estratégico, que consta de 1.500 posiciones que son elegidas para poner a prueba la capacidad de un programa de reconocer diferentes ideas estratégicas. «Por ejemplo, un tema pone a prueba la comprensión del control de archivos abiertos, otras pruebas la comprensión de cómo cambia el valor del alfil y los caballos con respecto al otro en diferentes situaciones, e incluso en otras pruebas, la comprensión del control central», dice.

Los resultados de este ensayo fueron anotados al finalizar 15.000.

Lai utilizó esto para probar la máquina en diversas etapas durante su formación. Al comenzar el proceso de iniciación, Giraffe rápidamente alcanzó una puntuación de 6000 y, finalmente, culminó en 9700 después de sólo 72 horas. Lai dice que coincide con los mejores programas de ajedrez del mundo.

«[Esto] es notable debido a que sus funciones de evaluación son gigantes cuidadosamente diseñados a mano con cientos de parámetros que han sido afinados tanto manual como automáticamente durante varios años, y muchos de ellos han sido trabajadas por grandes maestros humanos», añade.

Lai va a utilizar el mismo tipo de enfoque de aprendizaje automático para determinar la probabilidad de que un movimiento determinado es digno de seguir probando. Eso es importante porque evita búsquedas innecesarias a lo largo de ramas no productivas del árbol y mejora dramáticamente la eficiencia computacional.

Lai dice que este enfoque probabilístico predice la mejor jugada el 46 por ciento de las veces, y ubica el mejor movimiento en los tres primeros del ranking el 70 por ciento de las veces. Así que el equipo no tiene que molestarse con los otros movimientos.

Este es un trabajo interesante que representa un cambio importante en la forma en que trabajan los programas de ajedrez. No es perfecto, por supuesto. Una desventaja de Giraffe es que las redes neuronales son mucho más lentas que con otros tipos de procesamiento de datos. Lai dice que Giraffe tarda aproximadamente 10 veces más que un motor de ajedrez convencional para buscar el mismo número de posiciones.
Pero incluso con esta desventaja, es competitiva. «Giraffe es capaz de jugar en el nivel de un Maestro Internacional de la FIDE en una PC moderna comercial común», dice Lai. En comparación, los mejores programas juegan al nivel de super-gran maestro.

Eso sigue siendo impresionante. «A diferencia de la mayoría de los programas de ajedrez en existencia hoy, Giraffe deriva su capacidad de juego no por ser capaz de ver muy lejos hacia delante, Sino por ser capaz de evaluar las posiciones difíciles con precisión, y comprender complicados conceptos posicionales que son intuitivos para los seres humanos, pero que han sido difíciles de alcanzar para los programas de ajedrez durante mucho tiempo», dice Lai. «Esto es especialmente importante en las fases de apertura y final del juego, donde se juega excepcionalmente bien.»

 

 

Y esto es sólo el comienzo. Lai dice que tiene que ser sencillo de aplicar el mismo enfoque a otros juegos. Uno que se destaca es el juego tradicional chino de Go, donde los seres humanos todavía tienen una ventaja impresionante sobre sus competidores de silicio. Quizás Lai podría abrir una grieta en ese lado.

Ref: arxiv.org/abs/1509.01549: Giraffe: Using Deep Reinforcement Learning to Play Chess.

Fuente: X. Aportado por Eduardo J. Carletti

Más información:

Un paso importante en la inteligencia artificial

Investigadores en el Departamento de Ingeniería Eléctrica y Computación de la UCSB están buscando crear cerebros informáticos más inteligentes haciéndolos más similares al nuestro

En lo que marca un importante paso adelante para la inteligencia artificial, los investigadores de la Universidad de California en Santa Bárbara han demostrado la funcionalidad de un circuito neuronal artificial simple. Por primera vez, se probó un circuito de aproximadamente 100 sinapsis artificiales para llevar a cabo una versión sencilla de una tarea humana típica: la clasificación de imágenes.

«Es un paso pequeño pero importante», dijo Dmitri Strukov, profesor de ingeniería eléctrica e informática. Con el tiempo, y más avances, los circuitos se pueden expandir y ampliar hasta acercarse a algo así como el cerebro humano, que tiene 1015 (mil billones) de conexiones sinápticas.

A pesar de sus errores y su potencial de imperfección, el cerebro humano sigue siendo un modelo de poder y eficiencia computacional para ingenieros como Strukov y sus colegas, Mirko Prezioso, Farnood Merrikh-Bayat, Brian Hoskins y Gina Adam. Esto es porque el cerebro puede lograr ciertas funciones en una fracción de segundo, lo que a las computadoras les requeriría mucho más tiempo y energía llevarlas a cabo.

¿Cuáles son estas funciones? Bueno, usted está realizando algunos de ellas en este momento. Al leer esto, su cerebro está haciendo en fracciones de segundo innumerables decisiones sobre las letras y símbolos que usted ve, clasificando sus formas y posiciones relativas entre sí, y derivando diferentes niveles de significado a través de muchos canales de contexto, en menor tiempo que el necesario para escanear esta impresión. Cambie la fuente, o incluso la orientación de las letras, y es probable que todavía sea capaz de leer esto y obtener el mismo significado.

En la demostración de los investigadores, el circuito que implementa la red neuronal artificial rudimentaria pudo clasificar con éxito tres letras («z», «v» y «n») a partir de sus imágenes, cada letra con diferentes estilos o saturadas de «ruido». En un proceso similar a la manera en que los seres humanos escogemos a nuestros amigos a partir de una multitud, o encontramos la tecla correcta en un conjunto de llaves similares, el circuito neuronal sencillo pudo clasificar correctamente las imágenes simples.

«Si bien el circuito era muy pequeño en comparación con las redes prácticas, es lo suficientemente grande como para demostrar el concepto de practicidad», dijo Merrikh-Bayat. Según Gina Adán, si crece el interés en la tecnología, la investigación tomará impulso.

«Y, mientras se propongan más soluciones a los retos tecnológicos de esta tecnología, ésta podrá llegar antes al mercado», dijo.

La clave de esta tecnología es el memristor (una combinación de «memoria» y «resistor»), un componente electrónico cuya resistencia cambia dependiendo de la dirección del flujo de la carga eléctrica. A diferencia de los transistores convencionales, que dependen de la deriva y difusión de electrones y sus huecos a través del material semiconductor, la operación del memristor se basa en el movimiento iónico, similar a la forma en que las células neurales humanas generan señales eléctricas neuronales.

«El estado de la memoria es almacenado como un perfil de la concentración específica de defectos que se pueden mover hacia atrás y adelante en el memristor», dijo Strukov. El mecanismo de memoria iónico tiene varias ventajas con respecto a las memorias sólo a base de electrones, que lo hace muy atractivo para su aplicación en redes neuronales artificiales, añadió.

«Por ejemplo, muchas configuraciones diferentes de perfiles iónicos resultan en un continuo de estados de memoria y por lo tanto una funcionalidad analógica de la memoria», dijo. «Los iones también son mucho más pesados que los electrones y no hacen túnel (efecto cuántico) fácilmente, lo que permite un agresivo escalado de los memristores sin sacrificar sus propiedades analógicas.»

En esto es donde la memoria analógica triunfa sobre la memoria digital: con el fin de lograr la misma funcionalidad tipo cerebro humano con la tecnología convencional, el dispositivo resultante tendría que ser enorme; plagado de multitud de transistores que requerirían mucha más energía.

«Las computadoras clásicas siempre encontrarán un ineludible límite a una computación cerebral eficiente en su propia arquitectura», dice el investigador principal, Prezioso. «Esta tecnología basada en memristores se basa en un camino completamente diferente inspirado en el cerebro biológico para llevar a cabo el cálculo.»

Para ser capaz de acercarse a la funcionalidad del cerebro humano, sin embargo, se necesitarían muchos más memristores para construir redes neuronales más complejas que puedan hacer el mismo tipo de cosas que podemos hacer sin apenas esfuerzo y energía, tales como identificar las diferentes versiones de la misma cosa o inferir la presencia o la identidad de un objeto no en base al objeto en sí, sino en otras cosas en una escena.

Ya existen aplicaciones potenciales para esta tecnología emergente, tales como el proceso de imágenes para medicina, mejorar los sistemas de navegación o incluso en búsquedas basadas en imágenes y no en el texto. El circuito compacto de alta eficiencia energética que los investigadores están tratando de crear implicaría también recorrer un largo camino para crear la clase de computadoras de alto rendimiento y dispositivos de almacenamiento de memoria que se continuarán buscando mucho tiempo luego de que la proliferación de transistores digitales predicha por la Ley de Moore se vuelva demasiado difícil de manejar para la electrónica convencional.

«Lo interesante es que, a diferencia de las soluciones más exóticas, no es difícil imaginar esta tecnología integrada en unidades de procesamiento comunes y dar un impulso serio a los ordenadores del futuro», dice Prezioso.

 

 

Mientras tanto, los investigadores continuarán mejorando el rendimiento de los memristores, escalando la complejidad de los circuitos, y enriqueciendo la funcionalidad de la red neural artificial. El siguiente paso sería integrar una red neuronal de memristores con tecnología de semiconductores convencionales, lo que permitirá manifestaciones más complejas y permitir que este primitivo cerebro artificial haga cosas más complicadas y variadas. Idealmente, de acuerdo con el científico de materiales Hoskins, este cerebro consistiría en billones de este tipo de dispositivos integrados verticalmente uno arriba de otro.

«Hay muchas aplicaciones potenciales; esto sin duda nos da toda una nueva forma de pensar», dijo.

Konstantin Likharev del Departamento de Física y Astronomía de la Universidad de Stony Brook también llevó a cabo investigación para este proyecto. Los hallazgos de los investigadores se han publicado en la revista Nature.

Fuente: EurekAlert. Aportado por Eduardo J. Carletti

Más información: