Archivo de la categoría: Matemáticas

Investigadores proponen una mejor manera de extraer sentido de Grandes Grupos de Datos (Big Data)

Nueva aplicación de un concepto clásico desafía a las más actuales herramientas estadísticas

Existen grandes conjuntos de datos, técnicamente Big Data, en todas partes, y se nos dice constantemente que tienen las respuestas a casi cualquier problema que queramos resolver. Las empresas recopilan información sobre la forma en que compramos, los médicos y las compañías de seguros reúnen resultados de pruebas médicas, y los gobiernos recopilan registros de nuestras llamadas telefónicas y correos electrónicos. En cada caso, la esperanza es que se esconde una perspectiva crítica en lo profundo de grandes cantidades de información, a la espera de ser descubierto.

Dos investigadores del Cold Spring Harbor Laboratory desafían los avances más recientes en este análisis de grandes datos, utilizando un concepto matemático clásico para hacer frente a los problemas pendientes en este campo.

Pero simplemente tener una gran cantidad de datos no es lo mismo que entenderlos. Cada vez más, se necesitan nuevas herramientas matemáticas para extraer el significado de enormes conjuntos de datos. En un trabajo publicado en línea esta semana, dos investigadores del Cold Spring Harbor Laboratory (CSHL) desafían los más recientes avances en este campo, utilizando un concepto matemático clásico para hacer frente a los problemas pendientes en el análisis de los grandes conjuntos de datos, o Big Data.

¿Qué significa analizar grandes volúmenes de datos? Un objetivo importante es encontrar patrones entre cantidades al parecer no relacionadas, tales como los ingresos y las tasas de cáncer. Muchas de las herramientas estadísticas más comunes sólo son capaces de detectar patrones si el investigador tiene alguna expectativa acerca de la relación entre las cantidades. Parte del atractivo de los grandes datos es que pueden revelar patrones inesperados, completamente nuevos. Por lo tanto, los científicos e investigadores han trabajado para desarrollar métodos estadísticos que descubrir estas nuevas relaciones.

En 2011, un distinguido grupo de investigadores de la Universidad de Harvard publicó un artículo muy influyente en la revista Science con un avance sólo en una herramienta de este tipo. Pero en un artículo publicado ahora en la revista de la Academia Nacional de Ciencias, Justin Kinney, miembro de Biología Cuantitativa de CSHL, y el profesor asistente de CSHL Gurinder «Mickey» Atwal, demostraron que esta nueva herramienta es sumamente deficiente. «Su herramienta estadística no tiene las propiedades matemáticas que ellos alegan», dice Kinney.

Kinney y Atwal muestran que una herramienta correcta estuvo oculta a la vista todo el tiempo. La solución, dicen, es una medición matemática bien conocida llamada «información mutua» (mutual information), descrita por primera vez en 1948. Fue utilizada inicialmente para cuantificar la cantidad de información que podría transmitirse electrónicamente a través de un cable de teléfono; el concepto ahora subyace en el diseño de infraestructuras de telecomunicaciones del mundo. «Lo que hemos encontrado en nuestro trabajo es que este mismo concepto también se puede utilizar para encontrar patrones en los datos», explica Kinney.

Aplicada a los grandes datos, la información mutua es capaz de revelar patrones en grandes listas de números. Por ejemplo, se puede utilizar para analizar los patrones en conjuntos de datos sobre las numerosas especies de bacterias que nos ayudan a digerir los alimentos. «Esta herramienta en particular es perfecta para encontrar patrones en los estudios sobre el microbioma humano, entre muchas otras cosas», dice Kinney.

Es importante señalar que la información mutua proporciona una manera de identificar todos los tipos de patrones en los datos sin depender de ninguna hipótesis anterior. «Nuestro trabajo demuestra que la información mutua resuelve muy naturalmente este problema crítico en las estadísticas», dice Kinney. «Este hermoso concepto matemático tiene el potencial de beneficiar en gran medida el moderno análisis de datos, en la biología y muchos otros campos importantes.»

La investigación descrita aquí fue apoyada por el Centro de Biología Cuantitativa Simons en el Cold Spring Harbor Laboratory.

«Equitability, mutual information, and the maximal information coefficient» aparece en línea en PNAS el 17 de febrero de 2014. Los autores son: Justin Block Kinney y Gurinder Singh Atwal. El documento se puede obtener en línea en: http://www.pnas.org/content/early/2014/02/14/1309933111.abstract.

Acerca de Cold Spring Harbor Laboratory

Fundado en 1890, Cold Spring Harbor Laboratory (CSHL) ha dado forma a la investigación biomédica contemporánea y la educación con programas de cáncer, neurociencia, biología vegetal y biología cuantitativa. CSHL está en el puesto número uno en el mundo por Thomson Reuters en el impacto de su investigación en la biología molecular y la genética. El Laboratorio ha sido el hogar de ocho ganadores del Premio Nobel. Hoy en día, la comunidad científica multidisciplinaria de CSHL posee más de 600 investigadores y técnicos y sus reuniones y cursos en el programa acogen a más de 12.000 científicos de todo el mundo cada año en su campus de Long Island y su centro de China. Para obtener más información, visite http://www.cshl.edu .

Fuente: Cold Spring Harbor Laboratory . Aportado por Eduardo J. Carletti

Más información:

La NSA no podría espiar sistemas basados en entrelazamiento cuántico

Un grupo de investigadores ha demostrado que el entrelazamiento cuántico puede garantizar la privacidad de las comunicaciones a través de fibras ópticas. «Ni siquiera la Agencia Nacional de Seguridad (National Security Agency, NSA) de los Estados Unidos podría violar las leyes de la física. Es imposible transmitir información a mayor velocidad que la de la luz y eso es lo que la NSA necesitaría para poder espiar los sistemas de comunicación basados en entrelazamiento cuántico, según los autores del trabajo

Un equipo internacional liderado por los profesores Gustavo Lima y Guilherme Xavier, de la Universidad de Concepción (Chile), Adán Cabello, catedrático de la Universidad de Sevilla y Paolo Mataloni, profesor de la Universidad «La Sapienza», de Roma, ha demostrado que el entrelazamiento cuántico puede garantizar la privacidad de las comunicaciones a través de fibras ópticas.

Los investigadores también han definido cómo distribuir entrelazamiento energía-tiempo entre un emisor y un receptor a través de más de 1 km de fibra óptica.

El hallazgo, que publica esta semana en la revista Nature Communications, está basado en una propuesta teórica dada a conocer hace cuatro años y que hasta ahora se pensaba que era irrealizable.

El experimento se ha llevado a cabo en la Universidad de Concepción, auspiciado por un ambicioso programa de investigación en óptica cuántica.

«Este resultado supone un avance muy importante en la consecución de comunicaciones seguras y muestra otra de las aplicaciones que las tecnologías cuánticas van a tener en un futuro próximo», afirma Adán Cabello.

Privacidad de las comunicaciones

Según Cabello, después de que Edward Snowden filtrase la existencia del programa secreto de vigilancia de la Agencia Nacional de Seguridad de los Estados Unidos (NSA, por sus siglas inglés), «uno podría preguntarse por qué es tan difícil garantizar la privacidad de las comunicaciones on line».

Desde una perspectiva puramente teórica, no hay ningún problema. En la última década, los físicos han demostrado que las comunicaciones totalmente seguras son posibles.

«Ni la NSA ni ningún espía, por avanzado tecnológicamente que esté, pueden violar las leyes de la física. Y una de ellas es que es imposible transmitir información a mayor velocidad que la de la luz. Y eso es precisamente lo que la NSA necesitaría para poder espiar los sistemas de comunicación basados en entrelazamiento cuántico, según estos investigadores».

El problema es práctico: No es tecnológicamente fácil distribuir entrelazamiento cuántico entre un emisor y un receptor que estén muy alejados. Más difícil aún es hacerlo si uno de ellos no está en la línea de visión del otro y si la comunicación se hace a través de fibras ópticas como las que se usan en los sistemas actuales de comunicación.

«En este caso, la mejor forma de distribuir entrelazamiento cuántico es usar un tipo particular de entrelazamiento que se conoce como entrelazamiento energía-tiempo», explican los autores del estudio.

«La pega –añaden– es que todos los experimentos de este tipo realizados en los últimos 14 años tenían un problema inherente que podía ser aprovechado para espiar las comunicaciones». Problema, que, según Adán Cabello, ha sido solucionado en este trabajo.




Fuente: Sinc. Aportado por Eduardo J. Carletti

Más información:

Un programa de computadora aprovecha la inteligencia colectiva para mejorar decisiones de empresa

Investigadores del Laboratorio de Economía Experimental de la Universitat Jaume I de Castellón han desarrollado el primer software español que aprovecha la inteligencia colectiva de los empleados y clientes para mejorar la toma de decisiones en la empresa, la plataforma informática Ágora Market

La plataforma informática Ágora Market, creada por la Universitat Jaume I de Castellón (UJI), permite implementar mercados predictivos en la empresa como una herramienta de mejora de la eficiencia en la gestión de la información interna y en la toma de decisiones estratégicas.

Los mercados predictivos son mercados especulativos en los que participan de forma anónima e incentivada los empleados o los clientes de la empresa con el fin de predecir los eventos futuros y las probabilidades de que ocurran.

«Los individuos compran y venden acciones en función de sus propias predicciones, de lo que piensan que va a funcionar o no, y luego reciben dinero real por las acciones que coincidan con las predicciones. Eso permite hacer un seguimiento a tiempo real sobre qué es lo que cree un grupo informado que ocurrirá», explica Gerardo Sabater del Área de Fundamentos del Análisis Económico de la UJI.

Esta técnica, que se aplica ya en grandes multinacionales como IBM, Google, Eli Lilly y Siemens, ha demostrado ser más fiable que las encuestas, los paneles de expertos o los algoritmos de predicción. Su efectividad se basa en la hipótesis de que las predicciones agregadas de un grupo incentivado son más precisas que la opinión de expertos que no se juegan nada en la respuesta.




El software está ya preparado para su comercialización en medianas o grandes empresas, junto a un servicio integral de implementación de la mano de los investigadores del Laboratorio de Economía Experimental que garantiza al cliente su adecuada utilización para conseguir predicciones fiables y sólidas. La tecnología puede aplicarse en cualquier tipo de empresa de cualquier sector económico y área industrial.

Funciona en red local Windows Vista y Windows 7 y Windows Server en red pública y los lenguajes de programación utilizados son JSP, HTML, CSS, Java y Javascript. Los usuarios pueden acceder a la herramienta a través de diferentes terminales, como estaciones de trabajo, portátiles, tabletas o terminales móviles.

Seguridad y anonimato

Cuenta además con un market maker que dota al programa de la liquidez necesaria realizando ofertas públicas de compra y venta de cualquier predicción en un determinado momento del tiempo y a un precio concreto, mediante un algoritmo o market scoring rule que permite calcular precios de compra y de venta de forma continua.

El desarrollo de este algoritmo y del paquete informático es fundamental para que el sistema sea efectivo. La seguridad y el anonimato se consiguen generando las páginas que usan los usuarios de forma dinámica, de forma que no quede constancia en el navegador de peticiones a la base de datos con el nombre del usuario.

El programa de ordenador ha sido desarrollado dentro del programa StartUJI de Valorización de Resultados de Investigación de la UJI promovido por la Oficina de Cooperación en Investigación y Desarrollo Tecnológico (OCIT) con una dotación económica de 40.000 euros. El objetivo de este programa es aumentar el valor de las tecnologías universitarias e incrementar las posibilidades de su transferencia hacia el sector privado.

Fuente: Sinc. Aportado por Eduardo J. Carletti

Más información: