Archivo de la categoría: Informática

Transistores de silicio de un átomo de espesor son prometedores para una informática súper rápida

Investigadores de la Universidad de Texas en la Escuela de Ingeniería Cockrell de Austin han creado los primeros transistores hechos de Siliceno, el material de silicio más delgado del mundo. Su investigación promete construir chips de computadora mucho más rápidos, pequeños y eficientes

Hechos de una capa de silicio de un átomo de espesor, el siliceno tiene excelentes propiedades eléctricas, pero hasta ahora ha sido difícil producirlo y trabajar con él.

Deji Akinwande, profesor asistente en el Departamento de Ingeniería Eléctrica y Computación de la Escuela de Cockrell, y su equipo, incluyendo el investigador principal, Li Tao, resolvieron uno de los principales desafíos que rodean el siliceno, demostrando que se pueden hacer transistores, dispositivos semiconductores utilizados para amplificar y conmutar señales electrónicas y energía eléctrica.

Los novedosos dispositivos desarrollados por Akinwande y su equipo sobre el más delgado de los materiales semiconductores, un sueño de larga data de la industria de los chips, podrían allanar el camino para las futuras generaciones de chips de computadoras más rápidos y de menor consumo. Su trabajo fue publicado esta semana en la revista Nature Nanotechnology.

Hasta hace unos años, que el hombre pudiese hacer siliceno era materia puramente teórica. Observando el grafeno, a base de carbono, otro material de un átomo de espesor que es promisorio para el desarrollo de chips, los investigadores especularon que los átomos de silicio podrían estructurarse de una manera muy similar.

Akinwande, que también trabaja con transistores de grafeno, ve valiosa la relación del siliceno con el silicio, un material con el que los fabricantes de chips ya saben trabajar.

«Aparte de la introducción de un nuevo jugador en el campo de juego de los materiales en 2D, el siliceno, con su estrecha afinidad química con el silicio, implica una oportunidad en la hoja de ruta de la industria de los semiconductores», dijo Akinwande. «El gran avance aquí es la fabricación eficiente a baja temperatura y la fabricación de dispositivos de siliceno por primera vez.»

A pesar de su promesa de una adaptación comercial, el siliceno ha demostrado ser extremadamente difícil de producir y trabajar debido a su complejidad y su inestabilidad cuando se expone al aire.

Para evitar estos problemas, Akinwande se asoció con Alessandro Molle en el Instituto de Microelectrónica y Microsistemas en Agrate Brianza, Italia, para desarrollar un nuevo método para fabricar el siliceno, que reduce su exposición al aire. Para empezar, los investigadores dejaron que un vapor caliente de átomos de silicio se condensara en un bloque cristalino de plata en una cámara de vacío. Se forma entonces una hoja de siliceno en una capa delgada de plata y se añade una capa de nanómetros de espesor de alúmina en la parte superior. Debido a estas capas de protección, el equipo pudo desprenderlo con seguridad de su base y transferirlo con la plata hacia arriba sobre un sustrato oxidado de silicio. Luego pudieron raspar suavemente algo de la plata, dejando dos islas de metal como electrodos, con una tira de siliceno entre ellos.

 

 

En un corto plazo, Akinwande seguirá investigando nuevas estructuras y métodos para crear siliceno, lo que puede llevar a chips digitales de computadora de baja energía y alta velocidad.

Publicación de Referencia: Li Tao, Eugenio Cinquanta, Daniele Chiappe, Carlo Grazianetti, Marco Fanciulli, Madan Dubey, Alessandro Molle, Deji Akinwande. Silicene field-effect transistors operating at room temperature. Nature Nanotechnology, 2015; DOI: 10.1038/nnano.2014.325

Fuente: Science Daily. Aportado por Eduardo J. Carletti

Más información:

Si un robot o un programa bot comete un delito, ¿qué dice la ley sobre sus dueños?

¿Pueden ser los responsables del bot de internet acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El Random Darknet Shopper es un bot que, cada semana, visita la internet profunda (deep web) y gasta aleatoriamente 100 dólares en algún objeto. Dicha compra es después enviada a los dueños del bot, dos artistas suizos que han creado una exposición con todas las adquisiciones de su software automatizado. Entre las compras están unos vaqueros de imitación, un pasaporte y… una bolsita con pastillas de éxtasis.

Numerosos medios se hicieron eco de esta original iniciativa, y un día después de clausurar su exposición, la policía apareció para confiscar dichas drogas. ¿Pueden ser los responsables del bot acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El «bot» delincuente

Volviendo al primer caso, ¿qué ocurre si alguien programa un bot para hacer realizar acciones aleatorias y resulta que, con una de ellas, termina cometiendo un delito? Hemos hablado con José Leandro Núñez, abogado de Audens especialista en nuevas tecnologías, que nos explica que «que las cosas no tienen capacidad jurídica, y por tanto no pueden ser condenadas en caso de que cometan infracciones o delitos», incluso aunque tengan inteligencia artificial. «El bot no es sino un medio o herramienta para la realización del acto ilegal», nos comenta también Sergio Carrasco, abogado y cofundador de Derecho en Red.

Parece lógico ya que, a fin de cuentas, ¿cómo juzgas o condenas a un bot? ¿Qué se hace entonces? José Leandro nos dice lo siguiente: «el sistema trata de tirar del hilo, de encontrar a la persona causante de ese comportamiento. Una vez encontrada, se trata de determinar hasta qué punto es responsable de lo ocurrido: ¿programó el robot a sabiendas, para hacer cosas ilegales? ¿Lo hizo de forma imprudente, sin prever las posibles consecuencias? ¿Fue un simple hecho fortuito?».

Ambos abogados coinciden en que la clave de cada caso concreto es ver si se ha producido dolo (intención de causar el daño) o neglicencia por parte del programador. En caso de que esto llegue ante el juez, y según nos explica Sergio, «tendrás que demostrar que no ha habido voluntad de que realice dichas actuaciones, y habría que ver circunstancias como qué control se ejercía posteriormente sobre el bot.»

«La evolución de la misma herramienta no cambia ni las intenciones que tenía su desarrollador, ni la acción que va a realizarse (que ya se encuentra contemplada en el ordenamiento jurídico). Por lo tanto, no existe un sujeto diferenciado que sea el bot, ni hay laguna alguna al respecto», según Sergio Carrasco.

José Leandro va todavía más allá y nos pone otro ejemplo: la «posición de garante«. «Por ejemplo, se le aplica al propietario de un perro que se escapa y muerde a alguien… y creo que también se podría aplicar en este caso». De todas formas, y por lo que nos comentan, dependería de cada caso concreto, de cómo se ha programado el bot y de las explicaciones que se den ante el juez.

Si nos ceñimos al caso del bot que compra cosas, otro apunte importante que nos hace José Leandro:

«Por lo demás, otro tema interesante es la validez de las compras realizadas por estas máquinas: la Ley nos dice que para que una compra (o cualquier otro contrato) sea válido, tiene que haber consentimiento de las dos partes. Ahora bien, si la compra la realiza aleatoriamente una máquina, que carece de capacidad jurídica, ¿existe realmente consentimiento? ¡Todo un dilema! Estoy seguro de que en el futuro nos encontraremos con sentencias de este tipo»

¡Ojo! Hasta ahora estamos hablando de bots programados para hacer tareas «aleatorias». Esto no quiere decir que, si programas un bot para hacer cosas ilegales, te vayas a librar. En este caso, y si se ha programado intencionadamente para tal fin, el creador del software en cuestión sería sin duda alguna responsable de los delitos o daños causados.

El ¿peligro? de la automatización de tareas

Por ir un poco más allá y «rizar algo el rizo», hemos pensado en otra situación casi extrema: ¿qué ocurre si utilizas algún servicio como IFTTT, que te permite automatizar las tareas, para descargar todas las fotos de Instagram que publica una cuenta y, al final, resulta que una de estas imágenes era pornografía infantil? Tú no te la has descargado adrede, pero el programa la ha descargado y está en tu disco duro.

Si en tu disco duro hay algo ilegal que se ha descargado de forma automática y sin tu conocimiento, te tocará demostrarlo.

En este caso, la mera tenencia de un archivo de este tipo es un delito (se pena la posesión de pornografía infantil). Si su descarga ha sido efectivamente fortuita, te tocará probar ante el juez que ha sido tal. «Lo mismo sucedía cuando se descargaban películas de pornografía infantil ocultas como grandes éxitos de hollywood por ejemplo», explica Sergio. ¿Cómo lo pruebas? Demostrando que no hay más contenidos de ese tipo en tu ordenador, falta de habitualidad, cómo funciona la herramienta que lo ha hecho, etc.

Lo mismo afirma José Leandro: «Podría tratar de defenderse, basándonos en que no había intencionalidad, pero la persona en cuestión sería imputada con total seguridad». Por mucho que haya sido una descarga automática, eso no cambia que el poseer la imagen no sea un delito. En definitiva: podrías acabar frente a un juez y, a partir de ahí, deberías probar tu inocencia.

¿Y si un coche autónomo tiene un accidente?

Igual que ahora se culpa a los fabricantes de fallos en el diseño, los fallos en un sistema autónomo de conducción también tienen responsables.

Todo el asunto de la conducción autónoma presenta un dilema moral: si un coche va por una carretera y la única forma que tiene de esquivar un accidente es llevarse por delante a un peatón, ¿qué debe hacer el coche? ¿Qué vida vale más? ¿Y si el coche lleva seis ocupantes? Sobre este asunto profundizan en este interesantísimo artículo del New York Times, hablando de lo que se conoce como «matemáticas morales».

Pero ¿quién carga con la culpa si se produce un accidente de estas características por un error del coche autónomo? «Estamos hablando de una herramienta incorporada al vehículo (da igual que sea más o menos avanzada) con lo cual existirá responsabilidad al igual que sucede ahora», explica Sergio, que además nos pone un ejemplo: si un error con el diseño hace que los frenos fallen, el culpable es claro. Con los coches autónomos ocurriría algo similar.

 

 

José Leandro coincide con esta opinión: «tendríamos que ver quién es el culpable del accidente: el fabricante, por un error de diseño; la empresa, por falta de mantenimiento; el conductor, por toquetear los botones… o todos ellos». Y, además, hace una lectura muy interesante del asunto: «será muy complicado que veamos coches autónomos circulando por las carreteras hasta que se aclare el tema de las responsabilidades en caso de accidente.»

En resumen: los bots, los sistemas de inteligencia artificial o los sistemas de conducción autónoma no dejan de ser herramientas que son programadas por alguien para tal fin y de esa forma deben ser juzgadas en el caso de que exista algún problema con ellas. Así que, si tenías pensado programar un bot que compre aleatoriamente en la deep web, como hicieron los compañeros suizos, mejor que optes por otro proyecto distinto para evitar posibles problemas.

Fuente: Xataka y otros sitios. Aportado por Eduardo J. Carletti

Más información:

Reino Unido recurre al sistema de "Minority Report" para prevenir el crimen

Londres prueba un software para predecir la violencia de las pandillas

Cuando Steven Spielberg estrenó en 2002 la película «Minority Report», ambientada en 2052 y protagonizada por Tom Cruise, nadie pensaba que un software para anticipar los crímenes pudiera estar en funcionamiento 12 años después. La Policía Metropolitana de Londres ha puesto en marcha un programa piloto en el que un software analiza el historial delictivo y los mensajes de una persona en las redes sociales para evaluar la probabilidad de que vaya a cometer un delito. Este proyecto, que estará en marcha durante 20 semanas, es el primero de este tipo en Reino Unido, informa «DailyMail». La iniciativa viene a paliar la falta de recursos de la Policía Metropolitana londinense, que con este sistema trata de ser más selectivo en la vigilancia de los delincuentes más propensos a cometer delitos. «Tienes los recursos policiales limitados y es necesario utilizarlos de manera eficiente», explicó a la BBC «Muz Janoowalla, jefe de análisis de seguridad pública en Accenture, creadora del software.

La última versión del software utilizó información de inteligencia de los integrantes de las pandillas más peligrosas en 32 condados durante cuatro años. Tras procesar los datos, el sistema era capaz de analizar los mensajes de las redes sociales en busca de delitos. Después de localizar la información, los agentes cotejaron los resultados con las investigaciones abiertas para corroborar que se trata de una imagen real.

Esta tecnología se utilizó por primera vez en Estados Unidos, donde Baltimore y Filadelfia comenzaron a usar el software de predicción el año pasado para intentar predecir el índice de reincidencia de los presos condenados por asesinato que salían en libertad. En lugar de confiar la supervisión a los oficiales de libertad condicional, utilizaron este sistema que a través de un algoritmo decidía qué tipo de controles había que establecer.

El software ha sido desarrollado por el profesor Richard Berk, un criminólogo de la Universidad de Pennsylvania, que cree que logrará reducir la tasa de homicidios y de otros delitos. Según Berk, su algoritmo se podría utilizar para fijar las fianzas y para dictar sentencias en e futuro. También podría ser modificado para lograr predecir delitos menores.

Accenture ha llevado a cabo otro análisis de prevención de la delincuencia en otros lugares. Por ejemplo, en Santa Cruz, California, la policía ha aplicado el análisis predictivo a sus datos de robo. Esto, a su juicio, ha ayudado a identificar las calles que corren mayor riesgo de sufrir un robo. Así, los agentes han reforzado la seguridad en esas zonas sin necesidad de incorporar a más Policías y han logrado un descenso de los delitos contra la propiedad de un 19 por ciento.

 

 

En Singapur, las autoridades han puesto en marcha una iniciativa similar dentro del programa «Ciudad Segura», que combina las tecnologías de visión electrónica y el análisis predictivo las cámaras de vídeo repartidas por la ciudad para detectar incidentes callejeros. Este ejemplo es similar al que se propone en la serie «Person of interest», de Jim Caviezel («La pasión de Cristo») y Michael Emerson («Perdidos»).

Fuente: BBC Mundo. Aportado por Eduardo J. Carletti

Más información: