Archivo de la categoría: Robótica

Spot es el ágil nuevo robot cuadrúpedo de Boston Dynamics

Boston Dynamics es exasperantemente atrayente. Debe ser la única empresa de robótica que existe que envía un vídeo a YouTube de un cuadrúpedo autónomo increíblemente ágil llamado «Spot» con una descripción de cuatro frases sin que exista información en su sitio, ningún comunicado de prensa, ninguna entrevista. Porque saben que, de todos modos, todo el mundo lo va a ver y pensará que es impresionante

Spot es un robot de cuatro patas diseñado para uso en interiores y al aire libre. Es alimentado eléctricamente y accionado hidráulicamente. Sopt tiene una cabeza sensora que lo ayuda a navegar y franquear terrenos difíciles. Spot pesa alrededor de 72 kg.

Hemos contactado nuestros conocidos en Boston Dynamics para más detalles, pero hasta que no recibamos respuesta de ellos (y ahora que pertenecen a Google , probablemente vamos a saber de ellos como nunca), vamos a ver qué podemos averiguar del vídeo. Una vez más, nada de lo que sigue viene de Boston Dynamics: sólo hablamos de lo que parece ser nuevo aquí.

En lugar de un enjambre de abejas furiosas, Spot suena como un mal día en el dentista. Todavía es hidráulico, pero está usando una batería para alimentar la bomba hidráulica en lugar de un motor de combustible líquido. Nos sorprende que esto no haya tenido un impacto significativo en el rango, la resistencia y/o el rendimiento (especialmente la capacidad de carga útil) de Spot en relación con algunos de los otros robots de la empresa. Sin embargo, se las arreglaron para hacer que la actualización más reciente de Atlas (su robot humanoide) funcione con baterías que también alimentan una bomba hidráulica, es posible que Spot esté aprovechando la misma tecnología.

Spot no se ve necesariamente construido específicamente para la velocidad, o con capacidad de carga útil, lo que indica que no es la próxima generación de LS3 o Wildcat. Hemos escuchado que las patas de estos robots pueden ser colocados con sus rodillas enfrentando ya sea hacia atrás o hacia adelante, pero (tal vez) cabe señalar que Wildcat tiene rodillas mirando hacia delante (Cheetah también), y LS3 tiene una combinación de las dos posiciones. Si tuviésemos que adivinar en base a nada en absoluto, podría especular que la configuración de las patas de LS3 es para la carga útil, y la configuración de las patas de Wildcat son para la velocidad. Así que tal vez las piernas de Spot estén diseñados para la agilidad. O tal vez no importa en absoluto. Sinceramente, no lo sabemos.

Spot ciertamente es ágil: parece no tener ningún problema con colinas, o incluso con las escaleras. En cierto modo parece que Spot tal vez no sabe, en realidad, cómo subir escaleras. Tendemos a pensar que no le importa que haya unas escaleras, sólo ve una pendiente empinada y llena de baches, y luego sube las escaleras como si fuera cualquier otro terreno. Usted sabe, ellos se llaman a sí mismos Boston Dynamics por alguna razón.

En cuanto a los sensores, el Velodyne bebé es ciertamente obvio. También, escondidos donde estaría la cabeza de Spot (si tuviera una cabeza), parece estar la misma clase de sensores de visión que tiene Atlas, pero es un poco difícil de ver. El Velodyne no está montado de manera que pueda ver lo que está justo delante del robot, así que para un funcionamiento autónomo tendrá que confiar en algo más para la detección desde cerca.

La adaptabilidad del robot es una gran ventaja aquí, sin embargo: ya que es tan dinámicamente estable, no es necesario calcular la ubicación exacta del pie que adelanta, simplemente lo hace.

La gran pregunta que tenemos ahora (además de todas los otras grandes preguntas sobre cómo funciona esta máquina y lo que puede hacer) es ¿por qué existe este robot? También, ¿para qué se construyó? Antes, cuando Boston Dynamics trabajaba principalmente para los militares, era más fácil discutir sobre posibles aplicaciones, pero ahora que la empresa es parte de Google, tal vez la razón es simplemente «porque podemos, y es genial».

 

 

O tal vez se trata de un robot de reparto urbano. Lo escucharon aquí primero, amigos.

En cualquier caso, estamos muy contentos de ver que Boston Dynamics sigue trabajando en impresionantes robots y que no ha desaparecido por completo en la inmensidad de Google.

Fuente: Spectrum IEEE. Aportado por Eduardo J. Carletti

Más información:

Si un robot o un programa bot comete un delito, ¿qué dice la ley sobre sus dueños?

¿Pueden ser los responsables del bot de internet acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El Random Darknet Shopper es un bot que, cada semana, visita la internet profunda (deep web) y gasta aleatoriamente 100 dólares en algún objeto. Dicha compra es después enviada a los dueños del bot, dos artistas suizos que han creado una exposición con todas las adquisiciones de su software automatizado. Entre las compras están unos vaqueros de imitación, un pasaporte y… una bolsita con pastillas de éxtasis.

Numerosos medios se hicieron eco de esta original iniciativa, y un día después de clausurar su exposición, la policía apareció para confiscar dichas drogas. ¿Pueden ser los responsables del bot acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El «bot» delincuente

Volviendo al primer caso, ¿qué ocurre si alguien programa un bot para hacer realizar acciones aleatorias y resulta que, con una de ellas, termina cometiendo un delito? Hemos hablado con José Leandro Núñez, abogado de Audens especialista en nuevas tecnologías, que nos explica que «que las cosas no tienen capacidad jurídica, y por tanto no pueden ser condenadas en caso de que cometan infracciones o delitos», incluso aunque tengan inteligencia artificial. «El bot no es sino un medio o herramienta para la realización del acto ilegal», nos comenta también Sergio Carrasco, abogado y cofundador de Derecho en Red.

Parece lógico ya que, a fin de cuentas, ¿cómo juzgas o condenas a un bot? ¿Qué se hace entonces? José Leandro nos dice lo siguiente: «el sistema trata de tirar del hilo, de encontrar a la persona causante de ese comportamiento. Una vez encontrada, se trata de determinar hasta qué punto es responsable de lo ocurrido: ¿programó el robot a sabiendas, para hacer cosas ilegales? ¿Lo hizo de forma imprudente, sin prever las posibles consecuencias? ¿Fue un simple hecho fortuito?».

Ambos abogados coinciden en que la clave de cada caso concreto es ver si se ha producido dolo (intención de causar el daño) o neglicencia por parte del programador. En caso de que esto llegue ante el juez, y según nos explica Sergio, «tendrás que demostrar que no ha habido voluntad de que realice dichas actuaciones, y habría que ver circunstancias como qué control se ejercía posteriormente sobre el bot.»

«La evolución de la misma herramienta no cambia ni las intenciones que tenía su desarrollador, ni la acción que va a realizarse (que ya se encuentra contemplada en el ordenamiento jurídico). Por lo tanto, no existe un sujeto diferenciado que sea el bot, ni hay laguna alguna al respecto», según Sergio Carrasco.

José Leandro va todavía más allá y nos pone otro ejemplo: la «posición de garante«. «Por ejemplo, se le aplica al propietario de un perro que se escapa y muerde a alguien… y creo que también se podría aplicar en este caso». De todas formas, y por lo que nos comentan, dependería de cada caso concreto, de cómo se ha programado el bot y de las explicaciones que se den ante el juez.

Si nos ceñimos al caso del bot que compra cosas, otro apunte importante que nos hace José Leandro:

«Por lo demás, otro tema interesante es la validez de las compras realizadas por estas máquinas: la Ley nos dice que para que una compra (o cualquier otro contrato) sea válido, tiene que haber consentimiento de las dos partes. Ahora bien, si la compra la realiza aleatoriamente una máquina, que carece de capacidad jurídica, ¿existe realmente consentimiento? ¡Todo un dilema! Estoy seguro de que en el futuro nos encontraremos con sentencias de este tipo»

¡Ojo! Hasta ahora estamos hablando de bots programados para hacer tareas «aleatorias». Esto no quiere decir que, si programas un bot para hacer cosas ilegales, te vayas a librar. En este caso, y si se ha programado intencionadamente para tal fin, el creador del software en cuestión sería sin duda alguna responsable de los delitos o daños causados.

El ¿peligro? de la automatización de tareas

Por ir un poco más allá y «rizar algo el rizo», hemos pensado en otra situación casi extrema: ¿qué ocurre si utilizas algún servicio como IFTTT, que te permite automatizar las tareas, para descargar todas las fotos de Instagram que publica una cuenta y, al final, resulta que una de estas imágenes era pornografía infantil? Tú no te la has descargado adrede, pero el programa la ha descargado y está en tu disco duro.

Si en tu disco duro hay algo ilegal que se ha descargado de forma automática y sin tu conocimiento, te tocará demostrarlo.

En este caso, la mera tenencia de un archivo de este tipo es un delito (se pena la posesión de pornografía infantil). Si su descarga ha sido efectivamente fortuita, te tocará probar ante el juez que ha sido tal. «Lo mismo sucedía cuando se descargaban películas de pornografía infantil ocultas como grandes éxitos de hollywood por ejemplo», explica Sergio. ¿Cómo lo pruebas? Demostrando que no hay más contenidos de ese tipo en tu ordenador, falta de habitualidad, cómo funciona la herramienta que lo ha hecho, etc.

Lo mismo afirma José Leandro: «Podría tratar de defenderse, basándonos en que no había intencionalidad, pero la persona en cuestión sería imputada con total seguridad». Por mucho que haya sido una descarga automática, eso no cambia que el poseer la imagen no sea un delito. En definitiva: podrías acabar frente a un juez y, a partir de ahí, deberías probar tu inocencia.

¿Y si un coche autónomo tiene un accidente?

Igual que ahora se culpa a los fabricantes de fallos en el diseño, los fallos en un sistema autónomo de conducción también tienen responsables.

Todo el asunto de la conducción autónoma presenta un dilema moral: si un coche va por una carretera y la única forma que tiene de esquivar un accidente es llevarse por delante a un peatón, ¿qué debe hacer el coche? ¿Qué vida vale más? ¿Y si el coche lleva seis ocupantes? Sobre este asunto profundizan en este interesantísimo artículo del New York Times, hablando de lo que se conoce como «matemáticas morales».

Pero ¿quién carga con la culpa si se produce un accidente de estas características por un error del coche autónomo? «Estamos hablando de una herramienta incorporada al vehículo (da igual que sea más o menos avanzada) con lo cual existirá responsabilidad al igual que sucede ahora», explica Sergio, que además nos pone un ejemplo: si un error con el diseño hace que los frenos fallen, el culpable es claro. Con los coches autónomos ocurriría algo similar.

 

 

José Leandro coincide con esta opinión: «tendríamos que ver quién es el culpable del accidente: el fabricante, por un error de diseño; la empresa, por falta de mantenimiento; el conductor, por toquetear los botones… o todos ellos». Y, además, hace una lectura muy interesante del asunto: «será muy complicado que veamos coches autónomos circulando por las carreteras hasta que se aclare el tema de las responsabilidades en caso de accidente.»

En resumen: los bots, los sistemas de inteligencia artificial o los sistemas de conducción autónoma no dejan de ser herramientas que son programadas por alguien para tal fin y de esa forma deben ser juzgadas en el caso de que exista algún problema con ellas. Así que, si tenías pensado programar un bot que compre aleatoriamente en la deep web, como hicieron los compañeros suizos, mejor que optes por otro proyecto distinto para evitar posibles problemas.

Fuente: Xataka y otros sitios. Aportado por Eduardo J. Carletti

Más información:

Vigilantes robóticos aprenden a patrullar mediante la teoría de juegos

Un equipo del Grupo de Investigación de Robótica y Cibernética de la Universidad Politécnica de Madrid han ensayado un sistema en que robots dotados de inteligencia artificial establecen sus propias rutas sin un coordinador central. El sistema está inspirado en un modelo matemático de aprendizaje de la teoría de juegos

La Universidad Politécnica de Madrid (UPM), a través del Grupo de Investigación de Robótica y Cibernética (RobCib), está ensayando un sistema de patrullaje multirrobot que se basa en un modelo matemático de aprendizaje de la teoría de juegos denominado jugadas ficticias suaves y selectivas (Selective Smooth Fictitious Play, SSFP, en sus siglas en inglés).

La principal característica de esta propuesta es que cada uno de los robots de seguridad establece sus propias rutas sin un coordinador central. Es decir, el patrullaje solo está determinado por la inteligencia artificial del propio robot.

La inteligencia y la autonomía de los robots se establecen sobre la base de que cada unidad participa en un juego que, de acuerdo con la teoría de juegos, se determina en función de tres factores: jugadores, acciones y beneficios. En este modelo, los jugadores son los robots, las acciones son las selecciones para ir a otro punto de interés del entorno y los beneficios o los estímulos son los valores numéricos que, por ejemplo, reflejan la distancia que debe recorrerse, el consumo de energía o el tiempo invertido.

El aspecto de los robots es la de un coche pequeño de cuatro ruedas, que incluye actuadores, sensores, sistemas de comunicación y una unidad de procesamiento. / UPM

El aspecto de estos robots es el de un coche pequeño de cuatro ruedas, que incluye actuadores, sensores, sistemas de comunicación y una unidad de procesamiento. Cuando participan en el juego que se ha definido para ellos, solo necesitan saber lo que han hecho otros compañeros mecánicos en una anterior partida. Aquí radica su autonomía. Aprenden a resolver juegos con cierta racionalidad basándose principalmente en los beneficios que obtiene cada jugador a través del tiempo. Es decir, un robot percibe que hace las cosas bien en función de si recibe más o menos beneficio.

Evitar la infiltración de atacantes

Para subir una escala más y hacer que los robots aprendan a patrullar con cierta racionalidad y evitar la infiltración de un atacante, se debe diseñar toda una solución que dé prioridades a ciertos puntos de interés de la infraestructura que se protege. Esta tarea es uno de los factores más relevantes en esta investigación y actualmente se encuentra en desarrollo.

La idea principal es asignar prioridades a los puntos de interés definidos dentro de la infraestructura protegida. De este modo, puede darse más importancia a aquellas zonas que son más sensibles a un ataque, y junto al objetivo de garantizar que todas las zonas sean visitadas, añadir la prioridad a las más necesitadas de vigilancia.

Erik Hernández Serrato, investigador del Centro de Automática y Robótica (CAR) que participa en este trabajo, subraya que los autómatas deben dispersarse en el entorno para que la tarea de patrullaje no se centre solo en algunas zonas del entorno protegido. Por esta razón, es necesario definir un juego para que los robots decidan visitar un punto de interés diferente al seleccionado por los demás compañeros mecánicos.

“Imaginemos que definimos el juego en un punto de interés, como la sala de recogida de equipajes de la terminal 4 del aeropuerto de Barajas”, propone el investigador. “Supongamos que los robots A y B juegan y que cada robot tiene dos opciones: ir al acceso de autobuses y taxis o ir a la sala de facturación. Además supongamos que el robot A casi siempre ha decidido ir al acceso de autobuses y taxis. Por tanto, por la definición del juego, habría más probabilidad de que el robot B decida ir a la sala de facturación”.

No se trata de que las unidades mecánicas detengan a los ‘malos’ como en las películas, sino que su misión consiste en realizar tareas de patrullaje para detectar irregularidades en el entorno que protegen. Si encontraran alguna anomalía, sería necesario  realizar un análisis de lo que el robot observa a través de sus  cámaras y sensores. El fin último sería evitar un escenario crítico con la detención de los intrusos, aunque esa sería otra línea de investigación que englobaría un sistema de seguridad completo, dice Hernández Serrato.

El investigador recuerda que es de vital importancia para cualquier país garantizar la seguridad de sus infraestructuras. Por ello, han ensayado las simulaciones, además de en el aeropuerto de Barajas, en centrales nucleares, plantas químicas o límites fronterizos.

Su misión consiste en realizar tareas de patrullaje para detectar irregularidades en el entorno que protegen

Detección de drogas y explosivos

También la adaptación de los robots ha ido un paso más allá. En este momento, los investigadores contemplan nuevas líneas de investigación que intentan dotarlos con dispositivos capaces de detectar, por ejemplo, drogas o explosivos mediante narices electrónicas, o con detectores de fuego a través de cámaras térmicas.

Edificios como el de las Naciones Unidas en Nueva York o infraestructuras como el aeropuerto de Los Ángeles utilizan modelos parecidos, aunque en el segundo caso las rutas aleatorias de vigilancia están centralizadas y realizadas por vigilantes con unidades caninas. En la solución propuesta por el Grupo de Investigación de Robótica y Cibernética (RObCib) de la UPM, a diferencia de lo que sucede en el aeropuerto californiano, no existe un programa informático central que defina trayectorias, sino que los robots generan sus rutas de patrullaje conforme vigilan.

Es como si cada vez que la unidad canina llegara a un punto de control decidiera cuál es el siguiente que visitar, según su criterio, desconociendo de antemano el próximo objetivo de vigilancia. La otra diferencia fundamental es que, en vez de perros, el patrullaje lo llevarían a cabo robots.

 

 

Los investigadores de la UPM proyectan para el futuro coordinar sus robots móviles terrestres con drones. En este planteamiento, por ejemplo, el robot volador, con un campo de visión más amplio, podría tomar una imagen de todo el entorno, para posteriormente determinarse los puntos de interés que los robots terrestres deberían proteger a través de tareas de patrullaje.

Hernández Serrato considera que la repercusión más importante de la investigación radica en el hecho de que este tipo de modelo de patrullaje puede adaptarse comercialmente para generar diferentes soluciones de seguridad en función de las infraestructuras y que es válido tanto para sistemas robotizados como para los que, de manera convencional, se realizan mediante vigilantes humanos.

Además, apunta a otro valor del trabajo desarrollado por este grupo de investigación de la UPM. “Cada nación debe contar con su propia tecnología para proteger sus infraestructuras en lugar de utilizar una solución universal”, afirma. ¿Es congruente que una nación o institución confíe su seguridad a intereses ajenos? Pensamos que no, y que lo mejor es desarrollar y utilizar tecnología local.”

Fuente: Sinc. Aportado por Eduardo J. Carletti

Más información:

VISITE ADEMÁS: