Si un robot o un programa bot comete un delito, ¿qué dice la ley sobre sus dueños?

¿Pueden ser los responsables del bot de internet acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El Random Darknet Shopper es un bot que, cada semana, visita la internet profunda (deep web) y gasta aleatoriamente 100 dólares en algún objeto. Dicha compra es después enviada a los dueños del bot, dos artistas suizos que han creado una exposición con todas las adquisiciones de su software automatizado. Entre las compras están unos vaqueros de imitación, un pasaporte y… una bolsita con pastillas de éxtasis.

Numerosos medios se hicieron eco de esta original iniciativa, y un día después de clausurar su exposición, la policía apareció para confiscar dichas drogas. ¿Pueden ser los responsables del bot acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?

El «bot» delincuente

Volviendo al primer caso, ¿qué ocurre si alguien programa un bot para hacer realizar acciones aleatorias y resulta que, con una de ellas, termina cometiendo un delito? Hemos hablado con José Leandro Núñez, abogado de Audens especialista en nuevas tecnologías, que nos explica que «que las cosas no tienen capacidad jurídica, y por tanto no pueden ser condenadas en caso de que cometan infracciones o delitos», incluso aunque tengan inteligencia artificial. «El bot no es sino un medio o herramienta para la realización del acto ilegal», nos comenta también Sergio Carrasco, abogado y cofundador de Derecho en Red.

Parece lógico ya que, a fin de cuentas, ¿cómo juzgas o condenas a un bot? ¿Qué se hace entonces? José Leandro nos dice lo siguiente: «el sistema trata de tirar del hilo, de encontrar a la persona causante de ese comportamiento. Una vez encontrada, se trata de determinar hasta qué punto es responsable de lo ocurrido: ¿programó el robot a sabiendas, para hacer cosas ilegales? ¿Lo hizo de forma imprudente, sin prever las posibles consecuencias? ¿Fue un simple hecho fortuito?».

Ambos abogados coinciden en que la clave de cada caso concreto es ver si se ha producido dolo (intención de causar el daño) o neglicencia por parte del programador. En caso de que esto llegue ante el juez, y según nos explica Sergio, «tendrás que demostrar que no ha habido voluntad de que realice dichas actuaciones, y habría que ver circunstancias como qué control se ejercía posteriormente sobre el bot.»

«La evolución de la misma herramienta no cambia ni las intenciones que tenía su desarrollador, ni la acción que va a realizarse (que ya se encuentra contemplada en el ordenamiento jurídico). Por lo tanto, no existe un sujeto diferenciado que sea el bot, ni hay laguna alguna al respecto», según Sergio Carrasco.

José Leandro va todavía más allá y nos pone otro ejemplo: la «posición de garante«. «Por ejemplo, se le aplica al propietario de un perro que se escapa y muerde a alguien… y creo que también se podría aplicar en este caso». De todas formas, y por lo que nos comentan, dependería de cada caso concreto, de cómo se ha programado el bot y de las explicaciones que se den ante el juez.

Si nos ceñimos al caso del bot que compra cosas, otro apunte importante que nos hace José Leandro:

«Por lo demás, otro tema interesante es la validez de las compras realizadas por estas máquinas: la Ley nos dice que para que una compra (o cualquier otro contrato) sea válido, tiene que haber consentimiento de las dos partes. Ahora bien, si la compra la realiza aleatoriamente una máquina, que carece de capacidad jurídica, ¿existe realmente consentimiento? ¡Todo un dilema! Estoy seguro de que en el futuro nos encontraremos con sentencias de este tipo»

¡Ojo! Hasta ahora estamos hablando de bots programados para hacer tareas «aleatorias». Esto no quiere decir que, si programas un bot para hacer cosas ilegales, te vayas a librar. En este caso, y si se ha programado intencionadamente para tal fin, el creador del software en cuestión sería sin duda alguna responsable de los delitos o daños causados.

El ¿peligro? de la automatización de tareas

Por ir un poco más allá y «rizar algo el rizo», hemos pensado en otra situación casi extrema: ¿qué ocurre si utilizas algún servicio como IFTTT, que te permite automatizar las tareas, para descargar todas las fotos de Instagram que publica una cuenta y, al final, resulta que una de estas imágenes era pornografía infantil? Tú no te la has descargado adrede, pero el programa la ha descargado y está en tu disco duro.

Si en tu disco duro hay algo ilegal que se ha descargado de forma automática y sin tu conocimiento, te tocará demostrarlo.

En este caso, la mera tenencia de un archivo de este tipo es un delito (se pena la posesión de pornografía infantil). Si su descarga ha sido efectivamente fortuita, te tocará probar ante el juez que ha sido tal. «Lo mismo sucedía cuando se descargaban películas de pornografía infantil ocultas como grandes éxitos de hollywood por ejemplo», explica Sergio. ¿Cómo lo pruebas? Demostrando que no hay más contenidos de ese tipo en tu ordenador, falta de habitualidad, cómo funciona la herramienta que lo ha hecho, etc.

Lo mismo afirma José Leandro: «Podría tratar de defenderse, basándonos en que no había intencionalidad, pero la persona en cuestión sería imputada con total seguridad». Por mucho que haya sido una descarga automática, eso no cambia que el poseer la imagen no sea un delito. En definitiva: podrías acabar frente a un juez y, a partir de ahí, deberías probar tu inocencia.

¿Y si un coche autónomo tiene un accidente?

Igual que ahora se culpa a los fabricantes de fallos en el diseño, los fallos en un sistema autónomo de conducción también tienen responsables.

Todo el asunto de la conducción autónoma presenta un dilema moral: si un coche va por una carretera y la única forma que tiene de esquivar un accidente es llevarse por delante a un peatón, ¿qué debe hacer el coche? ¿Qué vida vale más? ¿Y si el coche lleva seis ocupantes? Sobre este asunto profundizan en este interesantísimo artículo del New York Times, hablando de lo que se conoce como «matemáticas morales».

Pero ¿quién carga con la culpa si se produce un accidente de estas características por un error del coche autónomo? «Estamos hablando de una herramienta incorporada al vehículo (da igual que sea más o menos avanzada) con lo cual existirá responsabilidad al igual que sucede ahora», explica Sergio, que además nos pone un ejemplo: si un error con el diseño hace que los frenos fallen, el culpable es claro. Con los coches autónomos ocurriría algo similar.

 

 

José Leandro coincide con esta opinión: «tendríamos que ver quién es el culpable del accidente: el fabricante, por un error de diseño; la empresa, por falta de mantenimiento; el conductor, por toquetear los botones… o todos ellos». Y, además, hace una lectura muy interesante del asunto: «será muy complicado que veamos coches autónomos circulando por las carreteras hasta que se aclare el tema de las responsabilidades en caso de accidente.»

En resumen: los bots, los sistemas de inteligencia artificial o los sistemas de conducción autónoma no dejan de ser herramientas que son programadas por alguien para tal fin y de esa forma deben ser juzgadas en el caso de que exista algún problema con ellas. Así que, si tenías pensado programar un bot que compre aleatoriamente en la deep web, como hicieron los compañeros suizos, mejor que optes por otro proyecto distinto para evitar posibles problemas.

Fuente: Xataka y otros sitios. Aportado por Eduardo J. Carletti

Más información: