Las Tres Leyes de la Robótica de la ciencia ficción deben ser ajustadas a la realidad

A menudo, los investigadores de inteligencia artificial idealizan las Leyes de la Robótica de Isaac Asimov como una guía certera para la interacción robot-humano. Sin embargo, algunos expertos en robótica dicen que ese diseño podría requerir un cambio que tenga en cuenta las limitaciones actuales de los robots

Los robots autoconscientes que aparecen en los cuentos de Asimov y en otras obras, como 2001: Odisea en el Espacio y Battlestar Galactica permanecen en un futuro lejano. Los robots de hoy en día siguen careciendo de todo tipo de autonomía real que les permita tomar sus propias decisiones o adaptarse inteligentemente a nuevos ambientes.

Pero los expertos advierten que puede aparecer el peligro si los humanos empujan a los robots más allá de sus límites actuales en la toma de decisiones. Esto puede llevar a cometer errores e incluso producir tragedias que impliquen robots en fábricas o en operaciones militares, si los humanos olvidan que la responsabilidad ética y legad aún descansa totalmente sobre los hombros del Homo sapiens.

«La fascinación con los robots ha llevado a alguna gente a tratar de saltearse la responsabilidad de tomar decisiones complejas, con consecuencias potencialmente malas”, dijo David Woods, ingeniero de sistemas en la Universidad Estatal de Ohio.

Woods y otro investigador que lo acompaña propusieron revisar las Tres Leyes y enfatizar la responsabilidad humana sobre los robots. También sugirieron que los que se manejen con robots en nuestro planeta deberían recibir consejos de la NASA cuando se trata de las interacciones robot-humano.

Actualizando a Asimov

Las Tres Leyes de Asimov fueron imaginadas para un futuro en el que los robots pueden pensar y actuar por sí mismos. La primera ley evita que los robots dañen a los humanos o que los humanos puedan ser dañados por una inacción del robot, la segunda ley obliga a los robots a obedecer las órdenes de los humanos, excepto que esto entrara en conflicto con la primera ley. La tercera ley obliga a que los robots protejan su propia existencia, excepto cuando el hacerlo entrara en conflicto con las dos leyes anteriores

Corea del Sur ha usado estas “leyes” como una guía para su Robot Ethics Charter (Carta de Ética Robótica), pero Woods y sus colegas creen que esta solución carece de algunos puntos vitales.

Woods trabajó junto con Robin Murphy, experta en robots de rescate de la Universidad de Texas A&M, para crear tres leyes que pongan a los humanos en la posición de adultos inteligentes y responsables de las relaciones robot-humano. Su primera ley dice que los humanos no deben implementar robots sin un sistema de trabajo que cumpla con los máximos estándares profesionales y legales de seguridad y ética. La segunda ley revisada obliga a que los robots respondan a los humanos de un forma que adecue a sus roles, y se asume que los robots son diseñados para responder a ciertas órdenes de un número limitado de humanos.

La tercera ley revisada dice que los robots deben tener suficiente autonomía como para proteger su propia existencia, siempre que esta protección no entre en conflicto con las dos leyes anteriores y permita una transferencia fluida de control entre humanos y robot. Esto significa que los robots de Marte deberían saber automáticamente que no deben ir hacia un acantilado, salvo que los operadores humanos le digan específicamente que lo hagan.

Woods y Murphy consideran necesaria esta revisión dado que los fabricantes de robots no reconocen la responsabilidad humana sobre los robots. Murphy dijo que esta actitud viene de la cultura de los programas de computadora, en lo que la responsabilidad implica menos consecuencias que al crear una máquina que puede terminar hiriendo a los humanos o dañando una propiedad.

“Lo que sucede es que vemos robotistas que nunca han realizado una manufactura o trabajado en el mundo físico, y no se dan cuenta de que son responsables”, dijo Murphy a SPACE.com. “Al final del día, si haces algo es problema tuyo”.

Ella contrastó esta actitud con la «cultura de la seguridad» de la NASA y la aproximación metódica que prueba con cuidado los robots y las sondas robóticas, reconoce los límites de los robots y procura asegurar que los operadores humanos puedan saltar rápidamente al asiento del conductor cuando sea necesario.

A la manera de la NASA

Tanto Woods como Murphy dijeron que se sienten confortables con la manera en que la NASA encara las interacciones robot-humano, ya sea las que implican brazos robóticos en la Estación Espacial Internacional o a la sonda Cassini en su viaje por el sistema de Saturno.

«Comprenden cuán valiosos son los recursos robóticos», explicó Woods. «Saben que tendrán sorpresas en la exploración espacial».

Murphy señala que el enfoque de la NASA con los robots viene de la tradición de la Inteligencia Artificial, donde la gente no hace asunciones sobre tener un control perfecto sobre todo. El lugar de eso, la agencia espacial ha usado sistemas de IA que pueden desenvolverse bien dentro de los patrones normales de operación, y siguen dependiendo de la asistencia humana para situaciones más inciertas.

Este enfoque le ha funcionado bien a la NASA en muchas ocasiones. Por ejemplo, los científicos han hecho hábiles reparaciones en los róvers de Marte Spirit y Opportunity, cuando los robots encontraron problemas no previstos en el terreno y con el clima marciano.

En contraste, algunos investigadores que no tienen una formación en IA asumen que pueden programar robots que tengan un modelo o visión completa del mundo, y que podrán comportarse adecuadamente en cualquier situación que se les presente. Esto coincide con la tentación de asumir que dar a los robots más autonomía significa que ellos pueden manejar la mayor parte de las situaciones, o todas, por sí mismos.

Murphy advirtió que este enfoque de «mundo cerrado» funciona únicamente en ciertas situaciones que presentan opciones limitadas para una IA. No importa cuánta programación se incluya en los robots, el mundo real abierto representa un agujero lleno de trampas en escenarios inesperados.

Transferencia de control

Indudablemente, la NASA aún desea tener robots que puedan tomar más responsabilidades, en especial en las misiones en las que las sondas viajan más allá de la Luna o Marte. Los investigadores han empezado a desarrollar la próxima generación de robots, que algún día podrían tomar más decisiones básicas al explorar las grandes lunas, como Europa o Titán.

Pero por ahora, la NASA reconoce que los robots siguen necesitando supervisión humana, un concepto que algunos fabricantes y operadores en la Tierra tienen problemas para aceptar. Las situaciones inesperadas, como un mal funcionamiento del robot o sorpresas del entorno pueden obligar a que los humanos recobren rápidamente el control del robot, si éstos fallan en acertar la respuesta correcta.

«Ahora mismo, lo que vemos una y otra vez es que la transfencia de control es problemática”, señala Murphy. Ella observó cuán rápido se les presentan problemas a los operadores humanos al manejar robots en «Disaster City» de Texas A&M”, un área de simulación de entrenamiento para rescatistas. Parte del problema también aparece cuando la gente no conoce las capacidades de su robot.

La NASA se da el lujo de tener un equipo de científicos vigilando sus exploradores robóticos, en lugar de simples operadores humanos. Pero los controladores de misión también tienen una gran conciencia de los límites de sus exploradores robóticos, y saben cómo tomar el control sin problemas.

«Ellos comprenden que cuando tienen un entorno seguro o de bajo riesgo, pueden delegar más autonomía en el robot», dijo Woods. «Cuando ocurren cosas inusuales, restringen la autonomía».

Woods comparó la situación con la de aquellos padres que colocan un perímetro de seguridad dentro del cual los niños pueden moverse y explorar. Esta analogía puede seguir siendo aplicable a la NASA y a otras personas que controlan robots.

La gente está dando un salto de fe para creer que la autonomía de los robots aumentará y resolverá nuestros problemas, añade Woods. «Pero no hay mucha evidencia de que la autonomía en sí hará que desaparezcan estas decisiones difíciles y de alto riesgo».

Fuente: Space.com: Aportado por Eduardo J. Carletti

Más información: