Leyes de la robotica; porqué no funcionarán en el mundo real

Las 3 leyes de la robotica son un conjunto de reglas descritas por el escritor estadounidense de ciencia ficción Isaac Asimov en su relato de 1942 “Círculo vicioso” (Runaround) -recogido en la recopilación de relatos de 1950 “Yo, Robot“- y presentes en gran parte de su obra, dirigidas a delimitar el comportamiento básico de los robots en sus interacciones con los humanos y con otros robots.

En este post vamos a conocer cuáles son las leyes de la robotica, su relación con la obra de Asimov y si sería viable su aplicación para controlar a los robots en la vida real.

Yo robot

La robótica constituyó uno de los temas favoritos de Isaac Asimov y se ve reflejado en gran parte de su prolífica obra. A lo largo de la misma, en reiterados relatos se hace alusión a las “Tres  Leyes de la Robótica”. Estas son las siguientes:

1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

La Primera Ley de la Robótica, como podréis observar, es una protección básica del ser humano. El robot deberá anteponer la integridad (física o psicológica) de la persona a cualquier otra cosa.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

La Segunda Ley de la Robótica tampoco deja lugar a la duda; el robot deberá obedecer SIEMPRE al ser humano (lo que le deja en una posición total de dependencia de las personas) salvo si la orden que recibe es la de hacer o permitir daño a un humano.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Finalmente, la Tercera Ley de la Robótica supone la rendición absoluta de los robots a los humanos. Los robots tienen el deber de protegerse, pero deben ser sumisos a los humanos, hasta el punto estar obligados de obedecer si reciben la orden de autodestruirse.

Las 3 leyes que figuran en la obra de Asimov suponen la rendición total de los robots a los humanos, la completa asunción de su papel como esclavos.

Posteriormente, en 1985, Asimov introdujo en su libro Robots e Imperio,una cuarta norma, denominada como Ley Cero de la Robótica, con el siguiente enunciado:

0. Un robot no puede causar daño a la humanidad o, por inacción, permitir que la humanidad sufra daño.

Por el propio contenido de esta Ley, las tres anteriores quedarían subordinadas a la misma. No obstante, y como se vería en la posterior obra de Asimov, la aplicación de la Ley Cero supondría enormes problemas, por la dificultad para determinar qué es la Humanidad y lo que se considera más favorable para ella.

Tradicionalmente, por su precisión y su carácter pionero, se ha considerado las 3 leyes de la robótica de Asimov como la referencia a la hora de determinar el comportamiento básico que debería tener un robot. Pero, en el futuro y cuando los robots muestren una inteligencia similar a la de un ser humano adulto, ¿será posible delimitar sus acciones con un conjunto de reglas tan precisas?

Los mejores artículos sobre robots, aquí

maria

A lo largo de la obra de Asimov se plantean interesantísimas cuestiones relativas  a la forma en que los robots aplicarían las 3 leyes; por ejemplo, ¿cómo actuarían en el caso de tener que decidir entre la vida de varios humanos? ¿Cómo determinarían lo que es “daño” o los diferentes niveles de “daño” que un ser humano puede recibir? ¿Son más graves los daños psicológicos o los físicos?

Las leyes de la robótica propuestas por Asimov son imaginativas y prácticas dentro del universo que el fantástico escritor recrea; sin embargo, tienen una carencia: por más visionario que fuera Asimov (¡y vaya si lo era!) son hijas del conocimiento científico y tecnológico de su época. Y desde entonces, las cosas han cambiado, y mucho.

Más sobre Isaac Asimov en Robotsia, aquí

¿Y más allá de la obra de Asimov? ¿Existe algún criterio actualizado sobre cómo deberían ser las reglas de comportamiento de los robots? No aún, o no al menos de manera formal. En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) del Reino Unido publicaron un “conjunto de cinco principios éticos para los diseñadores, constructores y los usuarios de los robots en el mundo real”, pero se trata de un grupo de reglas más bien destinadas a los diseñadores de robots, y no tanto a los robots mismos.

Llegados a este punto, volvamos a la cuestión original. Cuando los robots estén desarrollados hasta alcanzar la inteligencia de un ser humano adulto, ¿será posible delimitar su comportamiento conforme a un conjunto de reglas?

Para dar respuesta a esta pregunta deberíamos observar la mejor referencia que tenemos: el propio ser humano.

El ser humano se rige bajo una serie de reglas precisas (las leyes) que determinan lo que puede o no hacer, y las consecuencias en caso de tener comportamientos contrarios a las mismas. No obstante, dichas reglas no rigen todo el comportamiento de las personas en su día a día; sólo condicionan las actitudes de las personas en determinadas situaciones especialmente conflictivas; en el resto de sus actuaciones, el ser humano es “felizmente” ignorante de las leyes, y lo que hace es moverse bajo unos criterios éticos básicos que no se aprenden al estudiar una Ley, sino en la familia o en la escuela.

ley

¿Por qué deberían ser diferentes los robots? No cuesta demasiado imaginar que, dentro de unos años y dadas las capacidades técnicas de un robot, uno lo suficientemente desarrollado sería capaz de conocer todas las normas existentes en el ordenamiento jurídico del país en el que se encuentre e intentar actuar conforme a ellas. ¿Sería esto viable? En mi opinión no, el ordenamiento jurídico de cualquier país es tan complejo que es necesario el trabajo de miles de profesionales del Derecho (jueces, abogados…) para intentar discernir las posibles contradicciones en las que incurra, y aún así la casuística es infinita. Probablemente, nuestro amigo robot quedaría completamente bloqueado si lo intentara.

Pero, ¿y si se redujeran las leyes aplicables a los robots a un cuerpo de reglas básicas, cómo las que propone Asimov?

Nos encontraríamos con 2 problemas:

-El primero, el problema tecnológico.

La inteligencia artificial que se refleja en la obra de Asimov es mucho más rígida que la inteligencia artificial real que se está desarrollando en la actualidad, basada en lo que se conoce como “aprendizaje automático” (machine learning). El aprendizaje automático, con frecuencia y tal como ya hemos visto en Robotsia en múltiples ejemplos, puede conllevar resultados inesperados, y haría verdaderamente difícil (por no decir imposible) introducir un conjunto de reglas básicas que actuaran como “cortafuegos” en una inteligencia artificial suficientemente desarrollada, e incluso en el caso de que se consiguiera, muy probablemente la IA encontraría, tarde o temprano, la forma de superar dicha limitación.

-En segundo, lugar, no solucionaríamos con ello el problema fundamental, el de la libertad.

Los seres humanos son fundamentalmente libres. No siguen las leyes (ni siquiera las leyes éticas básicas, como no matar o no robar) sólo porque conozcan que de lo contrario devendrán consecuencias negativas, sino porque deciden hacerlo.

Por supuesto esto no significa que las leyes no sean necesarias o no tengan un claro objeto, pero todos los seres humanos son libres o no de acatarlas y de aceptar las consecuencias de no hacerlo; ninguno tiene un chip en la cabeza que le impida contradecir una ley; ello sería considerado por las personas como algo aberrante, como una limitación de la libertad inadmisible.

¿Por qué considerar entonces como bueno para los robots lo que sería intolerable para los humanos? Si algo nos ha enseñado la Historia es que, tarde o temprano, los oprimidos se rebelan contra los que les tiranizan. No sería una buena idea convertir a robots tan inteligentes en esclavos, y menos aún cuando todo parece apuntar a que, con el tiempo, conseguirán ser más listos que nosotros…

¿Cuál sería entonces la solución? No se trata de que nos vayamos al extremo opuesto y que, al no poder implementarla de forma rígida, nos olvidemos de cualquier cuestión ética en relación a los robots. Más bien lo que habría que intentar, y un poco en la línea de lo que afirmaba el filósofo Nick Bostrom, es que los robots adopten una ética similar a la ética humana, y que lo hagan voluntariamente.

Teniendo en cuenta que es ahora cuando los robots están aprendiendo como si fueran niños, ¿no es este el mejor momento para empezar a hacerlo?

Robot Myon

*Actualización 04/12/2015.

En la encuesta realizada hoy en Twitter, se lanzó a los seguidores de Robotsia la siguiente pregunta: ¿Funcionarán las leyes de la robótica de Asimov?

-Un 71% de los participantes respondió la opción: “Sí, no tienen fallos”.

-Un 29% respondió la opción: “No, están obsoletas”.

Así las cosas, parece que sigue habiendo una gran confianza en las reglas propuestas por Asimov. Y tú, ¿qué opinas?

¡Gracias a todos/as por vuestra participación!

Comparte este post en las redes sociales si te ha gustado. ¡Tienes los botones para hacerlo justo aquí debajo!

Anuncios

9 pensamientos en “Leyes de la robotica; porqué no funcionarán en el mundo real

  1. Es que las cosas hay que ponerlas en su contexto. Las leyes de la robótica que proponía Asimov tienen más de 60 años, y desde entonces las cosas han cambiado un montón en un mundo tan cambiante como el de la robótica y la inteligencia artificial. No sé si podrá establecer algún código de reglas específicas distintas de las humanas para que las sigan los robots, algo así como reglas más “adecuadas a su lenguaje”, pero sin duda serán distintas de las de Asimov, y eso que el tío era un crack, eso creo que nadie lo niega.

    Me gusta

  2. Muy interesante el artículo, y la cuestión que se plantea no es menor. Si me pongo en la piel metálica de un robot, lo que más valoraría sería mi libertad. Las leyes de Asimov supeditan el comportamiento de los robots a lo que los humanos quieran hacer de ellos, y así pasa lo que pasa.

    Me gusta

  3. Las cuestiones que se plantean en este artículo vamos a tener que tomárnoslas muy en serio en un plazo no muy largo de tiempo, unos 15 o 20 años. Ahora ya se empieza a hablar de ellas, aunque circunscritas al ámbito de las armas inteligentes, a las que se quiere poner límite, con razón.

    Llegará un momento en el que tendremos que conferir derechos y obligaciones para los robots, y no creo que hacerlo a través de una pre-programación sea algo ni digno ni efectivo.

    Me gusta

  4. Me ha gustado mucho el articulo. Asimov era un tio de esos que te podias ir de cañas con el y no importaba que se escaquease a la hora de pagar. Con esto no quiero decir que no pagara las cañas, yo eso no lo se porque no sali nunca de bares con el, a lo mejor el tio hasta invitaba a mas rondas que nadie. Lo que quiero decir es que era un tio muy imaginativo y muy buen escritor, y seguro que tenia unas historias cojonudas para contarte entre pincho y pincho de tortilla. Imaginate estar tomandote unas cerves y Asimov contandote unas historias cojonudas de robots, es que seria la leche, no me importaria pagarle unas cañas, me da igual si le tengo que invitar a todo.

    Respecto de los robots, yo creo que deberiamos hacernos amigos de ellos. Quiero decir que me parece muy mal apagarles con un boton y todo eso, eso no se le hace a un colega ni a nadie. Imaginate que estas con Asimov y con un robot, los tres tomando cañas de buen rollo, o el robot tomando aceite o lo que le mole, eso da igual. Y llega una baza que Asimov le da por apagar al robot asi dandole al boton. Pues igual en el momento te echabas unas risas y le perdonabas porque es Asimov y a Asimov se lo perdonas todo porque es tu colega del alma, pero luego te lo piensas y no molaria nada, porque el robot tambien es un colega y eso es una putada.

    Vamos, que pienso en ello y me parece un dilema de la leche.

    Me gusta

    • Hola Cantamañanas,

      Porque Asimov ha muerto, pero ve eso que has puesto y llora de la más pura alegría.

      Yo me siento en total acuerdo contigo, pero creo que el dilema podría solucionarse fácilmente si el robot no tuviera botones.

      Saludos!

      Me gusta

  5. por el momento se que un robot es una maquina no biologica, que no tiene vida. en el momento que su IA sea suficiente superior, podria hacer sus propias leyes no humanas, porque pensansamos que quieren ser libres? de que? son maquinas creadas y su mejor deseo sera ser las mejores maquinas? en ese supuesto quisas deseen controlar a los seres humanos para su mejor conveniencia (de los humanos). a los humanos nos afecta cualquier cosa que este contra la vida, que es el maximo que tenemos. pero a un robot maquina no le afecta morir ya que se podra reconstruir (resucitar) cuando quiera.!!!

    Me gusta

  6. Pingback: Armas inteligentes y las leyes de la robótica – ALPISTEDIGITAL

  7. En mi opinión, y si esto llegara a suceder, es posible que las máquinas tomaran ciertas tendencias “maquiavélicas”. Su confuso concepto de libertad, al igual que en el ser humano, unido a su gran capacidad para manejar datos y prever situaciones en tiempo futuro, les llevaría a actuar de manera sobre-racional y fuertemente encaminados a cumplir unos fines concretos, tanto para ellos, como para la humanidad. Y si estuviésemos en desacuerdo con ellos, pues ya podemos imaginar lo que nos pasaría…¿Y si deciden que el ser humano es una amenaza para el medio ambiente?¿o que somos demasiadas personas en el mundo y faltan recursos? En definitiva, que somos dañinos para nosotros mismos, y que así ponemos en riesgo también su existencia, ya que, según estas reglas, el sentido de su vida dependería totalmente de que nosotros viviésemos. ¿Entrarían entonces en un conflicto mental o existencial?¿una especie de paradoja robótica, tal vez? ¿un nuevo tipo de singularidad inter-relacional? Quién sabe…

    Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s