Las leyes de Asimov.


Mucho se ha hablan estos tiempos de la robotización de muchos empleos y poco de la como se pueden relacionar con los humanos. Seguramente porque los robots que vendrán no se parecerán a los que se han imaginado en la literatura de ciencia ficción. Pocos de ellos serán antropomorfos, al menos poco de los que he visto publicado. Y en estos días se han juntado dos noticias que me han recordado al mismo escritor, Isaac Asimov. Por un lado un equipo de programadores han desarrollado un módulo de programación que hará:

Que asistentes virtuales, robots o incluso coches autónomos tomen no sólo la mejor decisión, sino también la más ética, es el objetivo del sistema ideado por un equipo multidisciplinar español, empeñado en dotar de valores morales a la inteligencia artificial.

Ethyka, como se llama el módulo de programación en Inteligencia Artificial desarrollado por la compañía Acuilae, asegura tener en cuenta diversos patrones éticos y morales y comportamientos humanos para permitir a los robots o sistemas autónomos a analizar dilemas complejos y actuar de la mejor forma posible

Y la otra noticia es que hará en serie  de la saga de la Fundación. Aunque no se dice si todo el ciclo de libros o solo una parte. Y tras desecharlo muchas productoras al final será Apple quién lo intente.

Si me interesa Asimov es porque los primeros libros los conocí porque los tenia mi padre, y pude compartir con él la llegada de los segundos. Ese primer bloque

Y a partir de 1982 es  cuando escribe el resto de libros a los que junto con los tres anteriores forman esa Serie de la Fundación que forman un total de 16 libros.

Asimov a sido un autor muy prolífico pero solo recuerdo que se hayan hecho productos audiovisuales en el El Viaje Alucinante (1966), El Hombre Bicentenario y Yo, robot (2004)

Y aquí llegamos a juntar la Ethyka ese módulo de programación con Asimov

Asimov nos dejó unos criterios por los que se deberán regir la programación de un robot. Son las tres leyes de la robótica:

  1. Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.​

El propio autor acabará desarrollando una   ley cero de la robótica (“Zeroth law”, en inglés) como corolario filosófico de la primera:

 

Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

¿Creeis que alguno de los sistemas robóticos del futuro nos protejerá como establece Asimov. ?

 

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

w

Conectando a %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.