Allá por el año 1942, el gran escritor de ciencia ficción Isaac Asimov formuló tres leyes que los robots deben obedecer. En primer lugar, un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. En segundo lugar, un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley. En tercer lugar, un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o Segunda Ley.
Siete décadas después, las máquinas inteligentes impregnan la cultura popular – más recientemente en la película Ex Machina. Pero, más que eso, la tecnología de la inteligencia artificial (IA) está avanzando tan rápido que ya hay un intenso debate sobre cómo las leyes de Asimov se pueden implementar en el mundo real.
Los expertos difieren en la evaluación de lo cerca que estamos de robots a nivel humano: se tarda 20 años, 50 años, o más? Y filósofos debaten si la «conciencia» es especial para los cerebros húmedos, orgánicas de los seres humanos, monos y perros – así que los robots, aunque su intelecto parece sobrehumana, lo hará aún carecen de conciencia de sí mismo o de la vida interior. Pero no hay acuerdo de que estamos siendo testigos de un trascendental aceleración en el poder de las máquinas para aprender, comunicarse e interactuar con nosotros – que ofrece enormes beneficios, pero tiene desventajas debemos esforzarnos por evitar.
No hay nada nuevo acerca de las máquinas que pueden superar la capacidad mental en áreas especiales. Incluso las calculadoras de bolsillo de la década de 1970 podían hacer aritmética mejor que nosotros.
Las computadoras no aprenden como lo hacemos: utilizan métodos de «fuerza bruta». Su red interna es mucho más simple que un cerebro humano, pero lo compensan esta desventaja porque sus «nervios» y las neuronas transmiten mensajes por vía electrónica a la velocidad de la luz – millones de veces más rápido que la transmisión química en el cerebro humano. Computadoras aprenden a traducir de lenguas extranjeras mediante la lectura de versiones multilingües de (por ejemplo) a millones de páginas de documentos de la UE (que nunca se aburren!). Aprenden a reconocer a los perros, los gatos y los rostros humanos por crujir a través de millones de las imágenes – no de la forma de un bebé aprende.
Debido a que los ordenadores pueden procesar enormes cantidades de datos, pueden identificar las tendencias que los seres humanos, sin ayuda pasaría por alto. Así es como «quant» hedge funds hacen su dinero. Tal vez ya deberíamos preocuparnos de que los futuros «ordenadores hiper», el análisis de toda la información en el Internet, podría alcanzar poderes oraculares que ofrecen sus controladores creciente dominación de las finanzas y estrategia internacional.
Los avances en software y sensores han sido más lento que en la capacidad de procesamiento de datos numéricos. Los robots son todavía torpe en comparación con un niño en piezas en movimiento en un tablero de ajedrez real. Pero la tecnología de sensores, reconocimiento de voz, la búsqueda de información y así sucesivamente están avanzando a buen ritmo.
Coche sin conductor de Google ha cubierto ya cientos de miles de kilómetros. Pasarán años antes de que los robots pueden hacer frente a las emergencias, así como un buen conductor. Pero será mejor que el conductor promedio – errores de la máquina pueden ocurrir, pero no tan a menudo como un error humano. Las carreteras serán más seguras. Pero cuando se producen accidentes crearán un campo de minas legal. ¿Quién debe ser responsable – el «conductor», el propietario, o el diseñador?
Y ¿qué pasa con el uso militar de los robots autónomos «tontos»? ¿Se puede confiar que buscar a un individuo específico a través del reconocimiento facial y decidir si disparar su arma? ¿Quién tiene la responsabilidad moral, entonces?
Los robots están reemplazando a las personas en las plantas de fabricación. Y van a hacerse cargo de más de nuestros puestos de trabajo – no sólo el trabajo manual (de hecho trabajos como la fontanería y jardinería será uno de los más difíciles de automatizar), pero los trabajos de oficina, trabajo legal de rutina, el diagnóstico médico y operaciones. Pero la gran pregunta es la siguiente: ¿la llegada de la robótica ser como tecnologías disruptivas anteriores – el coche, por ejemplo, que crearon más puestos de trabajo, ya que destruyó? ¿O es realmente diferente esta vez como se ha argumentado, por ejemplo, en Erik Brynjolfsson y fino libro de Andrew McAfee, el segundo era de la máquina.
Estas innovaciones generarían enormes riquezas, pero no tendrían que ser masiva redistribución a través de impuestos para asegurarse de que todo el mundo tenía al menos un salario digno. Por otra parte, una vida de ocio – como disponibles, por ejemplo, a los ciudadanos de Qatar hoy – no conduce necesariamente a una sociedad sana.
Para el año 2050, si no antes, nuestra sociedad seguramente haber sido reclutado por robots. Pero serán sabios idiotas o van a mostrar las capacidades humanas llenas? Si los robots podían observar e interpretar su entorno como hábilmente como lo hacemos nosotros, serían percibidos como seres inteligentes que podríamos relacionar. ¿Podríamos entonces tienen la responsabilidad de ellos?
Y aquí es donde las leyes de Asimov vienen en. ¿Cómo podemos garantizar que los robots siguen siendo dócil en lugar de «ir rogue»? ¿Qué pasa si un equipo hiper desarrollado una mente propia? Se podría infiltrarse en la internet y manipular el resto del mundo. Incluso podría tratar a los humanos como un estorbo.
En la década de 1960 el matemático británico IJ Good – que trabajó en Bletchley Park con Alan Turing – señaló que un robot super-inteligente (eran lo suficientemente versátil) podría ser la última invención que los seres humanos necesitan siempre hacen. Una vez que las máquinas han sobrepasado las capacidades humanas, podrían ellos mismos diseñar y montar una nueva generación de incluso los más poderosos. O podrían ser humano trascender la biología mediante la fusión con los ordenadores, tal vez perder su individualidad y evolucionando hacia una conciencia común?
No sabemos donde el límite se encuentra entre lo que puede suceder y lo seguirá siendo ciencia ficción. Pero algunos de los que tienen las credenciales fuertes piensan que el campo de la IA ya necesita directrices para la «innovación responsable». Muchos de ellos estaban entre los signatarios – junto con ansiedad no expertos como yo – de una reciente carta abierta sobre la necesidad de garantizar la innovación responsable en la IA.
En escritos posteriores, Asimov añadió una cuarta ley: Un robot no debe dañar a la humanidad, o por inacción permitir que la humanidad sufra daño. Tal vez los desarrolladores de IA deben ser conscientes de que la ley, así como los otros tres.
Martin Rees es astrónomo real y co-fundador del Centro para el Estudio de Riesgos existenciales en la Universidad de Cambridge.
Fuente : http://www.standard.co.uk
photo credit: isfullofcrap via photopin cc