Tres son las leyes de la robótica: 1ª Un robot no hará daño a un ser humano ni permitirá, por inacción, que un ser humano sufra daño; 2ª Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley; y 3ª Un robot debe proteger su propia existencia siempre que ello no entre en conflicto con la primera o la segunda Ley. Así fueron formuladas por primera vez por el escritor Isaac Asimov en 1942 en su obra “Círculo vicioso”, icono de la ciencia ficción que, sin embargo, se ha convertido en una referencia ética en el mundo de los robots. Años más tarde, en 1985, añadió una nueva Ley (“La Ley cero”) en su novela “Robots e Imperio” que reza: Un robot no hará daño a la Humanidad ni permitirá, por inacción, que la Humanidad sufra daño.
En plena efervescencia robótica, y ante la inminencia de una invasión de androides que se ocupen de labores del hogar, cuidado de enfermos, etc., se está trabajando en humanoides “blandos” o “softrobotics”, diseñados con materiales flexibles que eviten hacer daño a los humanos. Además de los conocidos “NAO” y “Pepper”, ya existen otros como “Maggie” (usado para la rehabilitación de trastornos neuronales) o “Amor” (brazo robótico asistencial para cocinas adaptadas a personas discapacitadas). Tampoco será extraño la normalización de los cyborgs, personas con elementos robóticos integrados (y, quizás, también al contrario), dotados con facultades superiores a las del ser humano convencional, lo que les proporciona mayor facilidad para desarrollar determinadas tareas; y que, en todo caso, lograrán erradicar muchas de las discapacidades físicas que hoy no tienen cura.
Y la idea es que los robots no se limiten a ser meros artilugios mecánicos, sino que, con la finalidad de facilitarnos la vida, dispongan de inteligencia artificial (IA) capaz aprender nuestros gustos, preferencias y costumbres (“Machine learning”), controlando la domótica del hogar y dirigiéndose a nosotros mediante comandos de voz, como ya puede hacer la tecnología “Alexa” de Amazon.
En un futuro cercano determinados trabajos como camareros, transportistas, repartidores, recepcionistas, etc. (y quién sabe si más adelante podrán acceder a todo tipo de profesiones y actividades), sean realizados por seres robóticos dotados de inteligencia artificial, que adquirirían sus habilidades a través del llamado ”Deep learning”, aprendizaje alimentado por Big Data, en el que, en lugar de enseñarle al sistema algoritmos, se le proporciona un modelo y una reducida lista de instrucciones para modificarlo cuando se produzcan errores, de forma que sea capaz de extraer patrones.
Esto fue lo que abrió el debate sobre si los robots deberían pagar impuestos y cotizar a la Seguridad Social, para compensar a las arcas públicas (encargadas de pagar las prestaciones a los seres humanos) por los ingresos dejados de percibir por los puestos de trabajo perdidos por las personas sustituidas por robots en sus puestos de trabajo. Para ello sería necesario hacer una importante reforma legislativa, pues desde el punto de vista fiscal, no sería posible exigir el pago de un tributo a un robot, ya que el artículo 8 de la Ley 35/2006, de 28 de noviembre, del Impuesto sobre la Renta de las Personas Físicas hace referencia explícita a las personas físicas; y tampoco podría considerárselos a estos efectos como personas jurídicas contribuyentes, por no preverse en el artículo 7 de la Ley 27/2014, de 27 de noviembre, del Impuesto sobre Sociedades.
Asimismo, tampoco podrían los robots estar incluidos en el sistema de la Seguridad Social, ya que el concepto de persona electrónica no existe en el ordenamiento jurídico español y, por tanto, no aparecen relacionados en el artículo 7 (Extensión del campo de aplicación) del Real Decreto Legislativo 1/1994, de 20 de junio, por el que se aprueba el Texto Refundido de la Ley General de la Seguridad Social.
Este panorama hace que el referente ético marcado por Asimov no haya perdido vigencia, ya que el vertiginoso desarrollo de la robótica y la inteligencia artificial ha relegado al ser humano, por primera vez en la historia, del puesto de privilegio del que disfrutaba como el único preparado para tomar decisiones racionales; lo que ha provocado que muchos investigadores y estudiosos de todas las disciplinas aboguen por establecer un código ético mínimo que impida que detrás de esta inteligencia “autónoma” encubra una programación previamente dirigida, que tenga como finalidad que su autor esconda su responsabilidad detrás de ella.
El vertiginoso desarrollo de la robótica y la inteligencia artificial ha relegado al ser humano, por primera vez en la historia, del puesto de privilegio del que disfrutaba
La Unión Europea, que es sensible a esta cuestión, sin perder de vista la necesidad de su implantación, para no quedarnos rezagados en el desarrollo tecnológico y poder competir con otros países, especialmente, con Estados Unidos y China, en abril de 2019 ha publicado un documento –que ya anunciábamos en nuestro último artículo–, que contiene los siete principios éticos que debe cumplir el desarrollo de la inteligencia artificial, cuya finalidad es proteger a toda la sociedad, respetando la privacidad de los datos y previniendo previsibles errores y ataques. Y es que, según indica el propio documento, la dimensión ética de la inteligencia artificial no es una característica de lujo o un añadido, sino que tiene que ser parte integral de su desarrollo. Dichos siete principios son los siguientes:
1. La inteligencia artificial debe de ser supervisada por seres humanos, con las apropiadas medidas de contingencia.
2. Los sistemas de inteligencia artificial deben de ser resistentes y resilientes ante eventuales intentos de manipulaciones o de pirateo y dotarse de planes de contingencia.
3. Se debe de garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la inteligencia artificial.
4. La inteligencia artificial debe de ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera y quienes interactúen con esos sistemas deben saber que se trata de inteligencia artificial así como qué personas son sus responsables.
5. La inteligencia artificial debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que los algoritmos en que se base no tengan sesgos discriminatorios directos o indirectos.
6. El desarrollo tecnológico de la inteligencia artificial debe de tener en cuenta su impacto social y medioambiental de forma que sea sostenible y ecológicamente responsable.
7. La inteligencia artificial y sus resultados deben de rendir cuentas ante auditores externos e internos.
Se trata de un documento orientativo, cuya primera actualización está prevista para 2020, con vinculaciones legales y elaborado a partir del trabajo de un grupo interdisciplinar de expertos en la materia, y cuyos objetivos fundamentales son ganar la confianza de los ciudadanos en el sistema y prevenir fraudes, por lo que la normativa que se dicte por los Estados Miembros debe tener como finalidad incrementar el bienestar, observando los valores rectores de la Unión Europea, tales como el respeto a la dignidad humana, la democracia, la igualdad, el Estado de Derecho y los derechos humanos.
Javier López. Écija Abogados