Tres leyes de la robótica de Asimov
El bioquímico estadounidense de origen soviético Isaac Asimov (1919 o 1920-1992) es uno de los personajes más influyentes de la robótica y destacó en el mundo literario gracias a una gran cantidad de obras publicadas sobre ciencia ficción, divulgación e incluso historia.
En uno de sus relatos, concretamente Círculo vicioso (del año 1942), enunció las tres leyes de la robótica, consideradas como la base ética y moral sobre la que desarrollar los sistemas autónomos:
- Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Ley Cero: la cuarta ley de la robótica de Isaac Asimov
El propio autor añadió cuatro décadas más tarde, en 1985 en su obra Robots e imperio, la considerada como cuarta ley de la robótica, llamada Ley Cero.
En ella, Asimov afirmaba lo siguiente:
- Un robot no puede causar daño a la humanidad o, por inacción, permitir que la humanidad sufra daño.
Frankenstein, en el origen de las leyes de Asimov
¿Pero por qué surgen estas leyes?
El escritor afincado en Nueva York acuñó el término “complejo de Frankenstein” para resumir el miedo que podían sentir los humanos a que seres de su creación se alzaran precisamente contra sus creadores, tal y como ocurría en la novela Frankenstein o el moderno Prometeo de la escritora británica Mary Shelley.
Como curiosidad, el germen de esta novela se halla en un encuentro que Shelley y su marido, Percy Shelley, mantuvieron con Lord Byron (padre de Ada Lovelace) y su médico, el también escritor John Polidori, en Ginebra en 1816, el conocido año sin verano por las consecuencias de la erupción de un volcán indonesio meses atrás.
Ante las inclemencias del tiempo y para evitar salir a la intemperie, Byron les retó a escribir un relato de terror a cada uno. Y de allí surgió el origen de Frankenstein para Shelley; además, también salió de este encuentro entre amigos el origen del vampiro romántico como subgénero literario, con El vampiro de Polidori.
Así que quién sabe… sin la erupción del Tambora quizá no se habría llegado a escribir Frankenstein, y la inquietud por cómo éste se rebelaba no habría desembocado en que Asimov enunciara las leyes de la robótica.
Leyes de la robótica posteriores a Asimov
Robótica responsable
Pero volviendo precisamente a estas leyes de la robótica, la enunciación desde una perspectiva teórica hace varias décadas lleva a la duda de cómo pueden aplicarse de forma práctica o de qué manera pueden actualizarse ante los avances de la robótica y la inteligencia artificial, que aunque sean similares no son lo mismo.
Un ejemplo de aplicaciones actualizadas (y más centradas en el plano práctico que en el teórico/literario de Asimov) sería la de Robin Murphy y David D. Woods en el artículo del año 2009 Beyond Asimov: The Three Laws of Responsible Robotics.
En una traducción de Ignacio Gavilán, estas tres leyes de la robótica responsable son:
- Un humano no debe desplegar un robot sin que el sistema de trabajo humano-robot cumpla los más altos estándares legales y profesionales relativos a ética y seguridad.
- Un robot debe responder ante los humanos, en una manera adecuada al rol del humano.
- Un robot debe estar dotado de una suficiente autonomía contextualizada como para proteger su propia existencia siempre y cuando dicha protección disponga de una transferencia de control sencilla a otros agentes de una forma consistente con la primera y segunda leyes.
Principios éticos para diseñadores, constructores y usuarios de robots
Ya en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Reino Unido publicaban sus cinco principios éticos para diseñadores, constructores y usuarios de robots:
- Los robots no deben diseñarse única o principalmente para matar o dañar a los humanos.
- Los humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para alcanzar objetivos humanos.
- Los robots deben diseñarse de forma que garanticen su seguridad.
- Los robots son artefactos; no deben diseñarse para explotar a usuarios vulnerables evocando una respuesta emocional o dependencia. Siempre debe ser posible distinguir un robot de un ser humano.
- Siempre debe ser posible averiguar quién es legalmente responsable de un robot.
Reglas para la IA de Satya Nadella
En el año 2016, el CEO de Microsoft, Satya Nadella, propuso unas reglas para la inteligencia artificial:
- Debe ayudar a la humanidad y respetar su autonomía.
- Ha de ser transparente y explicable para entender por qué los algoritmos toman determinadas decisiones.
- Debe maximizar la eficacia sin destruir la dignidad de las personas.
- Ser diseñada para preservar la privacidad de manera inteligente.
- Debe tener responsabilidad algorítmica.
- Estar protegida frente a los estereotipos o sesgos.
Otros principios a tener en cuenta en las reglas para la inteligencia artificial son:
- También debe de ser sostenible, teniendo en cuenta el impacto ambiental y social a largo plazo.
- Debe ser segura y resistente a ataques y vulnerabilidades.
- Debe de ser justa, evitando la discriminación y promoviendo la equidad en la sociedad.
Conclusión
Desde que fueron enunciadas por Asimov en el ámbito literario en 1942, la evolución de la tecnología en general y de la robótica y la IA en particular, ha hecho que las leyes de la robótica (e incluso ya de la inteligencia artificial) hayan tenido que ir adaptándose a las nuevas realidades que se han ido presentando con el paso del tiempo.