Las Leyes de la Robótica son un conjunto de leyes, reglas o principios, que están pensados como un marco fundamental para apuntalar el comportamiento de los robots diseñados para tener cierto grado de autonomía . Los robots de este grado de complejidad aún no existen, pero han sido ampliamente anticipados en la ciencia ficción , las películas y son un tema de investigación y desarrollo activo en los campos de la robótica y la inteligencia artificial .
El conjunto de leyes más conocido son los escritos por Isaac Asimov en la década de 1940, o basados en ellos, pero los investigadores han propuesto otros conjuntos de leyes en las décadas posteriores.
"Tres leyes de la robótica" de Isaac Asimov
El conjunto de leyes más conocido son las " Tres leyes de la robótica " de Isaac Asimov . Estos fueron introducidos en su cuento de 1942 " Runaround ", aunque fueron prefigurados en algunas historias anteriores. Las tres leyes son:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley. [1]
En The Evitable Conflict, las máquinas generalizan la Primera Ley para significar:
- "Ninguna máquina puede dañar a la humanidad; o, por inacción, permitir que la humanidad sufra daños".
Esto se refinó al final de Foundation and Earth , se introdujo una ley cero, con las tres originales adecuadamente reescritas como subordinadas a ella:
- 0. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Existen adaptaciones y extensiones basadas en este marco. A partir de 2011 siguen siendo un " dispositivo ficticio ". [2]
Principios de robótica EPSRC / AHRC
En 2011, el Consejo de Investigación en Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación en Artes y Humanidades (AHRC) del Reino Unido publicaron conjuntamente un conjunto de cinco "principios éticos para diseñadores, constructores y usuarios de robots" en el mundo real , junto con con siete "mensajes de alto nivel" destinados a ser transmitidos, basados en un taller de investigación de septiembre de 2010: [2] [3] [4]
- Los robots no deben diseñarse única o principalmente para matar o dañar a los seres humanos.
- Los seres humanos, no los robots, son agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
- Los robots deben diseñarse de manera que garanticen su seguridad y protección.
- Los robots son artefactos; no deben diseñarse para explotar a los usuarios vulnerables provocando una respuesta emocional o dependencia. Siempre debería ser posible distinguir un robot de un humano.
- Siempre debería ser posible averiguar quién es legalmente responsable de un robot.
Los mensajes que se pretendían transmitir eran:
- Creemos que los robots tienen el potencial de proporcionar un inmenso impacto positivo a la sociedad. Queremos fomentar la investigación robótica responsable.
- La mala práctica nos lastima a todos.
- Abordar las preocupaciones públicas obvias nos ayudará a todos a progresar.
- Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares de práctica posibles.
- Para comprender el contexto y las consecuencias de nuestra investigación, debemos trabajar con expertos de otras disciplinas, que incluyen: ciencias sociales, derecho, filosofía y artes.
- Deberíamos considerar la ética de la transparencia: ¿hay límites para lo que debería estar disponible abiertamente?
- Cuando vemos relatos erróneos en la prensa, nos comprometemos a tomarnos el tiempo para contactar a los periodistas informantes.
Los principios de EPSRC son ampliamente reconocidos como un punto de partida útil. En 2016, Tony Prescott organizó un taller para revisar estos principios, por ejemplo, para diferenciar los principios éticos de los legales. [5]
Desarrollo judicial
Ya se ha iniciado otra codificación terminológica integral para la evaluación jurídica de los avances tecnológicos en la industria de la robótica, principalmente en los países asiáticos. [6] Este progreso representa una reinterpretación contemporánea del derecho (y la ética) en el campo de la robótica, una interpretación que asume un replanteamiento de las constelaciones legales tradicionales. Estos incluyen principalmente cuestiones de responsabilidad legal en el derecho civil y penal.
Leyes de Satya Nadella
En junio de 2016, Satya Nadella , CEO de Microsoft Corporation en ese momento, tuvo una entrevista con la revista Slate y bosquejó aproximadamente cinco reglas para que las inteligencias artificiales sean observadas por sus diseñadores: [7] [8]
- "La IA debe estar diseñada para ayudar a la humanidad", lo que significa que se debe respetar la autonomía humana.
- "La IA debe ser transparente", lo que significa que los humanos deben saber y ser capaces de comprender cómo funcionan.
- "La IA debe maximizar la eficiencia sin destruir la dignidad de las personas".
- "La IA debe estar diseñada para una privacidad inteligente", lo que significa que se gana la confianza al proteger su información.
- "La IA debe tener una responsabilidad algorítmica para que los humanos puedan deshacer un daño involuntario".
- "La IA debe protegerse contra los prejuicios" para no discriminar a las personas.
"Leyes de la robótica" de Tilden
Mark W. Tilden es un físico robótico que fue pionero en el desarrollo de robótica simple. [9] Sus tres principios / reglas rectores para los robots son: [9] [10] [11]
- Un robot debe proteger su existencia a toda costa.
- Un robot debe obtener y mantener el acceso a su propia fuente de energía.
- Un robot debe buscar continuamente mejores fuentes de energía.
Lo que es notable en estas tres reglas es que se trata básicamente de reglas para la vida "salvaje", por lo que, en esencia, lo que Tilden declaró es que lo que quería era "proteger una especie de silicio en la sensibilidad, pero con control total sobre las especificaciones. No plantas. No animal. Algo más ". [12]
Ver también
- IA amigable
- Roboética
- Ética de la inteligencia artificial
- Robots militares que pueden diseñarse de manera que violen la Primera Ley de Asimov.
- Tres leyes del transhumanismo
- Las tres leyes de Clarke
- Leyes de Niven
Referencias
- ^ Asimov, Isaac (1950). Yo, Robot .
- ^ a b Stewart, Jon (3 de octubre de 2011). "¿Listo para la revolución de los robots?" . BBC News . Consultado el 3 de octubre de 2011 .
- ^ "Principios de robótica: regulación de robots en el mundo real" . Consejo de Investigaciones en Ingeniería y Ciencias Físicas . Consultado el 3 de octubre de 2011 .
- ^ Winfield, Alan. "Cinco principios robóticos - para humanos" . Nuevo científico . Consultado el 3 de octubre de 2011 .
- ^ Müller, Vincent C. (2017). "Obligaciones legales vs éticas - un comentario sobre los principios de la EPSRC para la robótica" . Ciencia de la conexión . doi : 10.1080 / 09540091.2016.1276516 .
- ^ bcc.co.uk: La era de los robots plantea un dilema ético. Enlace
- ^ Nadella, Satya (28 de junio de 2016). "La Asociación del Futuro" . Pizarra . ISSN 1091-2339 . Consultado el 30 de junio de 2016 .
- ^ Vincent, James (29 de junio de 2016). "Las reglas de Satya Nadella para la IA son más aburridas (y relevantes) que las Tres Leyes de Asimov" . The Verge . Vox Media . Consultado el 30 de junio de 2016 .
- ^ a b Hapgood, Fred (septiembre de 1994). "Robótica caótica" . Con cable (2.09).
- ^ Ashley Dunn. " Machine Intelligence, Part II: From Bumper Cars to Electronic Minds ", The New York Times, 5 de junio de 1996. Consultado el 26 de julio de 2009.
- ^ makezine.com: A Beginner's Guide to BEAM (La mayor parte del artículo es contenido solo por suscripción).
- ^ Hapgood, Fred (septiembre de 1994). "Robótica caótica (continuación)" . Con cable (2.09).