La ética de los robots , a veces conocida como " roboética ", se refiere a los problemas éticos que ocurren con los robots, como si los robots representan una amenaza para los humanos a largo o corto plazo, si algunos usos de los robots son problemáticos (como en el cuidado de la salud o como ' asesino robots 'en la guerra), y cómo los robots deben diseñarse para que actúen' éticamente '(esta última preocupación también se llama ética de la máquina ). Alternativamente, la roboética se refiere específicamente a la ética del comportamiento humano hacia los robots, ya que los robots se vuelven cada vez más avanzados. [1]La ética de los robots es un subcampo de la ética de la tecnología, específicamente la tecnología de la información, y tiene vínculos estrechos con preocupaciones legales y socioeconómicas. Investigadores de diversas áreas están comenzando a abordar cuestiones éticas sobre la creación de tecnología robótica y su implementación en las sociedades, de una manera que aún garantice la seguridad de la raza humana. [2]
Si bien los temas son tan antiguos como la palabra robot , alrededor del año 2000 se iniciaron serias discusiones académicas. La ética de los robots requiere el compromiso combinado de expertos de varias disciplinas, quienes deben ajustar las leyes y regulaciones a los problemas derivados de los logros científicos y tecnológicos Robótica e IA. Los principales campos involucrados en la ética de los robots son: robótica , informática , inteligencia artificial , filosofía , ética , teología , biología , fisiología , ciencia cognitiva , neurociencias , derecho , sociología , psicología y diseño industrial .
Historia y eventos
Algunas de las discusiones centrales de la ética en relación con el tratamiento de las cosas no humanas o no biológicas y su potencial "espiritualidad". Otro tema central, tiene que ver con el desarrollo de maquinaria y eventualmente robots, esta filosofía también se aplicó a la robótica. Una de las primeras publicaciones que abordó directamente y sentó las bases de la ética de los robots fue Runaround (historia) , un cuento de ciencia ficción escrito por Isaac Asimov en 1942 que presentaba sus conocidas Tres leyes de la robótica . Estas tres leyes fueron continuamente alteradas por Asimov, y finalmente se agregó una cuarta, o ley cero, para preceder a las tres primeras, en el contexto de sus obras de ciencia ficción . El término "roboética" a corto plazo probablemente fue acuñado por Gianmarco Veruggio. [3]
Un evento importante que impulsó la preocupación de la roboética fue el Primer Simposio Internacional sobre Roboética en 2004 por el esfuerzo de colaboración de la Scuola di Robotica, el Laboratorio de Artes de la Scuola Superiore Sant'Anna, Pisa, y el Instituto Teológico de Pontificia Accademia della Santa Croce, Roma. [4] "Después de dos días de intenso debate, la antropóloga Daniela Cerqui identificó tres posiciones éticas principales que emergen de dos días de intenso debate:
- Aquellos que no están interesados en la ética. Consideran que sus acciones son estrictamente técnicas y no creen tener una responsabilidad social o moral en su trabajo.
- Quienes estén interesados en cuestiones éticas a corto plazo. Según este perfil, las preguntas se expresan en términos de “bueno” o “malo” y se refieren a algunos valores culturales. Por ejemplo, sienten que los robots deben adherirse a las convenciones sociales. Esto incluirá “respetar” y ayudar a los seres humanos en diversas áreas, como implementar leyes o ayudar a las personas mayores. (Tales consideraciones son importantes, pero hay que recordar que los valores que se utilizan para definir lo “malo” y lo “bueno” son relativos. Son los valores contemporáneos de los países industrializados).
- Aquellos que piensan en términos de cuestiones éticas a largo plazo, sobre, por ejemplo, la “brecha digital” entre el Sur y el Norte, o entre jóvenes y ancianos. Son conscientes de la brecha entre países industrializados y países pobres, y se preguntan si los primeros no deberían cambiar su forma de desarrollar la robótica para ser más útil para el Sur. No formulan explícitamente la pregunta para qué, pero podemos considerar que está implícita ”. [5]
Estos son algunos eventos y proyectos importantes en la ética de los robots. Otros eventos en el campo se anuncian con el grupo de temas euRobotics ELS , y por RoboHub :
- 1942: El cuento de Asimov " Runaround " declara explícitamente sus Tres Leyes por primera vez. Estas "leyes" serán reutilizadas en trabajos posteriores de ciencia ficción relacionada con los robots de Asimov.
- 2004: Primer Simposio Internacional sobre Roboética , organizado por la Escuela de Robótica , donde la palabra Roboética se utiliza oficialmente por primera vez (30-31 de enero de 2004, Villa Nobel, San Remo , Italia ).
- 2004: IEEE-RAS establece un Comité Técnico sobre Roboética .
- 2004: Declaración mundial de robots de Fukuoka (25 de febrero de 2004, Fukuoka , Japón ).
- 2005: El IEEE RAS TC sobre Roboética organiza el ICRA05 (Congreso Internacional de Robótica y Automatización), Taller de Roboética, (18 de abril de 2005, Barcelona , España ).
- 2005-2006: EC Euron Roboethics Atelier . El Proyecto Euron , coordinado por la Escuela de Robótica , involucró a un gran número de especialistas en robótica y estudiosos de humanidades que produjeron la primera Hoja de ruta para una Roboética (febrero / marzo de 2006, Génova , Italia )
- 2006: BioRob2006 , la primera conferencia internacional IEEE / RAS-EMBS sobre robótica biomédica y biomecatrónica; Mini simposio sobre Roboética (20 de febrero de 2006, Pisa , Italia ).
- 2006: Taller internacional "Ética de la interacción humana con sistemas robóticos, biónicos y de IA: conceptos y políticas" ; apoyado por el Proyecto Europeo ETHICBOTS (17-18 de octubre de 2006, Nápoles , Italia ).
- 2007: El IEEE RAS TC sobre Roboética organiza otro Taller sobre Roboética , ICRA07 (Conferencia Internacional sobre Robótica y Automatización), (14 de abril de 2007, Roma , Italia ).
- 2007: ICAIL'07 , Conferencia internacional sobre inteligencia artificial y derecho , (4 a 8 de junio de 2007, Universidad de Stanford , Palo Alto , CA , EE . UU .).
- 2007: Conferencia europea internacional sobre informática y filosofía E-CAP '07 , tema: "roboética" (21-23 de junio de 2007, Universidad de Twente , Países Bajos ).
- 2007: Investigación filosófica sobre ética informática CEPE '07 , tema: "Roboética" (12-14 de julio de 2007, Universidad de San Diego , CA , EE . UU .).
- 2008: SIMPOSIO INTERNACIONAL DE ROBÓTICA: NUEVA CIENCIA (20 de febrero de 2008, Via della Lungara 10, Roma , Italia ).
- 2009: El IEEE RAS TC sobre Roboética organiza otro Taller sobre Roboética , ICRA09 (Conferencia Internacional sobre Robótica y Automatización), (17 de mayo de 2009, Kobe , Japón ).
- 2012: We Robot 2012 ( Universidad de Miami , FL , EE . UU .).
- 2013: Workshop on Robot Ethics (febrero de 2013, Universidad de Sheffield , South Yorkshire , Inglaterra ).
- 2013: We Robot 2013 - Getting Down to Business ( Universidad de Stanford , Palo Alto , CA , EE . UU .).
- 2014: We Robot 2014 - Riesgos y oportunidades ( Universidad de Miami , FL , EE . UU .).
- 2016: Consideraciones éticas y morales en agentes no humanos, Simposio de primavera de Stanford , Asociación AAAI para el avance de la inteligencia artificial [1] ( Universidad de Stanford , Palo Alto , CA , EE . UU .).
- 2017: Cumbre sobre inversiones futuras en Riad ; un robot (llamado Sophia y al que se hace referencia con pronombres femeninos) obtiene la ciudadanía de Arabia Saudita , convirtiéndose en el primer robot en tener una nacionalidad. [6] [7] Esto genera controversia debido a la ambigüedad sobre varios temas, por ejemplo, si Sophia puede votar o casarse, o si un cierre deliberado del sistema debe considerarse asesinato. Además, la yuxtaposición de los derechos otorgados a las mujeres saudíes con la consideración saudita de que un robot es un ciudadano pronto atraerá críticas de varios proveedores de noticias [8] [9] (25 de octubre de 2017, Riad , Arabia Saudita).
- 2017: Se crea el AI Now Institute (AI Now) en NYU , un instituto de investigación que estudia las implicaciones sociales de la inteligencia artificial (15 de noviembre de 2017, Nueva York , NY , EE . UU .).
La científica informática Virginia Dignum señaló en una edición de marzo de 2018 de Ethics and Information Technology que la actitud general de la sociedad hacia la inteligencia artificial (IA), en la era moderna, ha dejado de ver la IA como una herramienta y la ha visto como un "equipo inteligente". -compañero". En el mismo artículo, evaluó que, con respecto a la inteligencia artificial, los pensadores éticos tienen tres objetivos, cada uno de los cuales, según ella, se puede lograr en la era moderna con una cuidadosa reflexión e implementación. [10] [11] [12] [13] [14] Los tres objetivos éticos son los siguientes:
- Ética por diseño (la integración técnica / algorítmica de las capacidades de razonamiento ético como parte del comportamiento de un sistema autónomo artificial; consulte Ética de las máquinas );
- Ética en el diseño (los métodos regulatorios y de ingeniería que apoyan el análisis y la evaluación de las implicaciones éticas de los sistemas de IA, ya que estos integran o reemplazan las estructuras sociales tradicionales); y
- Ética para el diseño (los códigos de conducta, los estándares y los procesos de certificación que garantizan la integridad de los desarrolladores y usuarios mientras investigan, diseñan, construyen, emplean y administran sistemas inteligentes artificiales; consulte Ética y leyes de robots a continuación). [15]
En la cultura popular
La roboética como tema científico o filosófico ha comenzado a ser un tema común en la literatura y el cine de ciencia ficción. Una película que se podría argumentar que está arraigada en la cultura pop y que describe el futuro uso distópico de la IA robótica es The Matrix , que describe un futuro en el que los humanos y la IA consciente luchan por el control del planeta tierra, lo que resulta en la destrucción de la mayor parte de la raza humana. . Una película animada basada en The Matrix , The Animatrix , se centró en gran medida en los posibles problemas éticos e inseguridades entre humanos y robots. La película está dividida en cuentos. Los cortos animados de Animatrix también llevan el nombre de las historias de ficción de Isaac Asimov.
Otra faceta de la roboética se refiere específicamente al tratamiento de los robots por parte de los humanos y se ha explorado en numerosas películas y programas de televisión. Un ejemplo de ello es Star Trek: The Next Generation , que tiene un androide humanoide, llamado Data , como uno de sus personajes principales. En su mayor parte, se le confía el trabajo de misión crítica, pero a menudo se cuestiona su capacidad para adaptarse a los demás seres vivos. [16] Más recientemente, la película Ex Machina y el programa de televisión Westworld han abordado estas cuestiones éticas de manera bastante directa al representar robots hiperrealistas que los humanos tratan como mercancías intrascendentes. [17] [18] Las preguntas en torno al tratamiento de los seres diseñados también han sido un componente clave de Blade Runner (franquicia) durante más de 50 años. [19] Películas como Ella incluso han destilado aún más la relación humana con los robots al eliminar el aspecto físico y centrarse en las emociones.
Aunque no es parte de la roboética per se , el comportamiento ético de los propios robots también ha sido un tema común a la roboética en la cultura popular. La serie Terminator se centra en robots dirigidos por un programa de inteligencia artificial consciente sin restricciones en la eliminación de sus enemigos. Esta serie también tiene el mismo arquetipo que la serie Matrix , donde los robots han tomado el control. Otro caso famoso de la cultura pop de robots o IA sin ética o moral programadas es HAL 9000 en la serie Space Odyssey , donde HAL (una computadora con capacidades avanzadas de IA que monitorea y ayuda a los humanos en una estación espacial) mata a todos los humanos a bordo para garantizar el éxito de la misión asignada después de que su propia vida se vea amenazada. [20]
Ley y ética de los robots
Con los problemas tecnológicos contemporáneos que surgen a medida que la sociedad avanza, un tema que requiere una reflexión profunda es la ética de los robots en relación con la ley. Los académicos han estado debatiendo el proceso de cómo un gobierno podría crear una legislación con ética y ley de robots. Un par de académicos que han estado haciendo estas preguntas son el profesor de derecho Neil M. Richards en la Universidad de Washington en St. Louis, así como el profesor asociado de ciencias de la computación William D. Smart en la Universidad de Washington en St. Louis. En su artículo "¿Cómo deberían pensar los robots sobre la ley?", Hacen cuatro afirmaciones principales sobre la ética y la ley de los robots. [21] El fundamento de su argumento se basa en la definición de robot como "agentes autónomos no biológicos que creemos captura la esencia de los desafíos regulatorios y tecnológicos que presentan los robots, y que podría ser útil la base de la regulación". En segundo lugar, la pareja explora las futuras capacidades avanzadas de los robots dentro de unas décadas. Su tercer reclamo argumenta una relación entre los problemas legales, la ética de los robots y las experiencias legales con las experiencias legales del ciberderecho. Lo que significa que las leyes de ética de los robots pueden buscar orientación en las leyes cibernéticas. La "lección" aprendida de la ley cibernética es la importancia de las metáforas en las que entendemos los problemas emergentes en tecnología. Esto se basa en que si nos equivocamos con la metáfora, por ejemplo, la legislación que rodea al problema tecnológico emergente probablemente sea incorrecta. La cuarta afirmación contra la que argumentan es una metáfora que la pareja define como "La falacia de Android". Argumentan contra la falacia de los androides que afirma que los seres humanos y las entidades no biológicas son "como las personas".
Investigación empírica
Existe evidencia mixta sobre si las personas juzgan el comportamiento de los robots de manera similar a los humanos o no. Alguna evidencia indica que las personas ven el mal comportamiento de manera negativa y el buen comportamiento de manera positiva, independientemente de si el agente del comportamiento es un humano o un robot; sin embargo, los robots reciben menos crédito por su buen comportamiento y más culpa por su mal comportamiento. [22] Otra evidencia sugiere que el comportamiento malévolo de los robots se considera más moralmente incorrecto que el comportamiento benévolo como moralmente correcto; El comportamiento del robot malévolo se considera más intencional que el comportamiento benévolo. [23] En general, los juicios morales de las personas sobre robots y humanos se basan en las mismas justificaciones y conceptos, pero las personas tienen diferentes expectativas morales al juzgar a humanos y robots. [24] La investigación también ha encontrado que cuando las personas intentan interpretar y comprender cómo los robots deciden comportarse de una manera particular, pueden ver que los robots usan reglas generales (avanzar a sí mismo, hacer lo correcto, avanzar a los demás, hacer lo que es lógico, y hacer lo que es normal) que se alinean con las doctrinas éticas establecidas (egoísmo, deontología, altruismo, utilitarismo y normativo). [25]
Ver también
- Ética de la máquina
- Derechos de robot
Notas
- ^ Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics , Springer Berlin Heidelberg, págs. 1499-1524, doi : 10.1007 / 978-3-540-30301-5_65 , ISBN 9783540303015
- ^ "Ética de los robots" . Sociedad de Robótica y Automatización IEEE . Consultado el 26 de junio de 2017 .
- ^ Tzafestas, Spyros G. (2016). Roboethics Una descripción general de la navegación . Cham: Springer. pag. 1. ISBN 978-3-319-21713-0.
- ^ "Portada de ROBOÉTICA" . www.roboethics.org . Consultado el 29 de septiembre de 2020 .
- ^ http://www.roboethics.org/icra2005/veruggio.pdf
- ^ "Arabia Saudita otorga la ciudadanía a un robot no musulmán de habla inglesa" . Newsweek . 26 de octubre de 2017.
- ^ "Arabia Saudita otorga la ciudadanía a un robot llamado Sophia" . TechCrunch . 26 de octubre de 2017 . Consultado el 27 de octubre de 2016 .
- ^ "Arabia Saudita da un paso aterrador hacia el futuro al otorgar la ciudadanía a un robot" . AV Club . 26 de octubre de 2017 . Consultado el 28 de octubre de 2017 .
- ^ "Arabia Saudita criticada por otorgar la ciudadanía robot femenina, mientras restringe los derechos de las mujeres - ABC News" . Abcnews.go.com . Consultado el 28 de octubre de 2017 .
- ^ Rahwan, Iyad (2018). "Sociedad en el bucle: programación del contrato social algorítmico". Ética y Tecnología de la Información . 20 : 5-14. arXiv : 1707.07232 . doi : 10.1007 / s10676-017-9430-8 . S2CID 3674879 .
- ^ Bryson, Joanna (2018). "La paciencia no es una virtud: el diseño de sistemas inteligentes y sistemas de ética" . Ética y Tecnología de la Información . 20 : 15-26. doi : 10.1007 / s10676-018-9448-6 .
- ^ Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). "La inteligencia artificial alineada con los humanos es un problema multiobjetivo" . Ética y Tecnología de la Información . 20 : 27–40. doi : 10.1007 / s10676-017-9440-6 . hdl : 1959.17 / 164225 . S2CID 3696067 .
- ^ Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). "Ética incorporada: algunos desafíos técnicos y éticos" (PDF) . Ética y Tecnología de la Información . 20 : 41–58. doi : 10.1007 / s10676-018-9444-x . S2CID 3697093 .
- ^ Arnold, Thomas; Scheutz, Matthias (2018). "El 'gran botón rojo' es demasiado tarde: un modelo alternativo para la evaluación ética de los sistemas de IA". Ética y Tecnología de la Información . 20 : 59–69. doi : 10.1007 / s10676-018-9447-7 . S2CID 3582967 .
- ^ Dignum, Virginia (2018). "Ética en Inteligencia Artificial: Introducción a la Edición Especial" . Ética y Tecnología de la Información . 20 : 1-3. doi : 10.1007 / s10676-018-9450-z .
- ^ Breve, Sue (1 de enero de 2003). "¿La medida de un hombre?: Hombre bicentenario de Asimov, datos de Star Trek y ser humano". Extrapolación . 44 (2): 209–223. doi : 10.3828 / extr . 2003.44.2.6 . ISSN 0014-5483 .
- ^ Personal, Pacific Standard. "¿Puede 'Westworld' darnos nuevas formas de hablar sobre la esclavitud?" . Estándar del Pacífico . Consultado el 16 de septiembre de 2019 .
- ^ Parker, Laura (15 de abril de 2015). "Cómo 'Ex Machina' se destaca por no temer a la inteligencia artificial" . El Atlántico . Consultado el 16 de septiembre de 2019 .
- ^ Kilkenny, Katie. "El sentido de la vida en 'Blade Runner 2049 ' " . Estándar del Pacífico . Consultado el 16 de septiembre de 2019 .
- ^ Krishnan, Armin (2016). Robots asesinos: legalidad y ética de las armas autónomas . www.taylorfrancis.com . Routledge. doi : 10.4324 / 9781315591070 . ISBN 9781315591070. Consultado el 16 de septiembre de 2019 .
- ^ Richards, Neil M .; Inteligente, William D. (2013). "¿Cómo debería pensar la ley acerca de los robots?". SSRN 2263363 .
- ^ Banks, Jaime (10 de septiembre de 2020). "Buenos robots, malos robots: efectos del comportamiento moralmente valenciano en la mente percibida, la moralidad y la confianza" . Revista Internacional de Robótica Social . doi : 10.1007 / s12369-020-00692-3 .
- ^ Swiderska, Aleksandra; Küster, Dennis (2020). "Robots como agentes morales malévolos: resultados de comportamiento dañino en deshumanización, no antropomorfismo". Ciencia cognitiva . 44 (7): e12872. doi : 10.1111 / cogs.12872 . PMID 33020966 .
- ^ Voiklis, John; Kim, Boyoung; Cusimano, Corey; Malle, Bertram F. (agosto de 2016). "Juicios morales de agentes humanos vs robots". 2016 25º Simposio Internacional IEEE sobre Comunicación Interactiva Humana y Robótica (RO-MAN) : 775–780. doi : 10.1109 / ROMAN.2016.7745207 . ISBN 978-1-5090-3929-6. S2CID 25295130 .
- ^ Banks, Jaime; Koban, Kevin (2021). "Efectos de encuadre sobre los juicios de los comportamientos (im) morales de los robots sociales" . Fronteras en robótica e IA . 8 : 627233. doi : 10.3389 / frobt.2021.627233 . PMC 8141842 . PMID 34041272 .
Referencias
- Levy, David (noviembre de 2008). Amor y sexo con robots: la evolución de las relaciones humano-robot . Harper Perennial .
- Richards, Neil M .; Inteligente, William D. (2013). ¿Cómo debería pensar la ley sobre los robots ?: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2263363
Otras lecturas
- Lin, Patrick / Abney, Keith / Bekey, George A. (diciembre de 2011). Ética del robot: las implicaciones éticas y sociales de la robótica . Prensa del MIT .
- Tzafestas, Spyros G. (2016). Roboethics Una descripción general de la navegación . Berlín: Springer. ISBN 978-3-319-21713-0.
enlaces externos
- PhilPapers : la bibliografía estándar sobre roboética está activada
- Grupo de Ética + Ciencias Emergentes
- El Centro Markkula de Ética Aplicada de la Universidad de Santa Clara, EE. UU.
- Lista de organizaciones y conferencias del grupo de temas de euRobotics "cuestiones éticas, legales y socioeconómicas" (ELS)
- Lista de conferencias en el sitio web "Roboethics" (hasta 2009)
- IEEE Comité Técnico de Roboethics
- Grupo de temas de euRobotics "cuestiones éticas, legales y sociales" (ELS)
- Sociedad Internacional de Ética y Tecnología de la Información
- Profesionales informáticos para la responsabilidad social
- Robótica responsable
- El Instituto Internacional de Derecho Humanitario
- Unión de científicos interesados
- Base de datos de información sobre roboética
- Centro Internacional de Ética de la Información
- Living Safely with Robots, Beyond Asimov's Laws , PhysOrg.com , 22 de junio de 2009.
- Plug & Pray, documental sobre la ética de la robótica y la inteligencia artificial (con Joseph Weizenbaum y Ray Kurzweil)
- El profesor Bruno Siciliano, coeditor del Springer Handbook of Robotics, analiza la roboética como parte de su charla TEDx.
- [2]