La autodeterminación digital es un concepto multidisciplinario derivado del concepto legal de autodeterminación y aplicado a la esfera digital, para abordar los desafíos únicos a la agencia individual y colectiva y la autonomía que surgen con la creciente digitalización de muchos aspectos de la sociedad y la vida cotidiana.
Orígenes
Todavía no existe un concepto filosófico o legalmente acordado de autodeterminación digital. En términos generales, el término describe el intento de proyectar de manera integral el patrón de autodeterminación humana (como se exploró por primera vez en disciplinas como la filosofía y la psicología, y en el derecho) en la era digital.
Autodeterminación
Filosofía
El concepto de autodeterminación se relaciona con los conceptos de subjetividad , dignidad y autonomía de la filosofía centroeuropea clásica y se deriva de la concepción de libertad de Immanuel Kant . La autodeterminación presupone que los seres humanos son entidades capaces de razonar y ser responsables de sus propias acciones (autonomía) elegidas y justificadas racionalmente, y deben ser tratados en consecuencia. Al formular su imperativo categórico (kategorischer Imperativ), Kant sugirió que los humanos, como condición de su autonomía, nunca deben ser tratados como un medio para un fin, sino como un fin en sí mismo. El patrón de autodeterminación apunta de manera similar a permitir que los seres humanos autónomos creen, elijan y persigan su propia identidad, acción y elecciones de vida sin interferencias indebidas.
Psicología
En psicología, el concepto de autodeterminación está estrechamente relacionado con la autorregulación y la motivación intrínseca , es decir, participar en un comportamiento o actividad porque es intrínsecamente gratificante hacerlo, en lugar de estar impulsado por motivaciones o presiones externas, como las motivaciones monetarias. incentivos, estatus o miedo. En este contexto, la autodeterminación y la motivación intrínseca están vinculadas a sentirse en control de las propias elecciones y el comportamiento y se consideran necesarias para el bienestar psicológico. La teoría de la autodeterminación (TED), introducida por primera vez por los psicólogos Richard Ryan y Eduard Deci en la década de 1980, [1] [2] y desarrollada posteriormente durante las décadas de 1990 y 2000, ha tenido una gran influencia en la configuración del concepto de autodeterminación en el campo de la psicología. El SDT de Ryan y Deci propuso que el comportamiento motivado de los individuos se caracteriza por tres necesidades básicas y universales: autonomía, competencia y afinidad. [3] La autonomía se refiere aquí a la necesidad de sentirse libre para decidir el curso de acción. La competencia se refiere a la necesidad de tener la capacidad y las habilidades para emprender y completar un comportamiento motivado de manera efectiva. Finalmente, la relación se refiere a la necesidad de experimentar relaciones sociales cálidas y afectuosas y sentirse conectado con los demás. Según SDT, las tres necesidades deben cumplirse para un funcionamiento óptimo y el bienestar psicológico. Sin embargo, otros psicólogos como Barry Schwartz han argumentado que si la autodeterminación se lleva al extremo, la libertad de elección puede convertirse en la “tiranía de la elección”. [4] Desde este punto de vista, tener demasiada autonomía y demasiadas opciones en nuestro curso de acción puede percibirse como abrumador, hacer nuestras decisiones más difíciles y, en última instancia, conducir a angustia psicológica en lugar de bienestar.
Ley
Derechos humanos
En el derecho internacional, el derecho de un pueblo a la autodeterminación se reconoce comúnmente como una regla de ius cogens . Aquí, la autodeterminación denota que un pueblo, basado en el respeto al principio de igualdad de derechos y justa igualdad de oportunidades, tiene derecho a elegir libremente su soberanía, estatus político internacional, desarrollo económico, social y cultural sin injerencias. En el marco de las Naciones Unidas, los derechos fundamentales como la autodeterminación se definen principalmente en la Declaración Universal de Derechos Humanos , el Pacto Internacional de Derechos Civiles y Políticos y el Pacto Internacional de Derechos Económicos, Sociales y Culturales .
Autodeterminación informativa en la legislación alemana
El concepto de autodeterminación informativa (Selbstbestimmung informacional), considerado como un derecho fundamental moderno que protege contra el procesamiento injustificado de datos, ha ocupado un lugar destacado en la jurisprudencia del Tribunal Constitucional Federal de Alemania (Bundesverfassungsgericht) y podría ser el precursor e inspiración más directo para el concepto de autodeterminación digital.
En 1983, el Bundesverfassungsgericht dictaminó que “en el contexto del procesamiento moderno de datos, el derecho general a la personalidad en virtud del artículo 2.1 en conjunción con el artículo 1.1 de la Ley Fundamental abarca la protección del individuo contra la recopilación, el almacenamiento, el uso y el intercambio ilimitados de datos personales. datos. El derecho fundamental garantiza la facultad conferida al individuo para, en principio, decidir por sí mismo sobre la divulgación y uso de sus datos personales ”. (Volkszählungsurteil, nota de cabecera 1).
Filosóficamente, el derecho a la autodeterminación informativa está profundamente arraigado en la comprensión del Bundesverfassungsgericht de la inviolable dignidad humana (artículo 1 del Grundgesetz) como una prohibición de la objetivación humana (en alemán: Objektformel; véase, por ejemplo, n ° 33 de BVerfGE 27, 1). - Mikrozensus). Esta comprensión se remonta a la filosofía alemana de la Ilustración de finales del siglo XVIII. El Volkszählungsurteil se inspiró en la preocupación de que la tecnología moderna de procesamiento de datos pudiera conducir a un “registro y catalogación de la personalidad de una persona de una manera incompatible con la dignidad humana” (Volkszählungsurteil, nota 4). Desde este punto de vista, los seres humanos, debido a su inviolable dignidad, nunca pueden ser tratados como recursos despersonalizados y objetivados que pueden recolectarse para obtener datos. En cambio, los humanos, debido a su capacidad de autonomía, son agentes autodeterminados que poseen un grado significativo de control sobre sus imágenes informativas.
Autodeterminación en la esfera digital
La creciente digitalización de la mayoría de los aspectos de la sociedad plantea nuevos desafíos para el concepto y la realización de la autodeterminación. [5] Si bien la esfera digital ha marcado el comienzo de la innovación y ha abierto nuevas oportunidades para la autoexpresión y la comunicación para las personas en todo el mundo, su alcance y beneficios no se han distribuido de manera uniforme, lo que a menudo profundiza las desigualdades y las estructuras de poder existentes, comúnmente conocidas como una brecha digital . Además, la transformación digital ha permitido, a menudo sin el conocimiento de las personas, la recopilación, el análisis y la recolección masivos de datos personales por parte de empresas privadas y gobiernos para inferir la información y las preferencias de las personas (por ejemplo, mediante el seguimiento del historial de navegación y compras), influir en las opiniones y comportamiento (p. ej., a través de burbujas de filtro y anuncios dirigidos) y / o para tomar decisiones sobre ellos (p. ej., aprobar o no una solicitud de préstamo o empleo), lo que plantea nuevas amenazas a la privacidad y autonomía de las personas. [6]
Aunque la definición de autodeterminación digital aún está evolucionando, el término se ha utilizado para abordar la capacidad (o la falta de ella) de los seres humanos para ejercer la autodeterminación en su existencia y uso de los medios, espacios, redes y tecnologías digitales, con la protección del potencial de desarrollo humano en el mundo digital como una de las principales preocupaciones. [7]
A partir de la década de 2010, algunas iniciativas multidisciplinarias e intersectoriales en todo el mundo han estado trabajando en el desarrollo de un marco teórico para el concepto de autodeterminación digital.
En 2015, el Centro de Ética, Derechos, Economía y Ciencias Sociales de la Salud de Colonia, ubicado en la Universidad de Colonia (CERES), realizó un estudio para ayudar a definir la autodeterminación digital y desarrollar métricas para medir su cumplimiento. [8] El informe de su estudio define la autodeterminación digital como “el desarrollo concreto de una personalidad humana o la posibilidad de realizar los propios planes de acción y decisiones para actuar, en la medida en que se relacione con el uso consciente de los medios digitales o sea (co -) dependiente de la existencia o funcionamiento de los medios digitales ”.
En 2018, el gobierno suizo lanzó una red de autodeterminación digital en respuesta al plan de acción para la estrategia 'Suiza digital' del Consejo Federal, que incluyó a representantes de la Administración Federal Suiza, el mundo académico, la sociedad civil y el sector privado. [9] El trabajo de esta red conceptualiza la autodeterminación digital como “una forma de aumentar la confianza en la transformación digital al tiempo que permite que todos los actores de la sociedad se beneficien del potencial de la economía de datos”. Este trabajo propone que los principios centrales de la autodeterminación digital son la transparencia y la confianza, el control y el intercambio de datos autodeterminado, los espacios de datos orientados al usuario y los espacios de datos descentralizados que operan cerca de las necesidades de los ciudadanos. El trabajo de la red tiene como objetivo “crear una red internacional que represente los principios básicos de la autodeterminación digital y sobre esta base elaborará las mejores prácticas, estándares y acuerdos para desarrollar espacios de datos internacionales”.
En 2021, el Centro de Inteligencia Artificial y Gobernanza de Datos de la Universidad de Gestión de Singapur lanzó un importante proyecto de investigación centrado en el concepto de autodeterminación digital, en colaboración con el gobierno suizo y otros socios de investigación. [10] Su marco teórico [11] se centra en la gobernanza y la privacidad de los datos, y propone que los componentes centrales de la autodeterminación digital son el empoderamiento de los interesados para supervisar su sentido de sí mismos en la esfera digital, su capacidad para gobernar sus datos. , el consentimiento como piedra angular de la privacidad y la protección de datos, la protección contra la malversación de datos y la precisión y autenticidad de los datos recopilados. Este marco propuesto también enfatiza que la autodeterminación digital se refiere tanto a individuos como a colectivos y que el concepto debe entenderse en el contexto de “derechos dependientes de deberes” y en paralelo a los conceptos de un yo social o relacional, responsabilidad social y digital. solidaridad (ver más abajo: 3.1. Abordar el 'yo' multinivel en la autodeterminación digital)
En 2021, el Digital Asia Hub, en colaboración con el Berkman Klein Center de la Universidad de Harvard y la Red Global de Centros de Internet y Sociedad, llevó a cabo un sprint de investigación para explorar el concepto de autodeterminación digital desde diferentes perspectivas y en contextos culturales. Esta iniciativa abordó la autodeterminación digital "como un facilitador de, o al menos un contribuyente, al ejercicio de la autonomía y la agencia frente a opciones cada vez más reducidas", para abordar cuestiones de control, poder y equidad "en un mundo que es cada vez más construido, mediado y, en ocasiones, incluso dominado por tecnologías digitales y medios digitales, incluidas las infraestructuras subyacentes ". [12]
Además del trabajo de los gobiernos y los centros de investigación, los miembros de la sociedad civil también han abogado por la autodeterminación digital. Por ejemplo, Ferdinand von Schirach , abogado legal y escritor alemán de cuentos y novelas legales de ficción, ha lanzado una iniciativa titulada “JEDER MENSCH”, que se traduce como “Todos los humanos”. En “JEDER MENSCH”, von Schirach pide la incorporación de seis nuevos derechos fundamentales a la Carta de los Derechos Fundamentales de la Unión Europea. El artículo 2 de esta propuesta se titula “derecho a la autodeterminación digital” y propone que “toda persona tiene derecho a la autodeterminación digital. Se prohíbe la elaboración excesiva de perfiles o la manipulación de personas ". [13]
Elementos practicos
Diferentes sectores de la sociedad, desde legisladores y formuladores de políticas hasta organizaciones públicas y académicos, activistas y miembros de la sociedad civil, han pedido infraestructura, herramientas y sistemas digitales que protejan y promuevan la autodeterminación de las personas, incluida la igualdad y acceso gratuito, diseño centrado en el ser humano, mejores protecciones de privacidad y control sobre los datos. Estos elementos están estrechamente relacionados y se complementan entre sí. Por ejemplo, el acceso equitativo a la infraestructura digital puede permitir la representación de diversos puntos de vista y la gobernanza participativa en la esfera digital, y los sistemas descentralizados pueden ser necesarios para garantizar el control de las personas sobre sus datos.
Acceso a infraestructura y herramientas digitales
Se ha propuesto que superar las diversas formas de brechas digitales existentes y proporcionar un acceso equitativo y justo a las tecnologías digitales e Internet es crucial para garantizar que todas las personas puedan beneficiarse de la era digital, incluido el acceso a la información, los servicios y las oportunidades de avance. [14] [15]
Alfabetización digital
Se ha propuesto que la alfabetización digital y la alfabetización mediática son necesarias para que las personas adquieran el conocimiento y las habilidades para usar herramientas digitales, así como para evaluar críticamente el contenido que encuentran en línea, crear su propio contenido y comprender las características e implicaciones de la tecnología digital utilizada. en ellos, así como en la tecnología con la que se involucran consciente y voluntariamente. [16] Además de las habilidades básicas de navegación digital y el consumo crítico de información, las definiciones de alfabetización digital se han ampliado para incluir la conciencia de las alternativas existentes a las plataformas digitales y los servicios utilizados, la comprensión de cómo se manejan los datos personales, la conciencia de los derechos y protecciones legales y de medidas para proteger de forma independiente la seguridad y la privacidad en línea (por ejemplo, la adopción de técnicas de ofuscación como una forma de evadir y protestar contra la vigilancia digital [17] ).
Representación de diversas realidades y puntos de vista.
El activista de Internet Eli Pariser acuñó el término burbuja de filtro para referirse a la disponibilidad reducida de opiniones y realidades divergentes que encontramos en línea como consecuencia de algoritmos de personalización como los sistemas de búsqueda y recomendación personalizados . [18] Se han sugerido burbujas de filtro para facilitar una comprensión distorsionada de los puntos de vista de los demás y del mundo. Asegurar una amplia representación de las diversas realidades en las plataformas digitales podría ser una forma de aumentar la exposición a puntos de vista en conflicto y evitar el aislamiento intelectual en burbujas de información.
Diseño centrado en el ser humano de interfaces de usuario y experiencias.
Los académicos han acuñado el término economía de la atención para referirse al tratamiento de la atención humana como un bien escaso en el contexto de cantidades cada vez mayores de información y productos. Desde este punto de vista, la creciente competencia por la atención limitada de los usuarios, especialmente cuando se basan en modelos de ingresos publicitarios , crea un objetivo urgente para que las plataformas digitales logren que la mayor cantidad de personas posible dediquen el mayor tiempo y atención posible al uso de su producto o servicio. En su búsqueda de la escasa atención de los usuarios, estas plataformas se verían incentivadas para explotar las debilidades cognitivas y emocionales de los usuarios, por ejemplo, a través de notificaciones constantes, patrones oscuros , multitarea forzada, comparación social y contenido incendiario. [19] Los defensores del diseño centrado en el ser humano en la tecnología (o tecnología humana ) proponen que la tecnología debería abstenerse de tales prácticas de "pirateo cerebral" y, en cambio, debería apoyar la agencia de los usuarios durante su tiempo y atención, así como su bienestar general. [20]
Dato de governancia
La académica Shoshana Zuboff acuñó el término capitalismo de vigilancia para referirse a la mercantilización por parte del sector privado de los datos personales de los usuarios con fines de lucro (por ejemplo, a través de publicidad dirigida ), lo que aumenta la vulnerabilidad a la vigilancia y la explotación. El capitalismo de la vigilancia se basa en modelos de gestión de datos centralizados en los que las empresas privadas conservan la propiedad y el control de los datos de los usuarios. Para protegerse contra los desafíos a la privacidad y autodeterminación de las personas, se han propuesto recientemente varios modelos alternativos de gobernanza de datos en todo el mundo, incluidos fideicomisos, [21] bienes comunes, [22] cooperativos, [23] colaborativos, [24] fiduciarios, [25] y "vainas". [26] Estos modelos tienen cierta superposición y comparten una misión común para dar más control a las personas sobre sus datos y así abordar los desequilibrios de poder actuales entre los titulares de datos y los interesados. [27]
Asuntos actuales
Abordar el 'yo' multinivel en la autodeterminación digital
Autodeterminación digital para individuos
El ejercicio de la autogestión de un individuo puede estar íntimamente conectado con los entornos digitales en los que está integrado, lo que puede dar forma a la arquitectura de elección de uno , el acceso a la información y las oportunidades, así como la exposición al daño y la explotación, lo que afecta la capacidad de la persona para libre y autónomamente. conducir su vida. Una variedad de tecnologías digitales y su infraestructura subyacente, independientemente de sus interfaces humanas relativamente visibles o indirectas , podrían contribuir a las condiciones que empoderan o debilitan la autodeterminación de un individuo en las esferas de la participación socioeconómica, la representación de la identidad cultural y la expresión política .
El alcance de las esferas tecnológicamente mediadas en las que dicha influencia podría tener lugar sobre las elecciones autodeterminadas de un individuo ha sido el foco de los crecientes debates contemporáneos en diversas geografías. Uno de los debates se refiere a si la privacidad de un individuo , como una forma de control sobre la información de uno, [28] puede o no estar suficientemente protegida contra la recolección de datos explotadores y la micro-focalización que pueden ejercer una influencia conductual indebida sobre el individuo como parte de un proceso. grupo objetivo. Los avances en esta área varían mucho entre países y regiones en las que hay diferentes privacidad marcos y políticas de datos grandes, como la Unión Europea ‘s general Reglamento de Protección de Datos y de China ‘s sistema de crédito social , [29] que se aproximan a los datos personales claramente. [30]
Otros debates van desde si la agencia individual en la toma de decisiones puede verse socavada por algoritmos predictivos ; [31] si un trabajador individual, particularmente en el Sur Global , [32] puede encontrar nuevas oportunidades de empleo, así como vulnerabilidades únicas en la economía digital ; si la autoexpresión de un individuo puede ser vigilada de manera indebida y discriminatoria por tecnologías de vigilancia desplegadas en ciudades inteligentes , en particular aquellas que integran capacidades de reconocimiento facial y de emociones que se ejecutan en datos biométricos , como una forma de panóptico digital ; [33] y si el acceso de una persona a información diversa puede verse afectado por la brecha digital y el predominio de las plataformas en línea centralizadas, limitando potencialmente la capacidad de uno para imaginar su identidad [34] y tomar decisiones informadas.
Autodeterminación digital para niños
Los medios digitales y la tecnología brindan a los niños la oportunidad de participar en diversas actividades que apoyan su desarrollo, aprendizaje y tiempo de placer. [35] [36] Tales actividades incluyen juegos, interacciones con otros, compartir y crear contenido y experimentar con diversas formas de identidades proporcionadas por los medios con los que interactúan. [37] Al mismo tiempo, a pesar de las posibilidades de los medios digitales, los niños son usuarios menores de 18 años, lo que puede tener consecuencias no deseadas sobre la forma en que los niños consumen contenido, son vulnerables y las formas en que las interacciones con la tecnología impactan las emociones, el comportamiento y el comportamiento del niño. desarrollo cognitivo . Por lo tanto, las convocatorias dentro de la alfabetización digital y la investigación de interacción de tecnología infantil afirman que el diseño ético de la tecnología es esencial para diseñar entornos equitativos para los niños. [38] El trabajo en los medios digitales y el aprendizaje reconoce las posibilidades de la tecnología para crear formas expansivas de aprendizaje y desarrollo para los niños, al mismo tiempo, presta atención a que los niños deben aprender alfabetizaciones digitales críticas que les permitan comunicarse, evaluar y construir conocimiento dentro de los medios digitales. [39] Además, debe tenerse en cuenta la consideración ética para apoyar la autodeterminación de los niños. [40] Por ejemplo, dentro de este cuerpo de trabajo, se presta atención a involucrar a los niños en el proceso de toma de decisiones del diseño de tecnología como un enfoque metodológico ético para involucrar el diseño de tecnología para niños. En otras palabras, involucrar a los niños en el proceso de diseño de tecnologías y pensar en las dimensiones éticas de las interacciones de los niños permite un cambio en la noción de vulnerabilidad hacia el apoyo a los niños para que promulguen su autodeterminación y posicionarlos como creadores activos de su propio futuro digital. .
Más allá de las consideraciones éticas, la participación de los niños en las tecnologías digitales y las prácticas del mercado digital también tiene una relevancia importante con sus derechos de privacidad y protección de datos . El uso de sistemas de software de seguimiento y análisis predictivo puede afectar las elecciones digitales y de la vida real de los niños al explotar las prácticas de elaboración de perfiles masivos. De hecho, debido al uso ubicuo de estos sistemas algorítmicos tanto a nivel estatal como del sector privado, la privacidad de los niños puede violarse fácilmente y pueden ser identificables personalmente en la esfera digital. [41]
El artículo 12 de la Convención sobre los Derechos del Niño de las Naciones Unidas implica la responsabilidad de los estados de que los niños deben tener derecho a formarse y expresar sus propios puntos de vista "libremente, sin ninguna presión". [42] En el análisis literal, la presión se refiere a cualquier tipo de manipulación, opresión o explotación. Los Estados partes deben reconocer que todos los niños, independientemente de su edad, son capaces de formarse y expresar sus propias opiniones autónomas. [43] Asimismo, el Comité afirma que los niños deben tener derecho a ser escuchados incluso si no tienen una comprensión integral del tema que les afecta. [44] Además, el artículo 3 de la CDN establece que el interés superior del niño debe estar integrado en los procesos de toma de decisiones privados y gubernamentales y debe ser una consideración primordial en relación con los servicios y procedimientos que involucran a los niños. [45] Anclando estas responsabilidades a las prácticas digitales públicas y privadas y como se destaca en la Observación General No. 25 del Comité de los Derechos del Niño, los niños corren un gran riesgo en el dominio digital con respecto a su identidad vulnerable y en evolución . [46] Resulta que con la proliferación de la vigilancia masiva y el análisis predictivo, están en camino nuevas disputas para que los estados protejan los derechos innatos de los niños. Con este fin, las recientes acciones colectivas y los esfuerzos de regulación Las empresas de tecnología pueden ser ejemplos prometedores en el contexto de presionar al sector privado para que adopte más prácticas de preservación de la privacidad en los niños que pueden proporcionar un escudo dorado para su autonomía. [47] [48] En esta atmósfera regulada de manera imprudente, se ha vuelto más fácil obtener ganancias con la ayuda de la publicidad conductual contra los niños. [49] Al no contar con prácticas apropiadas de consentimiento-informar / consentimiento de los padres , es muy fácil manipular y explotar vulnerabilidades muy intrínsecas de los niños y empujarlos a elegir productos y aplicaciones específicos. Con respecto a esto, el artículo 8 del GDPR establece un conjunto de límites de edad para el procesamiento de datos personales de niños relacionados con los servicios de la sociedad de la información (ISS). De conformidad con el artículo 8, en las condiciones en las que los niños tengan al menos 16 años, el niño puede dar su consentimiento para el procesamiento legal de datos personales restringidos con el propósito de procesamiento (Art (6) (1) (a). Para niños menores de 16 años años, es lícito solo y en la medida del consentimiento que otorgue el titular de la responsabilidad parental al niño. Este límite de edad de 16 años puede ser inferior a la edad de 13 por los Estados miembros. Además de esto , se hace hincapié en que los responsables del tratamiento deben tomar las medidas necesarias en relación con la protección de los datos de los niños. En apoyo de estas, el considerando 38 establece que los niños merecen una protección específica en el uso, la recopilación y el procesamiento de sus datos, teniendo en cuenta que los niños son menos conscientes de los impactos, consecuencias y salvaguardias con respecto al procesamiento de sus datos personales. El RGPD también se refiere a los niños en los artículos 40 y 57; considerandos 58 y 75.
Más allá del GDPR, una de las regulaciones estructuradas es el Código de Niños de la Oficina del Comisionado de Información (ICO) del Reino Unido (formalmente Código de Diseño Apropiado para la Edad) que se aprobó en septiembre de 2020. [50] El Código de Niños establece el límite de edad en 18 años con respecto a la capacidad de dar gratis al mismo tiempo que implica la responsabilidad para los proveedores de servicios en línea, como aplicaciones, juegos, dispositivos y juguetes conectados y nuevos servicios. Lo que diferencia al Código de la Infancia de la normativa de la UE es que se aplica a todos los servicios de la sociedad de la información a los que es probable que accedan los niños. Esto significa que, incluso si el servicio no está dirigido directamente a los niños, las partes que ofrecen esos servicios deben cumplir con el Código de la Infancia. El Código del Niño de la ICO también está impregnado de la noción del interés superior del niño que se establece en la Convención de las Naciones Unidas sobre los Derechos del Niño. [51] Con un alcance amplio, la ICO enumera un conjunto de puntos de orientación para que las organizaciones apoyen la noción del interés superior del niño, como reconocer que los niños tienen una capacidad evolutiva para formar sus propios puntos de vista y dar la debida importancia a esos puntos de vista. , protegiendo sus necesidades de desarrollo de sus propias ideas e identidad, su derecho de reunión y juego. [52] El Código también amplía la protección de los datos personales de los niños con un conjunto de normas clave como la minimización de datos, las evaluaciones de impacto de la protección de datos, el diseño apropiado para la edad, la privacidad por defecto y la transparencia.
Dinámicas de poder geopolítico y cultural en el mundo digital
Colonialismo digital
La política del imperio ya está impregnando las historias compartidas. Las relaciones sociales desiguales entre los pueblos colonizados y colonizados se materializaron a través de la explotación, la segregación, la violencia epistémica, etc. En todo el mundo, estos discursos del colonialismo dominaron las percepciones y culturas de las personas. Los críticos poscoloniales sostuvieron cómo los pueblos colonizados podían lograr una agencia cultural, económica y social contra las estructuras opresivas y la representación impuesta a sus vidas y sociedades. [53]
Sin embargo, a través de la temporalidad, el prefacio “post” implica que el período histórico de la colonización ha terminado, y los sujetos colonizados están ahora libres de sus discursos. Los estudiosos se han centrado en la continuidad del colonialismo incluso si históricamente ha terminado. Las estructuras y discursos neocoloniales ya forman parte de las diferentes culturas “poscoloniales”. [54] La era poscolonial en la que los países colonizados han ganado independencia y autonomía ha sido un medio para que la población recupere su propia autodeterminación y libertad. Sin embargo, las estructuras neocoloniales que aún prevalecen en las sociedades poscoloniales. Aunque el estado-nación podría promover la idea de autonomía y autodeterminación, siempre están surgiendo nuevas formas de colonialismo. Esta dialéctica entre colonialismo y autodeterminación abarca una variedad de campos, cambiando en forma, enfoque y alcance con el tiempo. Se refleja en las complejas relaciones políticas y de políticas entre los pueblos “poscoloniales” y el estado, especialmente porque la mayoría de los estados están replicando los sistemas legales y políticos de su antiguo colonizador.
La historia articula que la política estatal en campos tan diversos como la salud, la educación, la vivienda, las obras públicas, el empleo y la justicia tuvo y sigue teniendo efectos negativos en los pueblos indígenas después de la independencia. [55] Este efecto negativo se comparte entre los pueblos ex colonizados. Junto a estas tensiones políticas, los intereses económicos han manipulado los marcos legales y de gobernanza para extraer valor y recursos de los territorios ex colonizados, a menudo sin una compensación o consulta adecuada a las personas y comunidades afectadas. [56] En consecuencia, el colonialismo digital surge como un discurso dominante en la esfera digital.
El colonialismo digital es una forma estructural de dominación ejercida a través de la propiedad centralizada y el control de los tres pilares centrales del ecosistema digital: software, hardware y conectividad de red. El control sobre los tres últimos otorga a las corporaciones gigantes un inmenso poder político, económico y social no solo sobre los individuos, sino incluso sobre los estados-nación. [57] La asimilación a los productos tecnológicos, modelos e ideologías de potencias extranjeras constituye una colonización de la era de Internet. [58]
Hoy se está produciendo una nueva forma de colonización empresarial. En lugar de la conquista de la tierra, las grandes corporaciones tecnológicas están colonizando la tecnología digital. Las siguientes funciones están todas dominadas por un puñado de empresas multinacionales: motores de búsqueda (Google); navegadores web (Google Chrome); sistemas operativos de teléfonos inteligentes y tabletas (Google Android, Apple iOS); sistemas operativos de escritorio y portátiles (Microsoft Windows); software de oficina (Microsoft Office, Google Docs); infraestructura y servicios en la nube (Amazon, Microsoft, Google, IBM); plataformas de redes sociales (Facebook, Twitter); transporte (Uber, Lyft); redes de negocios (Microsoft LinkedIn); transmisión de video (Google YouTube, Netflix, Hulu); y publicidad en línea (Google, Facebook), entre otros. Estas comprenden las cinco corporaciones más ricas del mundo, con una capitalización de mercado combinada que excede los $ 3 billones. [59] Si cualquier estado-nación integra estos productos de Big Tech en su sociedad, estas corporaciones multinacionales obtendrán un enorme poder sobre su economía y crearán dependencias tecnológicas que conducirán a la extracción perpetua de recursos. Esto se asemeja al período colonial en el que las colonias se hicieron dependientes de la economía del colonizador para una mayor explotación.
Bajo el colonialismo digital, la infraestructura digital en el Sur Global está diseñada para las necesidades de las grandes empresas de tecnología, lo que permite la dominación económica y cultural al tiempo que impone formas privatizadas de gobernanza. [60] Para lograr esta tarea, las grandes corporaciones diseñan tecnología digital para asegurar su propio dominio sobre funciones críticas en el ecosistema tecnológico. Esto les permite acumular ganancias de los ingresos derivados de la renta; para ejercer control sobre el flujo de información, actividades sociales y una plétora de otras funciones políticas, sociales, económicas y militares que utilizan sus tecnologías.
El colonialismo digital depende del código. En Código: y otras leyes del ciberespacio, Lawrence Lessig argumentó que el código de computadora da forma a las reglas, normas y comportamientos de las experiencias mediadas por computadora. Como resultado, “el código es ley” en el sentido de que tiene el poder de usurpar las normas legales, institucionales y sociales que impactan los dominios políticos, económicos y culturales de la sociedad. Esta información crítica se ha aplicado en campos como derechos de autor, regulación de la libertad de expresión, gobernanza de Internet, blockchain, privacidad e incluso agravios. [61] Esto es similar a la arquitectura en el espacio físico durante el colonialismo. Se construyeron edificios e infraestructuras para reforzar el dominio y el alcance del colonialismo. [62]
Los pueblos “poscoloniales”, entonces, enfrentan múltiples limitaciones digitales en su acceso y uso de las infraestructuras digitales en red. Este último amenaza con reflejar y reestructurar las relaciones existentes de desigualdad social basadas en el colonialismo y los continuos procesos de neocolonialismo. Los pueblos indígenas son muy conscientes de este potencial y, por lo tanto, están trabajando con varios socios para descolonizar la esfera digital. Están emprendiendo una variedad de proyectos que representan sus experiencias diversas y localizadas, junto con un deseo común de autodeterminación. Las comunidades indígenas rurales y remotas enfrentan problemas persistentes de acceso a lo digital asociados con los efectos históricos y continuos del colonialismo. Las comunidades indígenas remotas se están volviendo "fuera de línea por diseño" porque su conexión ha sido desafiada. [63] Los pueblos indígenas están afirmando su autodeterminación digital mediante el uso de estas plataformas para construir comunidades en línea, expresar identidades virtuales y representar su cultura virtualmente. Por lo tanto, ya no son estáticos como fuera de línea, sino que se convierten en "individualismo en red". [64] Su compromiso con la esfera digital resiste las representaciones impuestas de sus identidades y desterritorializa concepciones de comunidades virtuales. En consecuencia, los antiguos pueblos colonizados siempre están inmersos en el proceso de descolonización de los discursos neocoloniales latentes que dominan Internet.
Apartheid digital
El apartheid digital también ha sido un concepto clave en los debates sobre la autodeterminación digital . Para autores como Christian Fuchs, el apartheid digital significa que "ciertos grupos y regiones del mundo son excluidos sistemáticamente del ciberespacio y de los beneficios que puede generar". [sesenta y cinco]
Brown y Czerniewicz (2010), basándose en un proyecto de investigación que cuestiona el acceso de los estudiantes de educación superior en Sudáfrica a las tecnologías de la información y las comunicaciones (TIC), destacan que si bien la edad o los aspectos generacionales han sido una característica de las brechas digitales , ahora estos últimos son más bien una cuestión de acceso y oportunidad, afirmando que en la actualidad "el apartheid digital está vivo y coleando". [66]
Tomando prestado de Graham (2011), [67] y extendiéndose a la representación de las condiciones que rodean la educación superior en la Sudáfrica posterior al apartheid , Ashton et al. (2018) [68] destacan el concepto de apartheid digital como un proceso multidimensional con tres dimensiones: una dimensión material (que incluye el acceso a la infraestructura , los dispositivos, la cobertura celular , la electricidad ), una dimensión de las habilidades (que incluye el legado educativo con respecto a la capacitación en computación , el capital social en lo que respecta a las competencias informáticas de la familia / comunidad ), y una dimensión virtual (que incluye el idioma , la cultura y la relevancia contextual). Los autores argumentan que “La dimensión virtual surge del acto intencional de ' redlining digital ' que asume una serie de formas. Puede ser con el pretexto de proteger a una organización del spam y de los ciberataques dañinos e ilícitos, pero tiene el resultado secundario de bloquear o filtrar las comunidades que solo tienen acceso a través de portales más baratos ". [68] También incluye la influencia de la Internet inglesa occidentalizada que influye aún más en la visibilidad del contenido . La dimensión de habilidades surge de una comprensión donde las lecciones de TIC no eran parte del plan de estudios hasta hace poco y, por lo tanto, el desarrollo de habilidades permaneció subexpuesto y restringido. Los autores se refieren a la dimensión material como la preocupación más citada con respecto a la introducción de tecnología como parte del plan de estudios, argumentando que “la falta de infraestructura eléctrica en áreas socioeconómicas más bajas y los costos de datos exorbitantes, impactan la capacidad de algunos estudiantes para acceder a sus recursos de aprendizaje . " [68]
Desde 2019, este concepto que significa ventajas para algunos y el despojo de otros también se ha utilizado para caracterizar los cortes de Internet y los bloqueos de comunicaciones en Jammu y Cachemira . La región, disputada y reclamada por la India y Pakistán en su totalidad y un lugar de un conflicto armado activo , fue testigo de la imposición del Estado indio de un apagón total de las comunicaciones y el cierre de Internet en Jammu y Cachemira en la noche intermedia del 4 y 5 de agosto de 2019 como parte de sus medidas unilaterales para eliminar el carácter semiautónomo del territorio en disputa de Jammu y Cachemira. [69] La Internet 2G de baja velocidad se restauró en enero de 2020 [70], mientras que la Internet 4G de alta velocidad se restauró en febrero de 2021. [71] Un informe de 2019 señala que entre 2012 y 2019, ha habido 180 cortes de Internet en la región. [72] India también encabezó la lista de 29 países que interrumpieron el acceso a Internet para las personas en el año 2020. [73] El informe de Access Now destacó: “India había instituido lo que se había convertido en un cierre perpetuo y punitivo en Jammu y Cachemira a partir de agosto de 2019. Los residentes en estos estados habían experimentado previamente cierres periódicos frecuentes, y en 2020 se vieron privados de Internet confiable, seguro, abierto y accesible de manera continua ”. [73] Al situar estos frecuentes cierres en el contexto del conflicto en curso en Cachemira, el informe Kashmir's Internet Siege (2020) de la Coalición de la sociedad civil de Jammu Cachemira argumenta que con los frecuentes cierres de Internet, el gobierno indio ha estado promulgando en estos regiones un "apartheid digital", "una forma de trato discriminatorio generalizado y sistémico y castigo colectivo ". [74] Según el informe, "los apagones frecuentes y prolongados de Internet promulgan un profundo apartheid digital al privar sistemática y estructuralmente a la población de Cachemira de los medios para participar en un mundo altamente interconectado y digitalizado ". [74]
Esta censura y privación sistemáticas no solo resultó en la exclusión de las personas, colectivamente, de participar en el ciberespacio , sino que, como era evidente, paralizó a las empresas de TI y las nuevas empresas en Cachemira. Se observó que había afectado al menos a mil empleados que trabajaban en este sector [75] solo en el tercer mes del cierre de Internet más largo del mundo que comenzó la noche intermedia del 4 y 5 de agosto de 2019 en Jammu y Cachemira. [74] En un comunicado, los relatores especiales de la ONU se refirieron al apagón de la comunicación como un castigo colectivo sin ningún pretexto para precipitar el delito. “El cierre de las redes de internet y telecomunicaciones , sin justificación del Gobierno, es incompatible con las normas fundamentales de necesidad y proporcionalidad”, dijeron los expertos. [76] Un informe de noticias que cita la historia de un emprendedor al que le había ido bien con una startup señaló que “Internet es el oxígeno para las nuevas empresas. El Centro desconectó ese enchufe el 5 de agosto. El mundo virtual era nuestro espacio de crecimiento. Ahora que se ha ido. Todos los empleados y productores se han quedado sin trabajo [..] Tengo que trabajar por las buenas o por las malas para hacer frente al daño causado por la pérdida de clientes, pedidos no entregados y bienes acumulados tras la no disponibilidad de Internet ”. [77] En junio de 2020, se informó por primera vez cómo las empresas no locales pudieron obtener la mayoría de los contratos en línea para la extracción de bloques minerales, ya que los locales quedaron en desventaja debido a la prohibición de Internet de alta velocidad. [78]
El efecto de este apartheid digital también se atestiguó durante el bloqueo inducido por la pandemia Covid-19 que dejó la infraestructura de atención médica paralizada cuando los médicos se quejaron de no poder acceder a información o asistir a capacitaciones sobre el coronavirus debido a la restricción de Internet. El presidente de la Asociación de Médicos señaló que las campañas de concienciación que se llevaron a cabo en otros lugares sobre el virus eran imposibles de ejecutar en Cachemira. “Queremos educar a la gente a través de videos, lo que no es posible a velocidad 2G. Estamos en desventaja por la ausencia de Internet de alta velocidad ". [79] Los expertos en salud y los lugareños advirtieron que el apagón de Internet estaba obstaculizando la lucha contra el coronavirus en la región. [80] El cierre de Internet también afectó a la educación en todos los niveles de la región. Los informes noticiosos señalaron cómo la educación de Cachemira se quedó atrás incluso cuando la vida en otros lugares se movía en línea al lidiar con las pautas de quedarse en casa durante la pandemia. [81] Un informe de noticias después de un año del apagón de comunicaciones y la posterior restricción en Internet de alta velocidad destacó que había "devastado la salud , la educación y el espíritu empresarial " en la región. [82]
Regulación para la autodeterminación digital
El panorama legal
Promover conceptos y derechos que están estrechamente relacionados con la autodeterminación digital es un objetivo común detrás de las iniciativas regulatorias en varios sistemas legales. Partiendo del marco conceptual de los derechos humanos y de una noción bien establecida de autodeterminación informativa , la autodeterminación digital adquiere gradualmente un papel cada vez más importante como concepto que engloba valores y virtudes que siguen siendo de gran relevancia en el contexto de la sociedad red global , como la autonomía , la dignidad y la libertad .
La importancia de incorporar los valores fundamentales en los marcos legislativos que regulan la esfera digital ha sido destacada en numerosas ocasiones por académicos [83] , autoridades públicas y representantes de diversas organizaciones.
La política legal de la UE, aunque no hace referencia explícita al derecho a la autodeterminación digital, persigue objetivos estrechamente relacionados. Una de las premisas generales de la Estrategia Digital Europea es fomentar el desarrollo de tecnología confiable que “funcione para las personas”. [84] Su objetivo es promover, entre otras cosas, los “servicios y la administración públicos digitales centrados en el ser humano”, así como los “principios éticos para los algoritmos centrados en el ser humano”.
La UE ha esbozado esos objetivos de política en varias agendas regulatorias, incluyendo entre otras cosas, la estrategia de la Comisión de la UE digital , la Estrategia Europea de datos , y el Libro Blanco de la UE sobre Inteligencia Artificial . Posteriormente, la UE ha perseguido los objetivos antes mencionados mediante la adopción o propuesta de varios instrumentos legales, entre ellos:
• El Reglamento General de Protección de Datos , destinado a establecer “normas relativas a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y normas relativas a la libre circulación de datos personales”, protegiendo “los derechos y libertades fundamentales de las personas físicas y en particular, su derecho a la protección de los datos personales "y garantizar" la libre circulación de datos personales dentro de la Unión ". Las principales disposiciones relacionadas con el concepto de autodeterminación digital incluyen principios de procesamiento de datos (por ejemplo, equidad, transparencia y responsabilidad), motivos para el procesamiento legítimo de datos (en particular, consentimiento e intereses legítimos), derechos de los interesados (por ejemplo, el derecho a ser informado, derecho al olvido , derecho a oponerse), derecho a la portabilidad de datos, obligaciones asociadas con la privacidad por diseño y la privacidad por defecto, derechos y obligaciones relacionados con el procesamiento algorítmico de datos (en particular, elaboración de perfiles y toma de decisiones automatizada), y obligaciones relativas a las transferencias de datos fuera del Espacio Económico Europeo .
• El Reglamento ePrivacy , una propuesta legislativa destinada a regular las cuestiones relativas a las comunicaciones electrónicas dentro de la UE, incluida la confidencialidad de las comunicaciones, los controles de privacidad a través del consentimiento y navegadores electrónicos, y las cookies .
• La Ley de Servicios Digitales , una propuesta legislativa destinada a armonizar las normas relativas a los servicios de intermediación digital, en particular los contenidos ilegales, la publicidad transparente, la desinformación en las plataformas de redes sociales y los sistemas de recomendación de contenidos, preservando al mismo tiempo la libertad de expresión . La DSA es una de las dos propuestas del paquete de la Ley de Servicios Digitales .
• La Ley de Mercados Digitales , una propuesta legislativa destinada a regular el desempeño de las grandes plataformas en línea que actúan como “guardianes” en el Mercado Único Europeo , garantizando así una competencia leal y “nivelando el campo de juego”. La DMA es una de las dos propuestas del paquete de la Ley de Servicios Digitales .
• El Reglamento sobre Inteligencia Artificial , una propuesta legislativa destinada a proporcionar a los desarrolladores, implementadores y usuarios requisitos y obligaciones claros con respecto a usos específicos de la IA . El proyecto de reglamento introduce, entre otros, un catálogo de prácticas de IA prohibidas que distorsionan el comportamiento del individuo de una manera que puede provocar daños físicos o mentales.
• La Ley de Gobernanza de Datos y la Directiva de Datos Abiertos, propuestas legislativas destinadas a crear sistemas de intercambio de datos confiables que empoderarán a los ciudadanos de la UE para decidir sobre compartir sus datos entre sectores y Estados miembros, al tiempo que aumentan el valor económico anual del intercambio de datos en la UE y la creación de beneficios sociales y económicos. [85]
• La Directiva de Derechos de Autor , [86] con el objetivo de proteger la propiedad intelectual y, en consecuencia, el trabajo intelectual. Sin embargo, contiene un equilibrio difícil y controvertido con otro aspecto de la autodeterminación, que es la libertad de expresión (especialmente el artículo 17).
• La Directiva sobre servicios de medios audiovisuales [87], que regula la libertad de información en el ámbito de los servicios de medios audiovisuales, así como la responsabilidad de las plataformas.
Estados Unidos aún tiene que introducir una ley integral de privacidad de la información ; La legislación relativa a los datos y los derechos digitales existe actualmente tanto a nivel estatal como federal y, a menudo, es específica de un sector. En los Estados Unidos, la Comisión Federal de Comercio (FTC, por sus siglas en inglés) tiene la tarea de supervisar la protección de la privacidad y seguridad digital de los consumidores, y describe los principios de prácticas de información justas para la gobernanza de los espacios en línea. [88]
La legislación federal incluye la Ley de Protección de la Privacidad Infantil en Línea (COPPA) que regula la recopilación de información de identificación personal de niños menores de trece años en línea. La Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) incluye estándares federales para proteger la privacidad y seguridad de los datos de salud personales almacenados electrónicamente. La Ley de Privacidad de Derechos y Educación de la Familia (FERPA) rige el acceso y la divulgación de los registros educativos de los estudiantes . Si bien la legislación estatal varía en cuanto a la fuerza de sus protecciones, la Ley de Privacidad del Consumidor de California (CCPA) de 2018 brinda a los consumidores de California el derecho a acceder a los datos, conocer y eliminar la información personal recopilada por las empresas, optar por no participar en la venta de esta información, y el derecho a la no discriminación para el ejercicio de estos derechos.
Principios éticos y basados en derechos para la IA
Inteligencia artificial y autodeterminación digital
La proliferación de la inteligencia artificial (IA), no como una tecnología única sino como un conjunto de tecnologías, [89] está configurando cada vez más los espacios tecnológicamente mediados para que los individuos y las comunidades conduzcan sus vidas. Desde la recomendación algorítmica en el comercio electrónico [90] y las plataformas de redes sociales , [91] la vigilancia inteligente en la policía, [92] hasta la asignación automatizada de recursos en los servicios públicos, [93] el alcance de las posibles aplicaciones de IA que pueden influir en la autonomía de un individuo es cuestionado continuamente, considerando la dataficación generalizada de la vida de las personas en las esferas socioeconómicas y políticas de hoy.
Por ejemplo, el aprendizaje automático , un subcampo de la inteligencia artificial, "nos permite extraer información de los datos y descubrir nuevos patrones, y puede convertir datos aparentemente inocuos en datos personales confidenciales", [94] lo que significa que la privacidad y el anonimato de una persona pueden ser propenso a vulnerabilidades fuera del dominio de datos original, como que sus datos de redes sociales se recopilen para la propaganda computacional en las elecciones basadas en micro-focalización . [95]
Otro ámbito en el que los sistemas de IA pueden afectar el ejercicio de la autodeterminación es cuando los conjuntos de datos sobre los que se entrenan los algoritmos reflejan las estructuras de desigualdad existentes , reforzando así la discriminación estructural que limita el acceso de ciertos grupos a un trato y oportunidades justos. En los Estados Unidos , una herramienta de reclutamiento de inteligencia artificial utilizada por Amazon ha demostrado discriminar a las mujeres solicitantes de empleo, [96] mientras que una herramienta de modelado basada en inteligencia artificial utilizada por el Departamento de Servicios Humanos en el condado de Allegheny, Pensilvania , para señalar un posible abuso infantil demostró que perfila desproporcionadamente a los pobres y las minorías raciales, lo que plantea interrogantes sobre cómo las variables predictivas en los algoritmos a menudo pueden ser "abstracciones" que "reflejan prioridades y preocupaciones". [97]
Panorama actual de los principios de la IA relevantes para la autodeterminación digital
La forma en que los estados intentan gobernar la industria de la IA puede dar forma a cómo se desarrollan, prueban y operan las aplicaciones de IA y en qué marcos éticos relevantes para muchas formas de intereses humanos, afectando así el grado de autodeterminación digital ejercida por individuos y comunidades.
En los últimos años, ha habido una proliferación de documentos de principios y directrices de alto nivel [98] que brindan sugerencias para políticas del sector público y códigos de conducta del sector privado de manera no vinculante. En comparación con las leyes vinculantes promulgadas por los estados, el panorama de los principios éticos de la IA presenta un panorama más diverso, con organizaciones gubernamentales y no gubernamentales, incluidas empresas privadas, instituciones académicas y la sociedad civil que desarrollan activamente el ecosistema. Un informe de 2020 de las Naciones Unidas identificó “más de 160 conjuntos organizativos, nacionales e internacionales de principios éticos y de gobernanza de la IA en todo el mundo, aunque no existe una plataforma común para unir estas iniciativas independientes”. [99]
Los temas comunes de los principios de la IA han ido surgiendo a medida que se desarrollan los esfuerzos de investigación, muchos de ellos estrechamente vinculados a las diversas condiciones de la autodeterminación digital, como el control de los datos personales, la protección contra el trato sesgado y el acceso equitativo a los beneficios que ofrece la IA. Una publicación de 2020 del Berkman Klein Center for Internet and Society de la Universidad de Harvard estudió treinta y seis documentos de principios de IA "especialmente visibles o influyentes" escritos por actores gubernamentales y no gubernamentales de múltiples regiones geográficas, e identificó ocho temas clave:
- Intimidad
- Responsabilidad
- Seguridad y proteccion
- Transparencia y explicabilidad
- Equidad y no discriminación
- Control humano de la tecnología
- Responsabilidad profesional
- Promoción de los valores humanos
Sin embargo, el informe también señala “una brecha amplia y espinosa entre la articulación de estos conceptos de alto nivel y su logro real en el mundo real”. [100]
Ejemplos de principios de IA intergubernamentales y gubernamentales
Actualmente, pocos principios de gobernanza de la IA están reconocidos internacionalmente. Los " Principios de la OCDE sobre IA", adoptados por los Estados miembros de la OCDE y otros nueve países no miembros de la OCDE en mayo de 2019, integran elementos relevantes para la autodeterminación digital como "crecimiento inclusivo", "bienestar", "valores centrados en el ser humano". y equidad ”, al tiempo que enfatiza la capacidad de una persona para apelar y“ desafiar el resultado del sistema de IA ”y la adhesión del desarrollo de la IA a los“ derechos laborales reconocidos internacionalmente ”. [101]
A nivel nacional, numerosas políticas estatales de IA hacen referencia a los principios éticos de la IA, aunque de forma irregular. Estas referencias pueden ser documentos independientes. Por ejemplo, el gobierno de Japón estableció sus "Principios sociales de la IA centrada en el ser humano", [102] que está estrechamente relacionado con su "Estrategia de IA 2019: IA para todos: personas, industrias, regiones y gobiernos", [103] y un conjunto separado de Directrices para la utilización de la IA que fomentan la adhesión voluntaria y enfatizan que la IA se utilizará para "expandir las habilidades humanas y la creatividad", no "infringirá la libertad, dignidad o igualdad individual de una persona" y se adhiere al "principio de derechos humanos". dignidad y autonomía individual ”. [104]
Los principios de la IA también se pueden incorporar en una estrategia nacional de IA, que se centra principalmente en los instrumentos de política que promueven la IA, como la inversión en educación STEM y asociaciones público-privadas. Por ejemplo, la estrategia de inteligencia artificial de la India , la "Estrategia nacional para la inteligencia artificial" publicada en junio de 2018, identifica áreas clave de alta prioridad nacional para el desarrollo de la inteligencia artificial (atención médica, agricultura, educación, infraestructura urbana / de ciudad inteligente, transporte y movilidad). , con temas éticos como la privacidad y la equidad integrados como una sección prospectiva. [105]
Oportunidades y desafíos para que los principios de la IA aborden la autodeterminación
Los principios de IA no vinculantes sugeridos por actores dentro o fuera del gobierno a veces pueden concretarse aún más en políticas o regulaciones específicas. En 2020, el organismo asesor del gobierno del Reino Unido sobre el uso responsable de la IA, el Centro para la Ética e Innovación de los Datos, propuso medidas específicas para que el gobierno, los reguladores y la industria aborden el sesgo algorítmico en los sectores de servicios financieros, gobierno local y vigilancia. y reclutamiento, [106] con cada área relevante a la forma en que las personas conducen su estilo de vida y acceden a oportunidades socioeconómicas sin ser sometidas a un trato injusto.
La representación cultural y geográfica se ha destacado como un desafío para garantizar que las normas florecientes de la IA consideren suficientemente las oportunidades y los riesgos únicos que enfrenta la población mundial, que ejerce su autonomía y libertad en regímenes políticos muy diferentes con diversos grados de estado de derecho. En 2020, un informe publicado por el Consejo de Europa revisó 116 documentos de principios de IA y encontró que "estos documentos de derecho indicativo se están desarrollando principalmente en Europa, América del Norte y Asia", mientras que "el sur global está actualmente subrepresentado en el panorama de las organizaciones proponer pautas éticas de IA ”. [107]
Ver también
- Soberanía de datos
- Ciudadanía Digital
- Identidad digital
- Derechos digitales
- Autodefensa digital
- Autodeterminación informativa
- Autodeterminación
- Autorrepresentación [ desambiguación necesaria ]
- Identidad soberana
- Capitalismo de vigilancia
- Soberanía tecnológica
Referencias
- ^ Deci, EL y Ryan, RM (1980). Teoría de la autodeterminación: cuando la mente media el comportamiento. The Journal of Mind and Behavior, 33-43.
- ^ Deci, EL y Ryan, RM (1985). Motivación intrínseca y autodeterminación en el comportamiento humano. Nueva York: Pleno.
- ^ Ryan, RM; Deci, EL (2000). "Teoría de la autodeterminación y la facilitación de la motivación intrínseca, el desarrollo social y el bienestar". Psicólogo estadounidense. 55 (1): 68–78. doi: 10.1037 / 0003-066X.55.1.68. PMID 11392867.
- ^ Schwartz, B. (2000). Autodeterminación: la tiranía de la libertad. Psicólogo estadounidense, 55 (1), 79.
- ^ Remolina, Nydia y Findlay, Mark James, Los caminos hacia la autodeterminación digital: un marco teórico fundamental (22 de abril de 2021). SMU Center for AI & Data Governance Research Paper No. 03/2021, http://dx.doi.org/10.2139/ssrn.3831726
- ^ Center for Humane Technology, "Ledger of Harms", https://ledger.humanetech.com/ , consultado el 22 de mayo de 2021.
- ^ Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard, Convocatoria de autodeterminación digital para participantes (2021) < https://cyber.harvard.edu/story/2021-02/call-participants >, consultado el 5 de mayo de 2021,
- ^ Centro de Colonia para la ética, los derechos, la economía y las ciencias sociales de la salud, "Autodeterminación digital", https://ceres.uni-koeln.de/en/research/projects/digital-self-determination , consultado el 22 de mayo , 2021,
- ^ Foro de gobernanza de Internet. Promoción de la autodeterminación digital (2020). https://www.intgovforum.org/multilingual/index.php?q=filedepot_download/10271/2243 , consultado el 22 de mayo de 2021,
- ^ Centro de inteligencia artificial y gobernanza de datos, Universidad de Gestión de Singapur, https://caidg.smu.edu.sg/digital-self-determination , consultado el 22 de mayo de 2021,
- ^ Remolina, Nydia y Findlay, Mark James, Los caminos hacia la autodeterminación digital: un marco teórico fundamental (22 de abril de 2021). SMU Center for AI & Data Governance Research Paper No. 03/2021, http://dx.doi.org/10.2139/ssrn.3831726
- ^ "Sprint de investigación examina la" autodeterminación digital "en un mundo cada vez más interconectado | Centro Berkman Klein" . cyber.harvard.edu . 2021-03-20 . Consultado el 25 de mayo de 2021 .
- ^ Jeder Mensch, "Los 6 derechos fundamentales europeos", https://www.jeder-mensch.eu/informationen/?lang=en , consultado el 22 de mayo de 2021.
- ^ División digital, World Wide Web Foundation, https://webfoundation.org/news/tag/digital-divide/ . Consultado el 28 de mayo de 2021.
- ^ Cerrando la brecha digital, Common Sense Media, https://www.commonsensemedia.org/kids-action/publications/closing-the-k-12-digital-divide-in-the-age-of-distance-learning . Consultado el 28 de mayo de 2021.
- ^ "¿Qué es la alfabetización digital?", Common Sense Media, https://www.commonsensemedia.org/news-and-media-literacy/what-is-digital-literacy , consultado el 28 de mayo de 2021
- ^ Brunton, F. y Nissenbaum, H. (2015). Ofuscación: una guía del usuario para la privacidad y la protesta. Prensa del MIT https://mitpress.mit.edu/books/obfuscation
- ↑ Pariser, Eli (12 de mayo de 2011). La burbuja del filtro: cómo la nueva web personalizada está cambiando lo que leemos y cómo pensamos. Pingüino. ISBN 9781101515129. Consultado el 11 de octubre de 2020.
- ^ Centro de tecnología humana, "Libro mayor de daños", https://ledger.humanetech.com/ . Consultado el 22 de mayo de 2021.
- ^ Centro de tecnología humana, "Cómo las redes sociales hackean nuestros cerebros", https://www.humanetech.com/brain-science . Consultado el 22 de mayo de 2021.
- ^ "¿Qué es un fideicomiso de datos?", Data Futures Lab, Fundación Mozilla, https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/shifting-power-through-data-governance / # que-es-una-confianza-de-datos
- ^ "¿Qué es un dato común?", Data Futures Lab, Fundación Mozilla, https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/shifting-power-through-data-governance / # what-is-a-data-commons
- ^ "¿Qué es una cooperativa de datos?", Data Futures Lab, Fundación Mozilla, https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/shifting-power-through-data-governance / # what-is-a-data-cooperative , consultado el 28 de mayo de 2020
- ^ "¿Qué es una colaboración de datos?", Data Futures Lab, Fundación Mozilla, https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/shifting-power-through-data-governance / # what-is-a-data-colaborative , consultado el 28 de mayo de 2020
- ^ "¿Qué es un fiduciario de datos?", Data Futures Lab, Fundación Mozilla, https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/shifting-power-through-data-governance / # what-is-a-data-fiduciary , consultado el 28 de mayo de 2020
- ^ Solid Project, https://solidproject.org/ , consultado el 28 de mayo de 2020
- ^ "¿Qué significa? Cambio de poder a través del gobierno de datos", Data Futures Lab, Fundación Mozilla, https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/shifting-power-through -data-Governance / , consultado el 28 de mayo de 2021
- ^ "Manifiesto Dagstuhl" . Informatik-Spektrum . 34 (4): 413–423. 2011-06-15. doi : 10.1007 / s00287-011-0552-9 . ISSN 0170-6012 .
- ^ Suter, Viktor (2020), Panóptico algorítmico: Vigilancia estatal y transparencia en el sistema de crédito social de China , Comunicaciones en informática y ciencias de la información, 1349 , Cham: Springer International Publishing, págs. 42–59, doi : 10.1007 / 978-3-030 -67238-6_4 , ISBN 978-3-030-67237-9, consultado el 18 de mayo de 2021
- ^ Aho, Brett; Duffield, Roberta (2 de abril de 2020). "Más allá del capitalismo de vigilancia: privacidad, regulación y big data en Europa y China" . Economía y Sociedad . 49 (2): 187–212. doi : 10.1080 / 03085147.2019.1690275 . ISSN 0308-5147 .
- ^ Brkan, Maja (2019). "¿Los algoritmos gobiernan el mundo? Toma de decisiones algorítmicas y protección de datos en el marco del RGPD y más allá" . Revista Internacional de Derecho y Tecnología de la Información . 27 (2): 91-121. doi : 10.1093 / ijlit / eay017 . ISSN 0967-0769 .
- ^ Graham, Mark; Hjorth, Isis; Lehdonvirta, Vili (mayo de 2017). "Trabajo digital y desarrollo: impactos de las plataformas laborales digitales globales y la economía gig en los medios de vida de los trabajadores" . Transferencia: Revista europea de trabajo e investigación . 23 (2): 135-162. doi : 10.1177 / 1024258916687250 . ISSN 1024-2589 . PMC 5518998 . PMID 28781494 .
- ^ Galič, Maša; Timan, Tjerk; Koops, Bert-Jaap (13 de mayo de 2016). "Bentham, Deleuze y más allá: una visión general de las teorías de vigilancia desde el panóptico a la participación" . Filosofía y Tecnología . 30 (1): 9–37. doi : 10.1007 / s13347-016-0219-1 . ISSN 2210-5433 .
- ^ Delacroix, Sylvie (2020). "Capacidad, autonomía y manipulación de redes sociales" . Diario electrónico SSRN . doi : 10.2139 / ssrn.3710786 . ISSN 1556-5068 .
- ^ Ito, M .; Martín, C. (2013). "Aprendizaje conectado y el futuro de las bibliotecas". Servicios bibliotecarios para jóvenes adultos . 12 (1): 29–32.
- ^ Ito, M .; Martin, C .; Pfister, RC; Rafalow, MH; Salen, K .; Wortman, A. (2019). Affinity Online: Cómo la conexión y el interés compartido alimentan el aprendizaje (Volumen 2) . NYU Press. ISBN 978-1-4798-8890-0.
- ^ Vaya, JP (2017). Enseñanza, aprendizaje, alfabetización en nuestro mundo de alta tecnología de alto riesgo: un marco para convertirse en humanos . Teachers College Press. ISBN 978-0807758601.
- ^ "Guía de diseño para los derechos del niño" . La Asociación Designing for Children Rights (D4CR) . Consultado el 21 de mayo de 2021 .
- ^ Ávila, J .; Pandya, JZ (2013). "Alfabetizaciones digitales críticas como praxis social: intersecciones y desafíos". Nuevas alfabetizaciones y epistemologías digitales . Nueva York. 29 Broadway 18th Floor, Nueva York, NY 10006: Peter Lang. 54 .Mantenimiento de CS1: ubicación ( enlace )
- ^ Steinberg, Stacey (28 de abril de 2021). "¿IA ética? Derechos y autonomía de los niños en los espacios digitales" . Escuela de Economía y Ciencias Políticas de Londres . Consultado el 21 de mayo de 2021 .
- ^ Palfrey, John; Gasser, Urs (2008). Born Digital . Libros básicos. ISBN 978-0-465-00515-4.
- ^ "Observación general Nº 12 (2009): El derecho del niño a ser escuchado" . CRC / C / GC / 12 . Comité de las Naciones Unidas sobre los Derechos del Niño (CRC). 20 de julio de 2009 . Consultado el 21 de mayo de 2021 .
- ^ "Ibid, 7" . CRC / C / GC / 12 . Comité de las Naciones Unidas sobre los Derechos del Niño (CRC). 20 de julio de 2009 . Consultado el 21 de mayo de 2021 .
- ^ "Ibid, 7" . 20 de julio de 2009 . Consultado el 21 de mayo de 2021 .
- ^ "Observación general Nº 14 (2013) sobre el derecho del niño a que su interés superior sea una consideración primordial (art. 3, párr. 1)" (PDF) . CRC / C / GC / 14 . Comité de las Naciones Unidas sobre los Derechos del Niño (CRC). 29 de mayo de 2013 . Consultado el 21 de mayo de 2021 .
- ^ "Observación general Nº 25 (2021) sobre los derechos del niño en relación con el entorno digital" . CRC / C / GC / 25 . El Comité de los Derechos del Niño de la ONU. 2 de marzo de 2021 . Consultado el 21 de mayo de 2021 .
- ^ "Los demandantes de privacidad de los niños llegan a un acuerdo con Disney, buscan una prueba con el desarrollador de aplicaciones" . Informes de noticias sobre privacidad de datos de Maeley / Noticias legales de Lexis. 6 de abril de 2021 . Consultado el 21 de mayo de 2021 .
- ^ Stacey, Kiran; Murphy, Hannah (13 de abril de 2021). "Momentum construye leyes estadounidenses para proteger a los niños de las grandes tecnologías" . Financial Times . Consultado el 21 de mayo de 2021 .
- ^ Lapierre, Matthew A .; Fleming-Milici, Frances; Rozendaal, Esther; McAlister, Anne R .; Castonguay, Jessica (noviembre de 2017). "El efecto de la publicidad en la niñez y la adolescencia" . Pediatría . 140 (Suplemento 2): S152 – S156. doi : 10.1542 / peds.2016-1758V . PMID 29093052 .
- ^ "Momento explicativo del Código de diseño apropiado para la edad" . El Departamento de Digital, Cultura, Medios y Deporte del Reino Unido. 11 de junio de 2020 . Consultado el 21 de mayo de 2021 .
- ^ "Interés superior del niño, diseño apropiado para la edad: un código de práctica para los servicios en línea" . La Guía de protección de datos para organizaciones de la ICO del Reino Unido . Oficina del Comisionado de Información del Reino Unido. 2 de septiembre de 2020 . Consultado el 21 de mayo de 2021 .
- ^ "Ibíd. 139" . 2 de septiembre de 2020.
- ^ Spivak, G. 1999. ¿Puede hablar el subalterno? En Social Theory: The Multicultural and Classic Readings editado por C. Lemert. Boulder, CO: Westview Press. págs. 610-614; Said, E. 1979. Orientalism . Nueva York: Vintage Books; Fanon, F. 1963. Los miserables de la Tierra . Nueva York: Grove Press.
- ^ Appiah, KA 1991. "¿Es el pos- en el posmodernismo el pos- en el poscolonial?" Investigación crítica , vol. 17. págs. 336-357; Shohat, E. 1992. "Notes on the" Post-Colonial ". Social Text , vol 31, págs. 99-113; Benharrousse, R. 2020 "El prefijo ruinoso: más allá del 'post' del poscolonialismo y hacia el proceso". En la praxis poscolonial: ramificaciones y complejidades . Mumbai: Notion Press. págs. 36-57.
- ^ Valaskakis, GG 2005. País indio: Ensayos sobre cultura nativa contemporánea. Waterloo: Prensa de la Universidad Wilfrid Laurier.
- ^ Alfred, T. 2009. Wasáse: Vías de acción y libertad indígenas. Toronto: Prensa de la Universidad de Toronto.
- ^ Kwet, M. 2019 "Colonialismo digital: Imperio estadounidense y el nuevo imperialismo en el sur global",Volumen 60 de raza y clase , n. ° 4 (abril). págs. 3-26. DOI: 10.1177 / 0306396818823172.
- ^ Kwet, M. 2018 "Break the hold of digital colonialism", Mail & Guardian, 29 de junio. https://mg.co.za/article/2018- 06-29-00-break-the-hold-of-digital-colonialism
- ^ Los registros diarios. 2018. “Las 10 empresas más grandes del mundo por capitalización de mercado”, 26 de marzo. http://www.thedailyrecords.com/2018-2019-2020-2021/world-famous-top-10-list/highest-selling-brands products-companies-reviews / mayores-companies-world-by-market-cap -más-valioso / 12829.
- ^ Bakan, J. 2005. La corporación: la búsqueda patológica del beneficio y el poder . Nueva York, NY: Free Press.
- ^ Lessig, L. 1999. Código y otras leyes del ciberespacio . Nueva York: Basic Books.
- ^ Reidenberg, J. 1998. "Lex Informatica: la formación de reglas de política de información a través de la tecnología", Texas Law Review 76, no. 3.
- ^ Sandvig, C. 2006. Los problemas estructurales de Internet para la política cultural. En Critical Cyberculture Studies editado por D. Silver y A. Massanari. Nueva York: NYU Press. pp.107-118.
- ^ Raine, L. y Wellman, B. 2012. En red: el nuevo sistema operativo social . Cambridge y Londres: The MIT Press.
- ^ Finnemann, Niels Ole (2010). "Christian Fuchs: Internet y la sociedad - Teoría social en la era de la información. Londres: Routledge. 2008" . MedieKultur: Revista de investigación en medios y comunicación . 26 (48): 4. doi : 10.7146 / mediekultur.v26i48.2316 . ISSN 1901-9726 .
- ^ Brown, C .; Czerniewicz, L. (2010). "Desacreditando al 'nativo digital': más allá del apartheid digital, hacia la democracia digital" . Revista de aprendizaje asistido por computadora . 26 (5): 357–369. doi : 10.1111 / j.1365-2729.2010.00369.x . hdl : 11427/3334 . ISSN 0266-4909 .
- ^ Graham, Mark (2011). "Máquinas del tiempo y portales virtuales" . Avances en estudios de desarrollo . 11 (3): 211-227. doi : 10.1177 / 146499341001100303 . ISSN 1464-9934 .
- ^ a b c Barnard-Ashton, Paula; Adams, Fasloen; Rothberg, Alan; McInerney, Patricia (2018). "El apartheid digital y el efecto de la tecnología móvil durante el trabajo de campo rural" . Revista Sudafricana de Terapia Ocupacional . 48 (2): 20–25. doi : 10.17159 / 23103833/2018 / vol48n2a4 . ISSN 2310-3833 .
- ^ "Artículo 370: Qué pasó con Cachemira y por qué es importante" . BBC News . 2019-08-05 . Consultado el 14 de mayo de 2021 .
- ^ "Servicios de Internet móvil 2G restaurados en J&K" . El hindú . Corresponsal especial. 2020-01-25. ISSN 0971-751X . Consultado el 14 de mayo de 2021 .CS1 maint: otros ( enlace )
- ^ Jain, Bharti; P, M. Saleem; 6 de febrero, it / TNN / Actualizado; 2021; Ist, 07:40. "Después de 18 meses, los servicios de Internet 4G restaurados en J&K | India News - Times of India" . Los tiempos de la India . Consultado el 14 de mayo de 2021 .CS1 maint: nombres numéricos: lista de autores ( enlace )
- ^ Maqbool, Majid (22 de octubre de 2019). "Internet se cerró 180 veces en J&K durante los últimos 8 años" . Heraldo Nacional . Consultado el 14 de mayo de 2021 .
- ^ a b Delhi 4 de marzo, Ankita Chakravarti New; 4 de marzo de 2021 ACTUALIZADO; Ist, 2021 16:42. "India registró el mayor número de cortes de Internet en el mundo en 2020" . India hoy . Consultado el 14 de mayo de 2021 .CS1 maint: nombres numéricos: lista de autores ( enlace )
- ^ a b c JKCCS (2020). "Asedio de Internet de Cachemira - un asalto continuo a los derechos digitales" . jkccs.net . Consultado el 14 de mayo de 2021 .
- ^ Maqbool, Majid (14 de octubre de 2019). "El cierre de la comunicación de Cachemira paraliza las empresas de TI y las nuevas empresas en el valle" . Heraldo Nacional . Consultado el 14 de mayo de 2021 .
- ^ "Las comunicaciones de Cachemira cierran un 'castigo colectivo' que debe revertirse, dicen los expertos de la ONU" . Noticias de la ONU . 2019-08-22 . Consultado el 14 de mayo de 2021 .
- ^ Ashiq, Peerzada (7 de diciembre de 2019). "En una tierra sin Internet: cómo el apagón de las comunicaciones está obligando a los jóvenes emprendedores a salir del Valle de Cachemira" . El hindú . ISSN 0971-751X . Consultado el 14 de mayo de 2021 .
- ^ "Cachemira: licitación en línea de bloques de minerales deja a los lugareños en desventaja" . El alambre . Consultado el 14 de mayo de 2021 .
- ^ "La falta de Internet en Cachemira impide que los médicos luchen contra el coronavirus: Informe" . HT Tech . 2020-03-31 . Consultado el 14 de mayo de 2021 .
- ^ Parvaiz, Athar (20 de mayo de 2020). "Los apagones de Internet de Cachemira obstaculizan los servicios de salud, seguimiento de contactos" . Reuters . Consultado el 14 de mayo de 2021 .
- ^ "A medida que la vida avanza en línea en medio de la pandemia, la educación de Cachemira se está quedando atrás" . thediplomat.com . Consultado el 14 de mayo de 2021 .
- ^ Zargar, Safwat. "Un año sin Internet de alta velocidad devastó la salud, la educación y el espíritu empresarial en Cachemira" . Desplácese en . Consultado el 14 de mayo de 2021 .
- ^ Rouvroy, Antoinnette; Poullet, Ives. El derecho a la autodeterminación informativa y el valor del autodesarrollo: reevaluación de la importancia de la privacidad para la democracia (PDF) . Saltador. págs. 45–76.
- ^ "La estrategia europea de datos" .
- ^ "Propuesta de Reglamento sobre la gobernanza europea de datos (Data Governance Act)" .
- ^ "Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre derechos de autor y derechos afines en el mercado único digital y que modifica las Directivas 96/9 / CE y 2001/29 / CE (Texto pertinente a efectos del EEE. ) " .
- ^ "DIRECTIVA (UE) 2018/1808 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 14 de noviembre de 2018 por la que se modifica la Directiva 2010/13 / UE sobre la coordinación de determinadas disposiciones legales, reglamentarias o administrativas de los Estados miembros relativas a la disposición de servicios de medios audiovisuales (Directiva de servicios de medios audiovisuales) en vista de las realidades cambiantes del mercado " .
- ^ "Privacidad en línea: un informe para el Congreso" (PDF) . Comisión Federal de Comercio . Consultado el 19 de mayo de 2021 .
- ^ Gasser, Urs; Almeida, Virgilio AF (noviembre de 2017). "Un modelo en capas para la gobernanza de la IA" . Computación por Internet IEEE . 21 (6): 58–62. doi : 10.1109 / MIC.2017.4180835 . ISSN 1089-7801 .
- ^ "La historia del algoritmo de recomendación de Amazon" . Ciencia Amazónica . 2019-11-22 . Consultado el 18 de mayo de 2021 .
- ^ Dodds, Laurence (1 de abril de 2019). "Facebook para finalmente explicar las decisiones de su algoritmo de suministro de noticias" . El telégrafo . ISSN 0307-1235 . Consultado el 18 de mayo de 2021 .
- ^ "Se reunió con la policía para comenzar a usar cámaras de reconocimiento facial en vivo en Londres" . The Guardian . 2020-01-24 . Consultado el 18 de mayo de 2021 .
- ^ "Casi la mitad de los ayuntamientos de Gran Bretaña utilizan algoritmos para ayudar a tomar decisiones sobre reclamaciones" . The Guardian . 2020-10-28 . Consultado el 18 de mayo de 2021 .
- ^ " " La ética de la inteligencia artificial: problemas e iniciativas " " (PDF) . Parlamento Europeo . Marzo de 2020.
- ^ Samantha Bradshaw y Philip N. Howard. "El trastorno de desinformación global: Inventario global 2019 de manipulación de redes sociales organizadas. Documento de trabajo 2019" (PDF) . Oxford, Reino Unido: Proyecto sobre propaganda computacional .
- ^ Dastin, Jeffrey (10 de octubre de 2018). "Amazon elimina la herramienta secreta de reclutamiento de inteligencia artificial que mostraba prejuicios contra las mujeres" . Reuters . Consultado el 18 de mayo de 2021 .
- ^ Eubanks, Virginia (enero de 2018). "Automatización de las desigualdades: cómo las herramientas de alta tecnología perfilan, controlan y castigan a los pobres" . Prensa de San Martín. pag. 143.
- ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (septiembre de 2019). "El panorama global de las directrices éticas de la IA" . Inteligencia de la máquina de la naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi : 10.1038 / s42256-019-0088-2 . ISSN 2522-5839 .
- ^ " " Hoja de ruta para la cooperación digital " " (PDF) . Naciones Unidas . Junio de 2020.
- ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). "Inteligencia artificial basada en principios: mapeo del consenso en enfoques éticos y basados en los derechos sobre los principios de la IA" . Diario electrónico SSRN . doi : 10.2139 / ssrn.3518482 . ISSN 1556-5068 .
- ^ "La Recomendación sobre Inteligencia Artificial (IA)" . OCDE . 2019.
- ^ "Principios sociales de la IA centrada en el ser humano" (PDF) . Gobierno de Japón . 2019.
- ^ "Estrategia de IA 2019: IA para todos: personas, industrias, regiones y gobiernos" (PDF) . Consejo de Promoción de la Estrategia de Innovación Integrada, Gobierno de Japón . 11 de junio de 2019.
- ^ "Pautas de utilización de IA" (PDF) . Gobierno de Japón . 9 de agosto de 2019.
- ^ "Estrategia nacional de inteligencia artificial: #AI para todos (documento de debate) " " (PDF) . Niti Aayog . 2018.
- ^ "CDEI propone una hoja de ruta para abordar el sesgo algorítmico" . Centro de Ética de datos e Innovación, Gov.uk . 27 de noviembre de 2020.
- ^ "Hacia la regulación de los sistemas de IA" . Secretaría de CAHAI, Consejo de Europa . Diciembre de 2020.