De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda
Un usuario de Facebook cuya cuenta ha sido suspendida por violar las pautas de incitación al odio o a la violencia. "Facebook odia Google+ ???" por Frederick Md Publicity tiene licencia CC BY 2.0. Para ver una copia de esta licencia, visite https://creativecommons.org/licenses/by/2.0/

El discurso de odio en línea es un tipo de discurso que tiene lugar en línea con el propósito de atacar a una persona o un grupo en función de su raza , religión , origen étnico , orientación sexual , discapacidad o género . [1]

El discurso de odio en línea es la expresión de conflictos entre diferentes grupos dentro y entre sociedades. La incitación al odio en línea es un ejemplo vívido de cómo Internet brinda oportunidades y desafíos con respecto a la libertad de expresión y expresión, al tiempo que defiende la dignidad humana. [2]

Los tratados multilaterales como el Pacto Internacional de Derechos Civiles y Políticos (ICCPR) han tratado de definir sus contornos. Los procesos de múltiples partes interesadas (por ejemplo, el Plan de acción de Rabat ) han intentado aportar mayor claridad y mecanismos sugeridos para identificar los mensajes de odio. Sin embargo, el discurso del odio sigue siendo un término genérico en el discurso cotidiano, que mezcla amenazas concretas a individuos y / o grupos con casos en los que las personas simplemente están desahogando su ira contra la autoridad. Intermediarios de Internet: organizaciones que median la comunicación en línea como Facebook , Twitter y Google.—Han avanzado sus propias definiciones de discurso de odio que vinculan a los usuarios a un conjunto de reglas y permiten a las empresas limitar ciertas formas de expresión. Los organismos nacionales y regionales han tratado de promover una comprensión del término más arraigada en las tradiciones locales . [2]

La velocidad y el alcance de Internet dificultan que los gobiernos hagan cumplir la legislación nacional en el mundo virtual . Las redes sociales son un espacio privado para la expresión pública, lo que dificulta a los reguladores. Algunas de las empresas propietarias de estos espacios se han vuelto más receptivas para abordar el problema del discurso de odio en línea. [2]

Políticos, activistas y académicos discuten el carácter del discurso de odio en línea y su relación con el discurso y la acción fuera de línea, pero los debates tienden a alejarse de la evidencia empírica sistemática. El carácter del discurso de odio percibido y sus posibles consecuencias ha llevado a poner mucho énfasis en las soluciones al problema y en cómo deberían basarse en las normas internacionales de derechos humanos. Sin embargo, este mismo enfoque también ha limitado los intentos más profundos de comprender las causas subyacentes del fenómeno y la dinámica a través de la cual ciertos tipos de contenido emergen, se difunden y conducen, o no, a discriminación , hostilidad o violencia reales . [2]

El discurso de odio en línea ha ido en aumento desde principios de 2020, con tensiones de COVID-19 , retórica anti-asiática , injusticia racial en curso , disturbios civiles masivos , violencia y las elecciones presidenciales de 2020 . Sin embargo, muchos casos de incitación al odio han sido refutados con la Primera Enmienda , que permite que continúe la incitación al odio en línea.

Definiciones [ editar ]

Discurso de odio [ editar ]

El discurso del odio es el controvertido choque de la libertad de expresión y los derechos individuales, de grupo y de las minorías , así como los conceptos de dignidad , libertad e igualdad . [2]

En la legislación nacional e internacional, el discurso de odio se refiere a expresiones que abogan por la incitación al daño, en particular la discriminación , la hostilidad o la violencia , con base en la identidad social y / o demográfica de los destinatarios. El discurso de odio puede incluir, pero no se limita a, el discurso que aboga, amenaza o fomenta actos violentos. El concepto puede extenderse también a las expresiones que fomentan un clima de prejuicio e intolerancia en el supuesto de que esto puede alimentar la discriminación selectiva , la hostilidady ataques violentos. En momentos críticos, como durante las elecciones, el concepto de discurso de odio puede ser susceptible de manipulación; Las acusaciones de fomentar el discurso del odio pueden intercambiarse entre oponentes políticos o ser utilizadas por quienes están en el poder para frenar la disidencia y las críticas . El discurso del odio (ya sea transmitido a través de texto, imágenes o sonido) puede identificarse por aproximación a través de las funciones degradantes o deshumanizantes a las que sirve. El discurso del odio contiene dos tipos de mensajes. El primer mensaje está dirigido al grupo objetivo y funciona para deshumanizar y disminuir a los miembros de este grupo. El siguiente es un ejemplo de este tipo de mensaje:

"No se deje engañar pensando que es bienvenido aquí. [...] No es querido, y usted y sus familias serán rechazados, excluidos, golpeados y expulsados, siempre que podamos salirse con la nuestra. tienes que mantener un perfil bajo en este momento. Pero no te pongas demasiado cómodo. [...] Ten miedo ". [3]

El otro mensaje del discurso del odio es dejar que otras personas con opiniones similares sepan que no están solos y reforzar la sensación de un grupo interno que (supuestamente) está amenazado. El siguiente es un ejemplo de este tipo de mensaje, enviado a personas de ideas afines:

"Sabemos que algunos de ustedes están de acuerdo en que estas personas no son buscadas aquí. Sabemos que algunos de ustedes se sienten sucios (o peligrosos o criminales o terroristas ). Sepa ahora que no está solo. [...] Hay suficientes de nosotros para asegurarnos de que estas personas no sean bienvenidas. Hay suficientes de nosotros para llamar la atención sobre cómo son realmente estas personas ". [3]

Características [ editar ]

La proliferación de discursos de odio en línea, observada por el relator especial del Consejo de Derechos Humanos de las Naciones Unidas sobre cuestiones de las minorías, plantea un nuevo conjunto de desafíos. [4] Tanto las plataformas de redes sociales como las organizaciones creadas para combatir el discurso del odio han reconocido que los mensajes de odio difundidos en línea son cada vez más comunes y han suscitado una atención sin precedentes para desarrollar respuestas adecuadas. [5] Según HateBase , una aplicación basada en la web que recopila instancias de incitación al odio en línea en todo el mundo, la mayoría de los casos de incitación al odio se dirigen a personas según su origen étnico y nacionalidad , pero las incitaciones al odio se centran enla religión y la clase también han ido en aumento. [6]

Si bien el discurso de odio en línea no es intrínsecamente diferente de expresiones similares que se encuentran fuera de línea, existen desafíos peculiares exclusivos del contenido en línea y su regulación. Aquellos desafíos relacionados con su permanencia, itinerancia, anonimato y complejo carácter transjurisdiccional.

El discurso de odio puede permanecer en línea durante mucho tiempo en diferentes formatos en múltiples plataformas, que se pueden vincular repetidamente. Como ha señalado Andre Oboler, director ejecutivo del Online Hate Prevention Institute, "cuanto más tiempo esté disponible el contenido, más daño puede infligir a las víctimas y empoderar a los perpetradores. Si elimina el contenido en una etapa temprana, puede limitar la exposición. Esto es como limpiar la basura, no impide que la gente tire basura, pero si no te ocupas del problema, simplemente se acumula y se agrava aún más ". [7] Las conversaciones de Twitter organizadas en torno a temas de actualidad pueden facilitar la difusión rápida y amplia de mensajes de odio, [8]pero también ofrecen la oportunidad para que los oradores influyentes eviten los mensajes y posiblemente acaben con los hilos populares que incitan a la violencia . Facebook , por el contrario, puede permitir que varios hilos continúen en paralelo y pasen desapercibidos; creando espacios más duraderos que ofenden, discriminan y ridiculizan a determinadas personas y grupos. [2]

El discurso de odio en línea puede ser itinerante. Incluso cuando se elimina el contenido, puede encontrar expresión en otro lugar, posiblemente en la misma plataforma con un nombre diferente o en diferentes espacios en línea. Si un sitio web se cierra, puede reabrirse rápidamente utilizando un servicio de alojamiento web con regulaciones menos estrictas o mediante la reasignación a un país con leyes que imponen un umbral más alto para el discurso de odio. La naturaleza itinerante del discurso del odio también significa que los pensamientos mal formulados, o el comportamiento bajo la influencia, que no habrían encontrado expresión y apoyo públicos en el pasado, ahora pueden aterrizar en espacios donde pueden ser visibles para grandes audiencias. [2]

El anonimato también puede representar un desafío para lidiar con el discurso de odio en línea. "(L) a Internet facilita el discurso anónimo y seudónimo, que puede acelerar el comportamiento destructivo con la misma facilidad que puede alimentar el discurso público". [9] Como ha dicho Drew Boyd, director de operaciones de The Sentinel Project , "Internet otorga a las personas la capacidad de decir cosas horribles porque creen que no serán descubiertas. Esto es lo que hace que el discurso de odio en línea sea tan único, porque las personas se sienten mucho más cómodos hablando de odio que en la vida real cuando tienen que lidiar con las consecuencias de lo que dicen ". [10] China y Corea del Sur aplican políticas de nombres reales para las redes sociales .Facebook , LinkedIn y Quora han buscado activar un sistema de nombre real para tener más control sobre el discurso de odio en línea. Estas medidas han sido profundamente cuestionadas porque afectan el derecho a la privacidad y su intersección con la libertad de expresión.

Muchos casos de incitación al odio en línea son publicados por "trolls" de Internet, que suelen ser usuarios seudónimos que publican contenido impactante, vulgar y, en general, falso que pretende provocar una reacción negativa en las personas, así como trucos, influencias y, a veces, reclutarlos, si comparten la misma opinión. [11] Las redes sociales han proporcionado una plataforma para que los grupos políticos radicales o extremistas se formen, se conecten y colaboren para difundir sus mensajes de corrección antisistema y antipolítica, y promover ideologías que son racistas, antifeministas, homofóbicas, etc. . [12] comunicación en línea totalmente anónima es raro, ya que requiere que el usuario emplear medidas muy técnicas para asegurarse de que no se pueden identificar fácilmente. [2]

Una complicación adicional es el alcance transnacional de Internet , que plantea problemas de cooperación entre jurisdicciones en lo que respecta a los mecanismos legales para combatir el discurso del odio. Si bien existen tratados de asistencia legal mutua en vigor en Europa , Asia y América del Norte , estos son característicamente lentos para funcionar. El alcance transnacional de muchos intermediarios de Internet del sector privado puede proporcionar un canal más eficaz para resolver problemas en algunos casos, aunque estos organismos a menudo también se ven afectados por apelaciones de datos entre jurisdicciones (como revelar la identidad de los autores). de un contenido en particular).[2] Cada país tiene una comprensión diferente de lo que se define como discurso de odio, lo que dificulta el enjuiciamiento de los perpetradores de discurso de odio en línea, especialmente en Estados Unidos, donde existe un compromiso constitucional profundamente arraigado con la libertad de expresión . [13]

A diferencia de la difusión del discurso del odio a través de canales convencionales, la difusión del discurso del odio en línea involucra a múltiples actores, ya sea a sabiendas o no. Cuando los perpetradores difunden su mensaje de odio en las redes sociales, no solo lastiman a sus víctimas, sino que también pueden violar los términos de servicio en esa plataforma y, en ocasiones, incluso la ley estatal, según su ubicación. Las víctimas, por su parte, pueden sentirse impotentes frente al acoso en línea, sin saber a quién acudir en busca de ayuda. Las organizaciones no gubernamentales y los grupos de presión han estado creando conciencia y alentando a diferentes partes interesadas a tomar medidas. [2]

Algunas empresas de tecnología, como Facebook , utilizan sistemas de inteligencia artificial (IA) para monitorear el discurso de odio. [14] Sin embargo, la Inteligencia Artificial puede no ser siempre una forma efectiva de monitorear el discurso de odio, ya que los sistemas carecen de las habilidades emocionales y de juicio que tienen los humanos. [15] Por ejemplo, un usuario puede publicar o comentar algo que se clasifica como discurso de odio y / o viola las pautas de la comunidad, pero si la palabra de destino está mal escrita o algunas letras se reemplazan con símbolos, los sistemas de inteligencia artificial no lo reconocerán. Por lo tanto, los humanos todavía tienen que monitorear los sistemas de inteligencia artificial que monitorean el discurso de odio, que es un concepto conocido como "La última milla de la automatización". [15]

Frameworks [ editar ]

Precedente de Stormfront [ editar ]

A raíz de los dramáticos incidentes de 2014 , son comunes los pedidos de medidas más restrictivas o intrusivas para contener el potencial de Internet para difundir el odio y la violencia, como si los vínculos entre la violencia en línea y fuera de línea fueran bien conocidos. Por el contrario, como indica el siguiente ejemplo, las apariencias a menudo pueden engañar. Stormfront se considera el primer "sitio web de odio". [16] Lanzado en marzo de 1995 por un ex líder del Ku Klux Klan , rápidamente se convirtió en un espacio popular para discutir ideas relacionadas con el neonazismo , el nacionalismo blanco y el separatismo blanco , primero en los Estados Unidos de América.y luego a nivel mundial. [17] Los anfitriones del foro exigen una guerra santa racial y la incitación al uso de la violencia para resistir la inmigración . [17] y se considera un espacio para la captación de activistas y posiblemente la coordinación de actos violentos. [18] Los pocos estudios que han explorado las identidades de Stormfront en realidad muestran una imagen más compleja. Más que verlo como un espacio para coordinar acciones. Conocidos activistas de extrema derecha han acusado al foro de ser solo una reunión para " guerreros del teclado. "Uno de ellos, por ejemplo, según lo informado por De Koster y Houtman, declaró:" He leído bastantes artículos en el foro, y me sorprende que se haga un gran escándalo, mientras que sucede poco. La sección activismo / política en sí misma es claramente ridícula. [...] Sin mencionar las asambleas en las que solo aparecen cuatro personas ". [19] Aún más reveladoras son algunas de las respuestas a estas acusaciones proporcionadas por los miembros habituales del sitio web. Como uno de ellos argumentó:" Seguramente, tengo derecho a tener una opinión sin ponerla en práctica activamente. [...] No asisto a manifestaciones y tampoco me afilio a un partido político. Si esto me convierte en un guerrero del teclado, está bien. Me siento bien de esta manera. [...] No me avergüenzo de ello " [19].De Koster y Houtman encuestaron solo un capítulo nacional de Stormfront y una muestra no representativa de usuarios, pero las respuestas como las anteriores deberían al menos invitar a ser cautelosos con las hipótesis que conectan expresiones y acciones, incluso en espacios cuya función principal es albergar puntos de vista extremistas. [2] El Southern Poverty Law Center publicó un estudio en 2014 que encontró que los usuarios del sitio "fueron presuntamente responsables de los asesinatos de casi 100 personas en los cinco años anteriores". [20]

Principios internacionales [ editar ]

El discurso de odio no se menciona explícitamente en muchos documentos y tratados internacionales de derechos humanos , pero es invocado indirectamente por algunos de los principios relacionados con la dignidad humana y la libertad de expresión . Por ejemplo, la Declaración Universal de Derechos Humanos (DUDH) de 1948 , que fue redactada como respuesta a las atrocidades de la Segunda Guerra Mundial , contiene el derecho a igual protección ante la ley en el artículo 7, que proclama que: "Todos tienen derecho a igual protección contra cualquier discriminación en violación de esta Declaración y contra cualquier incitación a tal discriminación ". [21]La DUDH también establece que toda persona tiene derecho a la libertad de expresión, que incluye "la libertad de opinar sin injerencias y de buscar, recibir y difundir información e ideas a través de cualquier medio y sin importar fronteras". [21]

La DUDH fue decisiva a la hora de establecer un marco y una agenda para la protección de los derechos humanos, pero la Declaración no es vinculante . Posteriormente se ha creado una serie de documentos vinculantes para ofrecer una protección más sólida de la libertad de expresión y protección contra la discriminación. El Pacto Internacional de Derechos Civiles y Políticos (PIDCP) aborda el discurso de odio y contiene el derecho a la libertad de expresión en el artículo 19 [21] y la prohibición de la defensa del odio que constituya incitación a la discriminación, la hostilidad o la violencia en el artículo 20. [21 ]Otros instrumentos jurídicos internacionales más adaptados contienen disposiciones que repercuten en la definición de discurso de odio y la identificación de las respuestas al mismo, tales como: la Convención para la Prevención y la Sanción del Delito de Genocidio (1951), la Convención Internacional para la Eliminación de Todas las formas de discriminación racial , ICERD (1969) y, en menor medida, la Convención sobre la eliminación de todas las formas de discriminación contra la mujer , CEDAW (1981). [2]

Discurso de odio y el Pacto Internacional de Derechos Civiles y Políticos [ editar ]

El Pacto Internacional de Derechos Civiles y Políticos es el instrumento legal al que se hace referencia con mayor frecuencia en los debates sobre el discurso del odio y su regulación, aunque no utiliza explícitamente el término "discurso del odio". El artículo 19, al que a menudo se hace referencia como parte del "núcleo del Pacto", [22] establece el derecho a la libertad de expresión. En él se establece el derecho, y también se incluyen las restricciones generales a las que debe ajustarse cualquier limitación del derecho para que sea legítima. El artículo 19 va seguido del artículo 20 que limita expresamente la libertad de expresión en casos de "defensa del odio nacional, racial o religioso que constituya una incitación a la discriminación, la hostilidad o la violencia". [23]La decisión de incluir esta disposición, que puede caracterizarse por incorporar una conceptualización particular del discurso del odio, ha sido profundamente cuestionada. El Comité de Derechos Humanos , el organismo de las Naciones Unidas creado por el Pacto Internacional de Derechos Civiles y Políticos para supervisar su implementación, consciente de la tensión, ha tratado de enfatizar que el artículo 20 es plenamente compatible con el derecho a la libertad de expresión. [24] En el Pacto Internacional de Derechos Civiles y Políticos, el derecho a la libertad de expresión no es un derecho absoluto. Los estados pueden limitarlo legítimamente en circunstancias restringidas:

"3. El ejercicio de los derechos previstos en el párrafo 2 de este artículo conlleva deberes y responsabilidades especiales. Por lo tanto, puede estar sujeto a ciertas restricciones, pero estas serán únicamente las que disponga la ley y sean necesarias: ) Por el respeto de los derechos o la reputación de los demás; (b) Por la protección de la seguridad nacional o del orden público ( ordre public ), o de la salud o la moral públicas ". [25]

Entre el artículo 19 (3) y el artículo 20, existe una distinción entre limitaciones opcionales y obligatorias al derecho a la libertad de expresión. El párrafo 3 del artículo 19 establece que las limitaciones a la libertad de expresión "pueden, por tanto, estar sujetas a determinadas restricciones", siempre que estén previstas por la ley y sean necesarias para determinados fines legítimos. El artículo 20 establece que toda defensa de (ciertos tipos de) odio que constituya una incitación a la discriminación , la hostilidad o la violencia "estará prohibida por la ley". A pesar de las indicaciones sobre la gravedad de los delitos de expresión que deberían estar prohibidos por la ley en virtud del artículo 20, sigue habiendo complejidad. [26]En particular, existe un área gris en la conceptualización de distinciones claras entre (i) expresiones de odio, (ii) expresiones que promueven el odio y (iii) expresiones de odio que específicamente constituyen una incitación a los daños prácticos de la discriminación, la hostilidad o la violencia. Si bien los Estados tienen la obligación de prohibir el discurso concebido como "defensa del odio que constituya una incitación a la discriminación, la hostilidad o la violencia", de conformidad con el artículo 20 (2), [27] no se define claramente cómo interpretarlo. [28]

Otros instrumentos jurídicos internacionales [ editar ]

ICERD [ editar ]

La Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial (ICERD), que entró en vigor en 1969, también tiene implicaciones para la conceptualización de formas de discurso de odio. La ICERD se diferencia del ICCPR en tres aspectos. [2] Su conceptualización del discurso del odio se limita específicamente al discurso que se refiere a la raza y la etnia . Afirma en el artículo 4, párrafo (a), que los Estados Partes:

"Declarará como delito punible por ley toda difusión de ideas basadas en la superioridad u odio racial, la incitación a la discriminación racial, así como todos los actos de violencia o incitación a cometer tales actos contra cualquier raza o grupo de personas de otro color u origen étnico , y también la provisión de cualquier asistencia a las actividades racistas, incluido el financiamiento de las mismas; Esta obligación impuesta por la ICERD a los Estados partes también es más estricta que el caso del artículo 20 del ICCPR que cubre la criminalización de ideas racistas que no necesariamente incitan a la discriminación. , hostilidad o violencia ".

Una diferencia importante está en la cuestión de la intención . El concepto de "defensa del odio" introducido en el Pacto Internacional de Derechos Civiles y Políticos es más específico que el discurso discriminatorio descrito en la ICERD, ya que se considera que requiere la consideración de la intención del autor y no la expresión de forma aislada ; esto se debe a que se interpreta "defensa" en el Pacto Internacional de Derechos Civiles y Políticos como requiriendo la intención de sembrar odio. [29] El Comité para la Eliminación de la Discriminación Racial ha abordado activamente el discurso de odio en su Recomendación General 29, en la que el Comité recomienda a los Estados Partes que:

"r) Adoptar medidas contra toda difusión de ideas de superioridad e inferioridad de casta o que intenten justificar la violencia, el odio o la discriminación contra las comunidades de ascendencia; s) Adoptar medidas estrictas contra toda incitación a la discriminación o la violencia contra las comunidades, incluidas a través de Internet; t) Adopte medidas para concienciar a los profesionales de los medios de comunicación sobre la naturaleza y la incidencia de la discriminación basada en la ascendencia "; [30]

Estos puntos, que reflejan la referencia de la ICERD a la difusión de la expresión, tienen importancia para Internet . La expresión de ideas en algunos contextos en línea puede equivaler inmediatamente a difundirlas. Esto es especialmente relevante para los espacios privados que han comenzado a desempeñar un papel público, como es el caso de muchas plataformas de redes sociales . [2]

Convención sobre el genocidio [ editar ]

De manera similar a la ICERD, la Convención sobre el Genocidio tiene como objetivo proteger a los grupos definidos por raza, nacionalidad o etnia, aunque también extiende sus disposiciones a los grupos religiosos. En lo que respecta al discurso del odio, la Convención sobre el Genocidio se limita únicamente a los actos que incitan públicamente al genocidio , reconocidos como "actos cometidos con la intención de destruir , total o parcialmente, a un grupo nacional, étnico, racial o religioso", independientemente de si esos actos se llevan a cabo en tiempo de paz o en tiempo de guerra. [2] Específicamente , el discurso de odio basado en el género (a diferencia de las acciones discriminatorias) no está cubierto en profundidad en el derecho internacional . [2]

CEDAW [ editar ]

La Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (CEDAW), que entró en vigor en 1981, impone a los Estados la obligación de condenar la discriminación contra la mujer [31] y "prevenir, investigar, enjuiciar y sancionar" los actos de género. violencia. [32]

Respuestas regionales [ editar ]

La mayoría de los instrumentos regionales no tienen artículos específicos que prescriban la prohibición del discurso de odio, pero en general permiten que los estados limiten la libertad de expresión, disposiciones que pueden aplicarse a casos específicos. [2]

Convención Americana sobre Derechos Humanos [ editar ]

La Convención Americana sobre Derechos Humanos describe las limitaciones a la libertad de expresión de manera similar al Pacto Internacional de Derechos Civiles y Políticos en el artículo 19 (3). La Organización de los Estados Americanos también ha adoptado otra declaración sobre los principios de la libertad de expresión, que incluye una cláusula específica en la que se establece que "el condicionamiento previo a las expresiones, como veracidad, oportunidad o imparcialidad es incompatible con el derecho a la libertad de expresión reconocido en las normas internacionales instrumentos ". [33] La Corte Interamericana ha advertido que "(a) el abuso de la libertad de información no puede, pues, ser controlado con medidas preventivas, sino únicamente mediante la posterior imposición de sanciones a los culpables de los abusos".[34] La Corte también impone un test para los Estados que quieran dictar restricciones a la libertad de expresión, pues deben observar los siguientes requisitos: "a) la existencia de causales de responsabilidad previamente establecidos; b) la definición expresa y precisa de estas fundamentos de derecho; c) la legitimidad de los fines que se pretenden alcanzar; d) una demostración de que estos motivos de responsabilidad son 'necesarios para asegurar' los fines antes mencionados ". [35] El Sistema Interamericano cuenta con un Relator Especial sobre Libertad de Expresión que realizó un estudio integral sobre el discurso del odio. Concluyó que el Sistema Interamericano de Derechos Humanos se diferencia del Sistema de Naciones Unidas y el europeoenfoque sobre un punto clave: el sistema interamericano cubre y restringe el discurso de odio que en realidad conduce a la violencia, y únicamente ese discurso puede ser restringido. [35]

Carta Africana de Derechos Humanos y Derechos de los Pueblos [ editar ]

La Carta Africana de Derechos Humanos y Derechos de los Pueblos adopta un enfoque diferente en el Artículo 9 (2), permitiendo restricciones a los derechos siempre que estén "dentro de la ley". Este concepto ha sido criticado y existe una gran cantidad de estudios legales sobre las llamadas cláusulas de "recuperación" y su interpretación. [36]La crítica se dirige principalmente al hecho de que los países pueden manipular su propia legislación y debilitar la esencia del derecho a la libertad de expresión. La Declaración de Principios sobre la Libertad de Expresión en África elabora un estándar más alto para las limitaciones a la libertad de expresión. Declara que el derecho "no debe restringirse por motivos de orden público o seguridad nacional a menos que exista un riesgo real de daño a un interés legítimo y exista un estrecho vínculo causal entre el riesgo de daño y la expresión". [37]

Declaración de El Cairo sobre los derechos humanos en el Islam [ editar ]

En 1990, la Organización de la Conferencia Islámica (que luego pasó a llamarse Organización de Cooperación Islámica, OCI) adoptó la Declaración de El Cairo sobre los Derechos Humanos en el Islam (CDHRI), que pide la criminalización del discurso que se extiende más allá de los casos de violencia inminente para abarcar " actos o discursos que denotan intolerancia y odio manifiestos ". [38]

Carta Árabe de Derechos Humanos [ editar ]

La Carta Árabe de Derechos Humanos, que fue aprobada por el Consejo de la Liga de los Estados Árabes en 2004, incluye en el artículo 32 disposiciones que son pertinentes también para la comunicación en línea, ya que garantiza el derecho a la "libertad de opinión y expresión, y el derecho buscar, recibir e impartir información e ideas a través de cualquier medio, independientemente de los límites geográficos ". [39] Permite una limitación de forma amplia en el párrafo 2 "Dichos derechos y libertades se ejercerán de conformidad con los valores fundamentales de la sociedad". [40]

Declaración de derechos humanos de la ASEAN [ editar ]

La Declaración de Derechos Humanos de la ASEAN incluye el derecho a la libertad de expresión en el artículo 23. El artículo 7 de la Declaración establece limitaciones generales, afirmando que "la realización de los derechos humanos debe ser considerada en el contexto regional y nacional teniendo en cuenta las diferencias políticas, económicas , antecedentes legales, sociales, culturales, históricos y religiosos ". [41]

Carta de los Derechos Fundamentales de la Unión Europea [ editar ]

La Carta de los Derechos Fundamentales de la Unión Europea que declara el derecho a la libertad de expresión en el artículo 11, tiene una cláusula que prohíbe el abuso de derechos. Afirma que la Carta no debe interpretarse en el sentido de que implica una "limitación en mayor medida que la prevista en ella". [42] Un ejemplo de limitación que implica una prueba estricta de necesidad y proporcionalidad es la disposición sobre libertad de expresión del Convenio Europeo de Derechos Humanos , que subraya que el ejercicio de la libertad de expresión conlleva deberes y responsabilidades. "Puede estar sujeta a las formalidades, condiciones, restricciones o sanciones que prescriba la ley y sean necesarias en una sociedad democrática , en interés dela seguridad nacional , la integridad territorial o la seguridad pública , para la prevención de desórdenes o delitos, para la protección de la salud o la moral, para la protección de la reputación o los derechos de los demás, para prevenir la divulgación de información recibida en forma confidencial, o para mantener la autoridad e imparcialidad del poder judicial " [43].

El Tribunal Europeo de Derechos Humanos tiene cuidado de distinguir entre el discurso de odio y el derecho de las personas a expresar sus opiniones libremente, incluso si otros se ofenden. [44] Hay instancias regionales relevantes específicamente para la incitación al odio en línea. El Consejo de Europa (CoE) emitió en 2000 una Recomendación de política general sobre la lucha contra la difusión de material racista, xenófobo y antisemita a través de Internet. [45] La creación del Convenio del Consejo de Europa sobre el delito cibernético en 2001, que regula la asistencia mutua en materia de poderes de investigación, proporciona a los países signatarios un mecanismo para tratar los datos informáticos , que incluiríadiscurso de odio transnacional en línea. [46] En 2003, el Consejo de Europa lanzó un protocolo adicional al Convenio sobre la ciberdelincuencia que aborda la expresión en línea del racismo y la xenofobia. La convención y su protocolo se abrieron a la firma y ratificación de países fuera de Europa y otros países, como Canadá y Sudáfrica., ya forman parte de esta convención. El Protocolo impone a los Estados miembros la obligación de tipificar como delito los insultos racistas y xenófobos en línea de "i) las personas por el motivo de que pertenecen a un grupo que se distingue por su raza, color, ascendencia u origen nacional o étnico, así como por la religión, si se utiliza como pretexto para cualquiera de estos factores; o (ii) un grupo de personas que se distingue por alguna de estas características ". [47]

Espacios privados [ editar ]

Los intermediarios de Internet como las plataformas de redes sociales , los Proveedores de Servicios de Internet o los Motores de Búsqueda , estipulan en sus términos de servicio cómo pueden intervenir para permitir, restringir o canalizar la creación y el acceso a contenidos específicos. Una gran cantidad de interacciones en línea ocurren en plataformas de redes sociales que trascienden las jurisdicciones nacionales y cuyas plataformas también han desarrollado sus propias definiciones de discurso de odio y medidas para responder a él. Para un usuario que viola los términos de servicio, el contenido que ha publicado puede ser eliminado de la plataforma, o su acceso puede estar restringido para ser visto solo por una determinada categoría de usuarios (por ejemplo, usuarios que viven fuera de un país específico). [2]

Los principios que inspiran los acuerdos de términos de servicio y los mecanismos que cada empresa desarrolla para asegurar su implementación tienen repercusiones significativas en la capacidad que tienen las personas para expresarse en línea, así como para estar protegidas del discurso de odio. La mayoría de los intermediarios tienen que entablar negociaciones con los gobiernos nacionales en una medida que varía según el tipo de intermediario, las áreas donde está registrada la empresa y el régimen legal que se aplique. Como explica Tsesis, "(i) si las transmisiones en Internet se envían y reciben en lugares particulares, los foros específicos conservan la jurisdicción para procesar las actividades ilegales realizadas en Internet". [2]Los proveedores de servicios de Internet son los más directamente afectados por la legislación nacional porque tienen que estar ubicados en un país específico para operar. Los motores de búsqueda, si bien pueden modificar los resultados de búsqueda por razones comerciales o de autorregulación, han tendido cada vez más a adaptarse al régimen de responsabilidad del intermediario tanto de sus jurisdicciones de origen registradas como de otras jurisdicciones en las que prestan sus servicios, ya sea eliminando enlaces al contenido de forma proactiva o a solicitud de las autoridades. [48]

También se espera que todos los intermediarios de Internet operados por empresas privadas respeten los derechos humanos . Esto se establece en los Principios Rectores sobre Empresas y Derechos Humanos elaborados por la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos . El documento enfatiza la responsabilidad corporativa en la defensa de los derechos humanos. En el principio 11, declara que: "Las empresas comerciales deben respetar los derechos humanos. Esto significa que deben evitar infringir los derechos humanos de los demás y deben abordar los impactos adversos sobre los derechos humanos en los que están involucradas". [49]Los Principios Rectores de las Naciones Unidas también indican que en los casos en que se violan los derechos humanos, las empresas deben "prever o cooperar en su reparación a través de procesos legítimos". [49] En el caso de los intermediarios de Internet y las concepciones del discurso del odio, esto significa que deben asegurarse de que existan medidas para proporcionar una respuesta acorde. [2]

Respuestas sociales [ editar ]

Estudios de caso [ editar ]

El Panel de Tendencias Americanas [ editar ]

Pew Research Center encuestó a más de 10,000 adultos en julio de 2020 para estudiar el efecto de las redes sociales en la política y el activismo por la justicia social . El 23% de los encuestados, que son usuarios adultos de las redes sociales, informaron que el contenido de las redes sociales les ha hecho cambiar de opinión, positiva o negativamente, sobre un tema político o de justicia social. [50] El 35% de los encuestados citó el movimiento Black Lives Matter , la reforma policial y / o las relaciones raciales . [50] El 18% de los encuestados informó un cambio de opinión sobre partidos políticos, ideologías , políticos y / o el presidente Donald Trump . [50]El 9% de los encuestados citó cuestiones de justicia social, como los derechos LGBTQIA + , el feminismo , la inmigración , etc. [50] El 8% de los encuestados cambió su opinión sobre la pandemia de coronavirus y el 10% citó otras opiniones. [50] Según estos resultados, las redes sociales desempeñan un papel importante a la hora de influir en la opinión pública.

Manipulación y desinformación de medios en línea [ editar ]

Un estudio realizado por las investigadoras Alice Marwick y Rebecca Lewis observó la manipulación de los medios y exploró cómo la extrema derecha comercializaba, se conectaba en red y colaboraba para influir en sus controvertidas creencias que podrían haber contribuido a influir en la victoria del presidente Trump en las elecciones de 2016 . A diferencia de los medios de comunicación convencionales , la derecha alternativa no necesita cumplir con ninguna regla cuando se trata de influencia y no necesita preocuparse por las calificaciones de la red, las críticas de la audiencia o el sensacionalismo . [51]Los grupos de la derecha alternativa pueden compartir y persuadir a otros de sus creencias controvertidas de la manera más directa y descarada que deseen, en cualquier plataforma, que puede haber jugado un papel en las elecciones de 2016. Aunque el estudio no pudo concluir cuál fue exactamente el efecto en las elecciones, sí proporcionó una investigación extensa sobre las características de la manipulación y el trolling de los medios . [51]

Discurso de odio y perfiles lingüísticos en los juegos en línea [ editar ]

La profesora y jugadora Kishonna L. Gray estudió las opresiones interseccionales en la comunidad de juegos en línea y pidió a Microsoft y a los desarrolladores de juegos que "evalúen críticamente las experiencias de los jugadores no tradicionales en las comunidades en línea ... reconozcan la diversidad ... [y que] el valor predeterminado La población de jugadores está desplegando blancura hegemónica y masculinidad en detrimento de los usuarios no blancos y / o masculinos dentro del espacio ". [52] Gray examinó el sexismo y el racismo en la comunidad de juegos en línea . Los jugadores intentan identificar el género, la sexualidad y el origen étnico de sus compañeros de equipo y oponentes a través dePerfiles lingüísticos , cuando los otros jugadores no se pueden ver. [52] Debido a la intensa atmósfera de la esfera de los juegos virtuales y la incapacidad de no ser vistos, ubicados o confrontados físicamente, los jugadores tienden a decir cosas en el juego virtual que probablemente no habrían dicho en un entorno público. Muchos jugadores de comunidades marginadas se han separado de la red global de juegos y se han unido a " clanes " , que consisten únicamente en jugadores del mismo género, sexualidad y / o identidad étnica, para evitar la discriminación mientras juegan. Un estudio encontró que el 78 por ciento de todos los jugadores en línea juegan en "gremios", que son grupos más pequeños de jugadores, similares a los " clanes ". [53]Uno de los " clanes " más notables , Puerto Reekan Killaz, ha creado un espacio de juegos en línea donde las mujeres negras y latinas de la comunidad LGBTQIA + pueden jugar sin riesgo de racismo , nativismo , homofobia , sexismo y acoso sexual . [52]

Además del discurso de odio, la profesora y jugadora Lisa Nakamura descubrió que muchos jugadores han experimentado el turismo de identidad , que es cuando una persona o grupo se apropia y finge ser miembros de otro grupo, como Nakamura observó a los jugadores blancos jugar como mujeres " geishas " japonesas . [54] El turismo de identidad a menudo conduce a estereotipos , discriminación y apropiación cultural . [54] Nakamura pidió a la comunidad de juegos en línea que reconozca el Cybertyping, "la forma en que Internet propaga, difunde y mercantiliza imágenes de raza y racismo". [55]

Retórica anti-china empleada por perpetradores del odio anti-asiático [ editar ]

Hasta agosto de 2020, más de 2500 asiático-estadounidenses han informado haber experimentado racismo alimentado por COVID-19 , y el 30,5% de esos casos contienen retórica anti-china, según Stop AAPI (Asian-American / Pacific Islander) Hate . El lenguaje utilizado en estos incidentes se divide en cinco categorías: animosidad virulenta, chivo expiatorio de China, nativismo antiinmigrante , caracterizaciones racistas del chino e insultos raciales . El 60,4% de estos incidentes reportados encajan en la categoría de animosidad virulenta, que incluye frases como "¡quítame el culo chino!" [56]

Myanmar [ editar ]

Internet ha crecido a un ritmo sin precedentes. Myanmar está en transición hacia una mayor apertura y acceso, lo que genera aspectos negativos de las redes sociales, como el uso de discursos de odio y llamadas a la violencia. [57] En 2014, la relatora especial del Consejo de Derechos Humanos de la ONU sobre cuestiones de las minorías expresó su preocupación por la difusión de información errónea , discursos de odio e incitación a la violencia , discriminación y hostilidad en los medios de comunicación e Internet, especialmente contra una comunidad minoritaria. [4] La creciente tensión en línea ha ido en paralelo con casos de violencia real que dejaron cientos de muertos y miles de desplazados. [58]Un desafío en este proceso ha afectado a las minorías étnicas y religiosas. En 2013, 43 personas murieron debido a los enfrentamientos que estallaron después de una disputa en el estado de Rakhine en la parte occidental del país. [58] Un año antes, más de 200 personas murieron y miles fueron desplazadas 37 debido a la violencia étnica, que estalló después de un presunto caso de violación. [59] En este contexto, la rápida aparición de nuevos espacios en línea, aunque para una fracción de la población, ha reflejado algunas de estas tensiones profundamente arraigadas en una nueva forma. [2]

Lidiar con la intolerancia y el discurso de odio en línea es un problema emergente. Facebook se ha convertido rápidamente en la plataforma elegida por los ciudadanos que dan sus primeros pasos en línea. En este entorno ha habido individuos y grupos, que han defendido un uso más agresivo del medio, especialmente cuando se sienten protegidos por un sentido de rectitud y por pretensiones de actuar en defensa del interés nacional . Las figuras políticas también han utilizado los medios en línea por causas particulares. En las redes sociales, se han utilizado términos despectivos en referencia a las minorías. [60]En esta compleja situación, una variedad de actores ha comenzado a movilizarse, buscando ofrecer respuestas que puedan evitar más violencia. Facebook ha tratado de desempeñar un papel más activo en el seguimiento de los usos de la plataforma de red social en Myanmar, desarrollando asociaciones con organizaciones locales y haciendo que las directrices sobre informes de problemas sean accesibles en birmano. [61] [2]

La sociedad civil local ha constituido una voz fuerte al condenar abiertamente la difusión del discurso de odio en línea, pero al mismo tiempo ha pedido alternativas a la censura . Entre las respuestas más innovadoras se encuentra Panzagar, que en birmano significa "discurso floral", una campaña lanzada por el bloguero y activista Nay Phone Latt para oponerse abiertamente al discurso del odio. El objetivo de la iniciativa era ofrecer un ejemplo alegre de cómo las personas pueden interactuar, tanto en línea como fuera de línea. [62] Los activistas locales se han centrado en soluciones locales, en lugar de intentar movilizar a la sociedad civil mundial.sobre estos temas. Esto contrasta con otras campañas en línea que han logrado atraer la atención del mundo hacia problemas relativamente desatendidos. Iniciativas como las impulsadas por la Coalición Save Darfur para la guerra civil en Sudán , o la organización Invisible Children with the Kony2012 que denuncia las atrocidades cometidas por el Lord Resistance Army , son ejemplos populares. Como han señalado los comentarios sobre estas campañas, tales respuestas globales pueden tener repercusiones negativas en la capacidad de encontrar soluciones locales. [63]

Etiopía [ editar ]

La rivalidad étnica de larga duración en Etiopía entre el pueblo Oromo y el pueblo Amhara encontró un campo de batalla en Facebook , lo que provocó discursos de odio, amenazas, desinformación e incluso muertes. Facebook no tiene verificadores de hechos que hablen ninguno de los idiomas dominantes que se hablan en Etiopía ni proporcionan traducciones de los Estándares Comunitarios, por lo tanto, el discurso de odio en Facebook no se supervisa en gran medida en Etiopía. En cambio, Facebook confía en los activistas para señalar un posible discurso de odio y desinformación, pero los muchos activistas del agotamiento se sienten maltratados. [64]

En octubre de 2019, el activista etíope Jawar Mohammed anunció falsamente en Facebook que la policía lo iba a detener, citando tensiones religiosas y étnicas. Esto llevó a la comunidad a protestar por su presunta detención y las tensiones raciales y étnicas, que provocan más de 70 muertes. [sesenta y cinco]

Una campaña de desinformación se originó en Facebook y se centró en el popular cantante etíope, Hachalu Hundessa , del grupo étnico Oromo. Los puestos acusaron a Hundessa de apoyar a su controvertido primer ministro Abiy Ahmed , a quien los nacionalistas oromo refutaron por atender a otros grupos étnicos. Hundessa fue asesinada en junio de 2020 luego de estas odiosas publicaciones en Facebook, lo que provocó la indignación pública. Los usuarios de Facebook culparon al pueblo de Amhara por el asesinato de Hundessa sin ninguna evidencia en un largo hilo de contenido de odio. [64] Según The Network Against Hate Speech, muchas publicaciones de Facebook pedían " genocidasataques contra un grupo étnico o una religión, o ambos al mismo tiempo; y ordenar a la gente que queme las propiedades de los civiles, los mate brutalmente y los desplace ". [64] La violencia en las calles y en Facebook se intensificó hasta el punto de que el gobierno etíope tuvo que cerrar Internet durante tres semanas. Sin embargo, los vecinos los países aún podrían publicar y acceder al contenido de odio del asunto, y los activistas voluntarios no pudieron acceder a Internet para marcar el discurso de odio. Por lo tanto, “hay horas de video que provienen de la comunidad de la diáspora, contenido extremista, diciendo que tenemos que exterminar este grupo étnico ”, según el profesor Endalk Chala de la Universidad de Hamline [64].

Los funcionarios de Facebook se aventuraron a Etiopía para investigar, pero no dieron a conocer sus hallazgos. Facebook anunció que están contratando moderadores que pueden hablar amárico y otros idiomas en Etiopía, pero no brindó muchos detalles. [64]

Empresas privadas [ editar ]

Los intermediarios de Internet han desarrollado definiciones dispares del discurso de odio y directrices para regularlo. Algunas empresas no utilizan el término discurso de odio, pero tienen una lista descriptiva de términos relacionados. [2]

Yahoo! [ editar ]

Yahoo! Los términos de servicio prohíben la publicación de "contenido que sea ilegal , dañino, amenazante, abusivo, acosador , tortuoso, difamatorio , vulgar, obsceno, calumnioso , invasivo de la privacidad de otra persona, odioso o objetable racial, étnicamente o de otro modo". [66]

Twitter [ editar ]

En diciembre de 2017, Twitter comenzó a aplicar nuevas políticas sobre el discurso del odio, prohibiendo múltiples cuentas y estableciendo nuevas pautas sobre lo que se permitirá en su plataforma. [67] Hay una página completa en el Centro de ayuda de Twitter dedicada a describir su Política de conducta de odio, así como sus procedimientos de aplicación. La parte superior de esta página dice: "La libertad de expresión significa poco si las voces se silencian porque las personas tienen miedo de hablar. No toleramos el comportamiento que acose, intimide o use el miedo para silenciar la voz de otra persona. Si ves algo en Twitter que infringe estas reglas, infórmenos ". Definición de Twitter de discurso de odioabarca desde "amenazas violentas" y "deseos de daño físico, muerte o enfermedad de individuos o grupos" hasta "insultos, epítetos, tropos racistas y sexistas repetidos y / o no consentidos, u otro contenido que degrade a alguien".

Los castigos por violaciones van desde suspender la capacidad de un usuario de twittear hasta que elimine su publicación ofensiva / odiosa hasta la eliminación de una cuenta por completo. En un comunicado posterior a la implementación de sus nuevas políticas, Twitter dijo: "En nuestros esfuerzos por ser más agresivos aquí, podemos cometer algunos errores y estamos trabajando en un sólido proceso de apelaciones". . . "Evaluaremos e iteraremos sobre estos cambios en los próximos días y semanas, y lo mantendremos informado sobre el progreso a lo largo del camino". [68] Estos cambios se producen en un momento en el que se están tomando medidas para prevenir el discurso de odio en todo el mundo, incluidas nuevas leyes en Europa que imponen multas a los sitios que no pueden abordar los informes de discurso de odio en un plazo de 24 horas. [69]

YouTube [ editar ]

YouTube , una subsidiaria de la compañía de tecnología Google , permite una fácil distribución de contenido y acceso para cualquier creador de contenido, lo que crea una oportunidad para que la audiencia acceda a contenido que se desplaza hacia la derecha o hacia la izquierda de la ideología ' moderada ' común en los medios de comunicación convencionales . [70] YouTube ofrece incentivos a los creadores de contenido populares, lo que incita a algunos creadores a optimizar la experiencia de YouTuber y publicar contenido valioso que puede promover ideas extremistas y llenas de odio. [70] [71] Diversidad de contenido y monetizaciónen YouTube dirige a una amplia audiencia al contenido potencialmente dañino de los extremistas. [70] [71] YouTube permite que los creadores se marquen personalmente, lo que facilita que los suscriptores jóvenes formen una relación parasocial con ellos y actúen como clientes "habituales". [71] En 2019, YouTube desmonetizó las cuentas políticas, [72] pero los creadores de contenido radicales todavía tienen sus canales y suscriptores para mantenerlos a flote culturalmente relevantes y financieramente. [71]

YouTube ha esbozado una "Política de incitación al odio" clara entre varias otras políticas de usuario en su sitio web. [73] La política está redactada como tal: "Alentamos la libertad de expresión y tratamos de defender su derecho a expresar puntos de vista impopulares, pero no permitimos el discurso de odio. El discurso de odio se refiere al contenido que promueve la violencia contra propósito de incitar al odio contra personas o grupos en base a ciertos atributos, tales como: raza u origen étnico, religión, discapacidad, género, edad, condición de veterano, orientación sexual / identidad de género ". YouTube ha incorporado un sistema de informes de usuarios para contrarrestar la creciente tendencia del discurso de odio. [74]Entre los elementos de disuasión más populares contra la incitación al odio, los usuarios pueden denunciar de forma anónima a otro usuario por el contenido que consideran inapropiado. Luego, el contenido se revisa según la política de YouTube y las restricciones de edad, y se elimina o se deja solo.

Facebook [ editar ]

Los términos de Facebook prohíben el contenido que sea dañino, amenazante o que tenga el potencial de despertar el odio e incitar a la violencia. En sus estándares comunitarios, Facebook explica que "Facebook elimina el discurso de odio, que incluye contenido que ataca directamente a las personas en función de su: raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género o identidad de género, o discapacidades o enfermedades graves . " [75] Afirma además que "Permitimos el humor, la sátirao comentarios sociales relacionados con estos temas, y creemos que cuando las personas usan su identidad auténtica, son más responsables cuando comparten este tipo de comentarios. Por esa razón, pedimos a los propietarios de la página que asocien su nombre y perfil de Facebook con cualquier contenido que sea insensible, incluso si ese contenido no viola nuestras políticas. Como siempre, instamos a las personas a que sean conscientes de su audiencia cuando compartan este tipo de contenido ". [75]

Instagram , una plataforma para compartir fotos y videos propiedad de Facebook , tiene pautas de incitación al odio similares a las de Facebook, pero no está dividida en niveles. Las Normas de la comunidad de Instagram también prohíben la desinformación, la desnudez, la glorificación de las autolesiones y la publicación de contenido protegido por derechos de autor sin autorización. [76]

Las políticas de discurso de odio de Facebook son aplicadas por 7500 revisores de contenido, así como por muchos monitores de inteligencia artificial. Debido a que esto requiere una toma de decisiones difícil, surge una controversia entre los revisores de contenido sobre el cumplimiento de las políticas. Algunos usuarios parecen sentir que la aplicación es inconsistente. Un ejemplo pasado apropiado son dos publicaciones separadas pero igualmente gráficas que deseaban la muerte a miembros de una religión específica. Ambas publicaciones fueron marcadas por los usuarios y revisadas por el personal de Facebook. Sin embargo, solo uno fue eliminado a pesar de que tenían sentimientos casi idénticos. [77] En una cita sobre el discurso de odio en la plataforma, el vicepresidente de operaciones globales de Facebook, Justin Osofky, declaró: "Lamentamos los errores que hemos cometido; no reflejan la comunidad que queremos ayudar a construir ... Debemos hacerlo mejor. " [78]

Ha habido una controversia adicional debido a la especificidad de las políticas de discurso de odio de Facebook . En muchas ocasiones ha habido informes de actualizaciones de estado y comentarios que los usuarios sienten que son insensibles y transmiten odio. Sin embargo, estas publicaciones no infringen técnicamente ninguna política de Facebook porque su discurso no ataca a otros según la lista de clases protegidas de la empresa. Por ejemplo, la declaración "Las reporteras deportivas deben ser golpeadas en la cabeza con discos de hockey" no se consideraría un discurso de odio en la plataforma de Facebook y, por lo tanto, no se eliminaría. [79] Si bien la empresa protege contra el odio basado en el género, no protege contra el odio basado en la ocupación.

Facebook ha sido acusado de tener prejuicios al vigilar el discurso de odio, citando anuncios de campañas políticas que pueden promover el odio o la desinformación que han tenido un impacto en la plataforma. [14] Facebook ajustó sus políticas después de recibir reacciones violentas, acusaciones y las grandes corporaciones retiraron sus anuncios de la plataforma para protestar por el manejo laxo de la plataforma del discurso de odio y la desinformación. [14] A partir de 2020, los anuncios de campañas políticas tienen una característica de "bandera" que indica que el contenido es de interés periodístico pero que puede violar algunas pautas de la comunidad. [14]

Facebook también intenta acomodar a los usuarios que promueven otro contenido de incitación al odio con la intención de criticarlo. En estos casos, los usuarios deben dejar en claro que su intención es educar a los demás. Si esta intención no está clara, Facebook se reserva el derecho de censurar el contenido. [80] Cuando Facebook marca inicialmente contenido que puede contener incitación al odio, luego lo designa en una escala de Nivel 1, 2 y 3, según la gravedad del contenido. El nivel 1 es el más severo y el nivel 3 es el menos. El nivel 1 incluye todo lo que transmita "discurso violento o apoyo por muerte / enfermedad / daño". [81] El nivel 2 se clasifica como contenido que difama la imagen de otro usuario mental, física o moralmente. [82] El Nivel 3 incluye cualquier cosa que pueda potencialmente excluir o discriminar a otros, o que use insultos sobre grupos protegidos, pero no necesariamente se aplica a argumentos para restringir la inmigración o críticas a las políticas de inmigración existentes. [82]

En marzo de 2019, Facebook prohibió el contenido que apoyaba el nacionalismo blanco y el separatismo blanco , extendiendo una prohibición anterior del contenido de supremacía blanca . [83] En mayo de 2019, anunció prohibiciones a varias personas prominentes por violar su prohibición del discurso de odio, incluidos Alex Jones , Louis Farrakhan , Milo Yiannopoulos , Laura Loomer y Paul Nehlen . [84]

En 2020, Facebook agregó pautas al Nivel 1 que prohíben la cara negra , las comparaciones raciales con animales, los estereotipos raciales o religiosos , la negación de eventos históricos y la objetivación de las mujeres y la comunidad LGBTQIA + . [85]

El discurso de odio en Facebook e Instagram se cuadruplicó en 2020, lo que provocó la eliminación de 22,5 millones de publicaciones en Facebook y 3,3 millones de publicaciones en Instagram solo en el segundo trimestre de 2020. [14]

Microsoft [ editar ]

Microsoft tiene reglas específicas sobre el discurso del odio para una variedad de sus aplicaciones . Su política para teléfonos móviles prohíbe las aplicaciones que "incluyan cualquier contenido que promueva la discriminación, el odio o la violencia por motivos de raza, origen étnico, nacionalidad, idioma, género, edad, discapacidad, religión, orientación sexual, condición de veterano o pertenencia a cualquier otro grupo social ". [86] La compañía también tiene reglas con respecto a los juegos en línea, que prohíben cualquier comunicación que sea indicativa de "discursos de odio, temas religiosos controvertidos y eventos delicados actuales o históricos". [87]

TikTok [ editar ]
"Facebook odia Google+ ???" por Frederick Md Publicity tiene licencia CC BY 2.0. Para ver una copia de esta licencia, visite https://creativecommons.org/licenses/by/2.0/

TikTok carece de pautas claras y de control sobre la incitación al odio, lo que permite que la intimidación , el acoso , la propaganda y la incitación al odio se conviertan en parte del discurso normal en TikTok . Los grupos de odio de extrema derecha, las organizaciones terroristas y los pedófilos prosperan en TikTok al difundir y alentar el odio a una audiencia de tan solo 13 años. [88] Los niños son ingenuos y fácilmente influenciados por otras personas y mensajes, por lo tanto, es más probable que escuchen y repitan lo que se les muestra o se les dice. [89]Internet no tiene un espacio excesivamente supervisado que garantice la seguridad de los niños, por lo que mientras Internet sea público, los niños y adolescentes seguramente se encontrarán con discursos de odio. [89] A partir de ahí, los jóvenes adolescentes tienden a dejar que su curiosidad los lleve a promover su interés y la investigación de ideas radicales. [89]

Sin embargo, los niños no pueden asumir la responsabilidad por sus acciones de la forma en que los adultos pueden y deben, [89] culpando no solo a la persona que publicó el contenido vulgar, sino a la propia plataforma de redes sociales. Por lo tanto, TikTok es criticado por su manejo del discurso de odio en la plataforma. Si bien TikTok prohíbe la intimidación , el acoso y cualquier discurso vulgar o de odio en sus Términos y condiciones, TikTok no ha estado activo el tiempo suficiente para haber desarrollado un método eficaz para monitorear este contenido. [88] Otras plataformas de redes sociales como Instagram , Twitter y Facebookhan estado activos el tiempo suficiente para saber cómo luchar contra el discurso del odio y el contenido vulgar en línea, [88] pero la audiencia en esas plataformas tiene la edad suficiente para asumir la responsabilidad de los mensajes que difunden. [89]

TikTok , por otro lado, tiene que asumir cierta responsabilidad por el contenido distribuido a su audiencia joven. [88] Se requiere que los usuarios de TikTok tengan al menos 13 años de edad, sin embargo, ese requisito se puede renunciar fácilmente, ya que las aplicaciones no pueden acceder físicamente a la edad de los usuarios. El investigador Robert Mark Simpson concluyó que combatir el discurso de odio en los medios dirigidos a los jóvenes "podría parecerse más a las regulaciones que rigen el entretenimiento para adultos que a las prohibiciones sobre la negación del Holocausto". [89]

Alfabetización mediática e informacional [ editar ]

La alfabetización mediática e informacional tiene como objetivo ayudar a las personas a participar en una sociedad digital al poder usar, comprender, investigar, crear, comunicarse y pensar críticamente; al mismo tiempo que puede acceder, organizar, analizar, evaluar y crear mensajes en una variedad de formas de manera efectiva. [90]

La educación para la ciudadanía se centra en preparar a las personas para que sean ciudadanos informados y responsables mediante el estudio de los derechos, las libertades y las responsabilidades, y se ha empleado de diversas formas en sociedades que emergen de conflictos violentos. [91] Uno de sus principales objetivos es la sensibilización sobre los derechos políticos, sociales y culturales de las personas y los grupos, incluida la libertad de expresión y las responsabilidades e implicaciones sociales que de ella se derivan. La preocupación de la educación para la ciudadanía con el discurso del odio es doble: abarca el conocimiento y las habilidades para identificar el discurso del odio y debería permitir a las personas contrarrestar los mensajes de odio. [92]Uno de sus desafíos actuales es adaptar sus objetivos y estrategias al mundo digital, proporcionando no solo conocimientos y habilidades argumentativos sino también tecnológicos que un ciudadano puede necesitar para contrarrestar el discurso de odio en línea. [2]

La alfabetización en información no puede evitar cuestiones como los derechos a la libertad de expresión y la privacidad, la ciudadanía crítica y el fomento del empoderamiento para la participación política . [93] Las alfabetizaciones múltiples y complementarias se vuelven críticas. La aparición de nuevas tecnologías y redes sociales ha jugado un papel importante en este cambio. Los individuos han evolucionado de ser solo consumidores de mensajes mediáticos a productores, creadores y curadores de información, dando como resultado nuevos modelos de participación que interactúan con los tradicionales, como votar o unirse a un partido político.. Las estrategias de enseñanza están cambiando en consecuencia, desde fomentar la recepción crítica de los mensajes de los medios hasta incluir el empoderamiento de la creación de contenido de los medios. [94]

El concepto de alfabetización mediática e informacional en sí mismo sigue evolucionando, aumentado por la dinámica de Internet. Está comenzando a abarcar cuestiones de identidad , ética y derechos en el ciberespacio . [95] Algunas de estas habilidades pueden ser particularmente importantes al identificar y responder al discurso de odio en línea.

Serie de iniciativas orientadas tanto a proporcionar información como herramientas prácticas para que los usuarios de Internet sean ciudadanos digitales activos :

  • 'No hay lugar para el odio' de Anti-Defamation League (ADL), Estados Unidos ;
  • Proyecto 'En otras palabras' de la Provincia di Mantova y la Comisión Europea ;
  • "Enfrentando el odio en línea" por MediaSmarts , Canadá ;
  • “No hay movimiento de incitación al odio” por el Departamento de Juventud del Consejo de Europa , Europa ; [96]
  • 'Odio en línea' por el Instituto de Prevención del Odio en Línea , Australia .

La educación también se considera una herramienta contra la incitación al odio. Laura Geraghty del 'Movimiento No Hate Speech' afirmó: "La educación es clave para prevenir el discurso de odio en línea. Es necesario crear conciencia y empoderar a las personas para que se conecten en línea de manera responsable; sin embargo, aún se necesitan los antecedentes y los instrumentos legales para enjuiciar los delitos de odio, incluido el discurso de odio en línea; de lo contrario, el aspecto preventivo no ayudará ". [97] [2]

Fuentes [ editar ]

 Este artículo incorpora texto de un trabajo de contenido gratuito . Con licencia bajo CC BY SA 3.0 IGO Declaración de licencia / permiso en Wikimedia Commons . Texto tomado de Contrarrestar el discurso de odio en línea , 73, Iginio Gagliardone, Danit Gal, Thiago Alves, Gabriela Martinez, UNESCO. UNESCO. Para aprender cómo agregar texto de licencia abierta a los artículos de Wikipedia, consulte esta página de instrucciones . Para obtener información sobre cómo reutilizar texto de Wikipedia , consulte los términos de uso .

Referencias [ editar ]

  1. ^ Johnson, NF; Leahy, R .; Johnson Restrepo, N .; Velásquez, N .; Zheng, M .; Manrique, P .; Devkota, P .; Wuchty, S. (21 de agosto de 2019). "Resiliencia oculta y dinámica adaptativa de la ecología del odio en línea global". Naturaleza . Investigación de la naturaleza . 573 (7773): 261–265. Código Bib : 2019Natur.573..261J . doi : 10.1038 / s41586-019-1494-7 . PMID  31435010 . S2CID  201118236 .
  2. ^ a b c d e f g h i j k l m n o p q r s t u v w x y Gagliardone, Iginio; Gal, Danit; Alves, Thiago; Martínez, Gabriela (2015). Contrarrestar el discurso de odio en línea . http://unesdoc.unesco.org/images/0023/002332/233231e.pdf : UNESCO. pag. 75.CS1 maint: location (link)
  3. ↑ a b Waldron, Jeremy (2012). El daño en el discurso de odio . Prensa de la Universidad de Harvard. ISBN 978-0-674-06589-5. JSTOR  j.ctt2jbrjd .
  4. ↑ a b Izsak, Rita (2015). Informe de la Relatora Especial sobre cuestiones de las minorías, Rita Izsák . Consejo de Derechos Humanos.
  5. ^ Ver Consejo de Europa, "Estudio de mapeo sobre proyectos contra el discurso de odio en línea", 15 de abril de 2012. Ver también entrevistas: Christine Chen, Gerente Senior de Políticas Públicas, Google, 2 de marzo de 2015; Monika Bickert, directora de gestión de políticas globales, Facebook, 14 de enero de 2015
  6. ^ Ver HateBase, Estadísticas del discurso de odio, http://www.hatebase.org/popular
  7. ^ Entrevista: Andre Oboler, director ejecutivo, Instituto de prevención del odio en línea, 31 de octubre de 2014.
  8. ^ Mateo, Binny; Dutt, Ritam; Goyal, Pawan; Mukherjee, Animesh. Difusión del discurso de odio en las redes sociales en línea . ACM WebSci 2019. Boston, MA, EE.UU .: ACM. arXiv : 1812.01693 .
  9. ^ Citron, Danielle Keats; Norton, Helen L. (2011). "Intermediarios y discurso de odio: fomento de la ciudadanía digital para nuestra era de la información" . Revista de derecho de la Universidad de Boston . Rochester, Nueva York. 91 . SSRN 1764004 . 
  10. ^ Entrevista: Drew Boyd, Director de operaciones, Proyecto Sentinel para la prevención del genocidio, 24 de octubre de 2014.
  11. ^ Phillips, Whitney (2015). Esta es la razón por la que no podemos tener cosas buenas: mapear la relación entre el trolling en línea y la cultura convencional . MIT Press.
  12. ^ Marwick, Alice; Lewis, Rebecca (2017). Manipulación de medios y desinformación en línea . Instituto de Investigación de Datos y Sociedad.
  13. ^ Banks, James (noviembre de 2010). "Regular el discurso de odio en línea" (PDF) . Revista internacional de derecho, informática y tecnología . 24 (3): 4–5. doi : 10.1080 / 13600869.2010.522323 . S2CID 61094808 .  
  14. ^ a b c d e "Las publicaciones de odio en Facebook e Instagram se disparan" . Fortuna . Consultado el 21 de noviembre de 2020 .
  15. ^ a b Gray, María; Suri, Siddharth (2019). OBRA FANTASMA: Cómo evitar que Silicon Valley construya una nueva clase baja global . Nueva York: Houghton Mifflin Harcourt.
  16. ^ Meddaugh, Priscilla Marie; Kay, Jack (30 de octubre de 2009). "¿Discurso de odio o" racismo razonable? "El otro en Stormfront" . Revista de ética de los medios de comunicación . 24 (4): 251–268. doi : 10.1080 / 08900520903320936 . ISSN 0890-0523 . S2CID 144527647 .  
  17. ↑ a b Bowman-Grieve, Lorraine (30 de octubre de 2009). "Explorando" Stormfront ": una comunidad virtual de la derecha radical" . Estudios en Conflicto y Terrorismo . 32 (11): 989–1007. doi : 10.1080 / 10576100903259951 . ISSN 1057-610X . S2CID 145545836 .  
  18. ^ Nobata, Chikashi; Tetreault, J .; Thomas, A .; Mehdad, Yashar; Chang, Yi (2016). "Detección de lenguaje abusivo en el contenido del usuario en línea" . WWW : 145-153. doi : 10.1145 / 2872427.2883062 . ISBN 9781450341431. S2CID  11546523 .
  19. ^ a b Koster, Willem De; Houtman, Dick (1 de diciembre de 2008). "Stormfront es como un segundo hogar para mí" . Información, comunicación y sociedad . 11 (8): 1155-1176. doi : 10.1080 / 13691180802266665 . ISSN 1369-118X . S2CID 142205186 .  
  20. ^ Cohen-Almagor, Raphael (2018). "Tomar en serio a los grupos supremacistas blancos de América del Norte: el alcance y el desafío del discurso de odio en Internet" . Revista internacional sobre el crimen, la justicia y la socialdemocracia . 7 : 9. doi : 10.5204 / ijcjsd.v7i2.517 .
  21. ^ a b c d "La Declaración Universal de Derechos Humanos" . Naciones Unidas . 1948.
  22. ^ Lillich, Richard B. (abril de 1995). "Pacto de las Naciones Unidas sobre Derechos Civiles y Políticos. Comentario del CCPR. Por Manfred Nowak. Kehl, Estrasburgo, Arlington VA: NP Engel, Editorial, 1993. Pp. Xxviii, 939. Index, $ 176; £ 112; DM / sfr. 262" . Revista Estadounidense de Derecho Internacional . 89 (2): 460–461. doi : 10.2307 / 2204221 . ISSN 0002-9300 . JSTOR 2204221 .  
  23. ^ Leo, Leonard A .; Gaer, Felice D .; Cassidy, Elizabeth K. (2011). "Proteger las religiones de la difamación: una amenaza para los estándares universales de derechos humanos" . Harvard Journal of Law & Public Policy . 34 : 769.
  24. ^ Comité de Derechos Humanos. Observación general no. 11, artículo 20: Prohibición de la propaganda de guerra e incitación al odio nacional, racial o religioso, 29 de julio de 1983, párr. 2. En 2011, el Comité aclaró sus puntos de vista sobre la relación de los artículos 19 y 20 cuando reafirmó que las disposiciones se complementan y que el artículo 20 "puede ser considerado lex specialis con respecto al artículo 19". Comité de Derechos Humanos. Observación general no. 34, artículo 19: Libertades de opinión y expresión, CCPR / C / GC / 34, 12 de septiembre de 2011, párrs. 48-52.
  25. ^ Artículo 19 (3) si el Pacto Internacional de Derechos Civiles y Políticos.
  26. ^ Incluso el Comité de Derechos Humanos, que se ha pronunciado sobre casos relacionados con el artículo 20, ha evitado dar una definición de incitación al odio. Consejo de Derechos Humanos. Incitación al odio racial y religioso y promoción de la tolerancia: Informe del Alto Comisionado para los Derechos Humanos, A / HRC / 2/6, 20 de septiembre de 2006, párr. 36.
  27. ^ Faurisson c. Francia, C. Opinión individual de Elizabeth Evatt y David Kretzmer, firmada conjuntamente por Eckart Klein (concurrente), párr. 4.
  28. ^ Consejo de derechos humanos. Informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos Adición, Seminario de expertos sobre los vínculos entre los artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos, A / HRC / 10/31 / Add.3, 16 de enero de 2009, párr. 1.
  29. ^ Informe del Alto Comisionado para los Derechos Humanos, A / HRC / 2/6, párr. 39;
  30. ^ Comité para la Eliminación de la Discriminación Racial, Recomendación general 29, Discriminación basada en la ascendencia (Sexagésimo primer período de sesiones, 2002), UN Doc. A / 57/18 en 111 (2002), reimpreso en Recopilación de observaciones generales y recomendaciones generales adoptadas por órganos creados en virtud de tratados de derechos humanos, UNDoc. HRI \ GEN \ 1 \ Rev.6 en 223 (2003), párrs. r, s y t
  31. ^ Artículo 2 de la CEDAW.
  32. ^ Recomendación general núm. 28 sobre las obligaciones fundamentales de los Estados partes en virtud del artículo 2 de la Convención sobre la eliminación de todas las formas de discriminación contra la mujer párr. 19
  33. ^ Comisión Interamericana de Derechos Humanos. Declaración Interamericana de Principios sobre Libertad de Expresión, 20 de octubre de 2000, párr. 7.
  34. ^ Comisión Interamericana de Derechos Humanos, Opinión Consultiva OC-5/85, 13 de noviembre de 1985, párr. 39
  35. ^ a b Comisión Interamericana de Derechos Humanos, Opinión Consultiva OC-5/85, 13 de noviembre de 1985, párr 39.
  36. ^ Viljoen, Frans (2007). Derecho internacional de los derechos humanos en África . Oxford: Prensa de la Universidad de Oxford.
  37. ^ Comisión africana de derechos humanos y de los pueblos. Declaración de Principios sobre Libertad de Expresión en África, 32º período de sesiones, Banjul, 17 a 23 de octubre de 2002.
  38. ^ Organización de Cooperación Islámica, Sexto informe del Observatorio de la OCI sobre islamofobia, presentado al 40.o Consejo de Ministros de Relaciones Exteriores, Conakry, República de Guinea, diciembre de 2013, p 31.
  39. ^ Liga de los Estados Árabes, Carta Árabe de Derechos Humanos, 22 de mayo de 2004, entró en vigor el 15 de marzo de 2008, párr. 32 (1)
  40. ^ Liga de los Estados Árabes, Carta Árabe de Derechos Humanos, 22 de mayo de 2004, entró en vigor el 15 de marzo de 2008, párr. 32 (2).
  41. ^ Artículo 7 de la Declaración de derechos humanos de la ASEAN.
  42. ^ Artículo 54 de la Carta de los Derechos Fundamentales de la Unión Europea.
  43. ^ Artículo 10 del Convenio Europeo de Derechos Humanos.
  44. ^ Handyside contra Reino Unido, 7 de diciembre de 1976, párr. 49. Se pueden encontrar más casos de discurso de odio bajo el Tribunal Europeo en: http://www.echr.coe.int/Documents/FS_Hate_speech_ENG.pdf Archivado el 18 de octubre de 2019 en Wayback Machine 49
  45. ^ Recomendación de política general núm. 6 de la ECRI, sobre la lucha contra la difusión de material racista, xenófobo y antisemita a través de Internet, adoptada el 15 de diciembre de 2000.
  46. ^ Consejo de Europa, Convenio sobre la ciberdelincuencia, 23 de noviembre de 2001, párrafos 31 a 34.
  47. ^ Consejo de Europa, Protocolo adicional al Convenio sobre la ciberdelincuencia, relativo a la penalización de actos de carácter racista y xenófobo cometidos a través de sistemas informáticos, 28 de enero de 2003, art 5, párrafo 1.
  48. ^ Mackinnon, David; Lemieux, Christopher; Beazley, Karen; Woodley, Stephen (noviembre de 2015). "Canadá y la Meta 11 de Aichi para la Diversidad Biológica: comprensión de 'otras medidas de conservación efectivas basadas en áreas' en el contexto de la meta más amplia" . Biodiversidad y Conservación . 24 (14): 3559–3581. doi : 10.1007 / s10531-015-1018-1 . S2CID 17487707 : a través de ResearchGate. 
  49. ^ a b Naciones Unidas (2011). Principios rectores sobre empresas y derechos humanos . Nueva York: Oficina del Nuevo Comisionado.
  50. ↑ a b c d e Perrin, Andrew (15 de octubre de 2020). "El 23% de los usuarios en EE. UU. Dicen que las redes sociales los llevaron a cambiar de opinión sobre un tema; algunos citan Black Lives Matter" . Centro de Investigación Pew . Consultado el 22 de noviembre de 2020 .
  51. ^ a b Marwick, Alice; Lewis, Rebecca (2017). Manipulación de medios y desinformación en línea . Instituto de Investigación de Datos y Sociedad.
  52. ↑ a b c Gray, Kishonna (2012). "Intersección de opresiones y comunidades en línea" . Información, comunicación y sociedad . 15 (3): 411–428. doi : 10.1080 / 1369118X.2011.642401 . S2CID 142726754 - a través de Taylor & Francis. 
  53. ^ Seay, A. Fleming; Jerome, William J .; Lee, Kevin Sang; Kraut, Robert E. (24 de abril de 2004). "Proyecto masivo: un estudio de comunidades de juego online" . CHI '04 Extended Abstracts on Human Factors in Computing Systems . CHI EA '04. Viena, Austria: Asociación de Maquinaria Informática: 1421-1424. doi : 10.1145 / 985921.986080 . ISBN 978-1-58113-703-3. S2CID  24091184 .
  54. ↑ a b Nakamura, Lisa (2002). "Después de las imágenes de identidad: género, tecnología y políticas de identidad". Reload: Rethinking Women + Cyberculture : 321–331 - vía MIT Press.
  55. ^ Nakamura, Lisa (2002). Cibertipos: Raza, Etnia e Identidad en Internet . Nueva York: Routledge.
  56. ^ Jeung, Russell; Popovic, Tara; Lim, Richard; Lin, Nelson (2020). "RETÓRICA ANTI CHINA EMPLEADA POR PERPETRADORES DEL ODIO ANTIASIÁTICO" (PDF) . Consejo de Política y Planificación de Asia Pacífico .
  57. ^ Hereward Holland, "Facebook in Myanmar: Amplifying Hate Speech ?," Al Jazeera, 14 de junio de 2014, http://www.aljazeera.com/indepth/features/2014/06/facebook-myanmar-rohingya-amplifying-hatespeech- 2014612112834290144.html
  58. ^ a b "¿Por qué hay violencia comunitaria en Myanmar?", BBC, 3 de julio de 2014. https://www.bbc.co.uk/news/worldasia-18395788
  59. ^ Andrew Marshall, "Informe especial: La situación de la minoría musulmana amenaza la primavera de Myanmar", Reuters, 15 de junio de 2012, https://www.reuters.com/article/2012/06/15/us-myanmar-rohingya-idUSBRE85E06A20120615
  60. ^ Erika Kinetz, "La nueva numerología del odio crece en Birmania", Irrawaddy, 29 de abril de 2013 http://www.irrawaddy.org/religion/new-numerology-of-hate-grows-in-burma.html . Hereward Holland, "Facebook in Myanmar: Amplifying Hate Speech ?," Al Jazeera, 14 de junio de 2014; Steven Kiersons, "The Colonial Origins of Hate Speech in Burma", The Sentinel Project, 28 de octubre de 2013, https://thesentinelproject.org/2013/10/28/the-colonial-origins-of-hate-speech-in- Birmania / ., http://www.aljazeera.com/indepth/features/2014/06/facebook-myanmar-rohingya-amplifying-hate-speech-2014612112834290144.html
  61. ^ Tim McLaughlin, "Facebook toma medidas para combatir el discurso de odio", The Myanmar Times, 25 de julio de 2014. http://www.mmtimes.com/index.php/national-news/11114-facebook-standards-marked-for- translation.html
  62. ^ San Yamin Aung, "Activista en línea birmano discute campaña contra el discurso de odio", Irrawaddy, http://www.irrawaddy.org/interview/hate-speech-pours-poison-heart.html
  63. Georg, Schomerus (13/01/12). "Evolución de las actitudes públicas sobre las enfermedades mentales: una revisión sistemática y un metanálisis" . Acta Psychiatrica Scandinavica . 125 (6): 423–504. doi : 10.1111 / j.1600-0447.2012.01826.x . PMID 22242976 . S2CID 24546527 : a través de la biblioteca en línea de Wiley.   Verifique los valores de fecha en: |date=( ayuda )
  64. ↑ a b c d e Gilbert, David (14 de septiembre de 2020). "El discurso de odio en Facebook está empujando a Etiopía peligrosamente cerca de un genocidio" . www.vice.com . Consultado el 6 de diciembre de 2020 .
  65. ^ Lashitew, Addisu (8 de noviembre de 2019). "Etiopía explotará si no va más allá de la política étnica" . Política exterior . Consultado el 6 de diciembre de 2020 .
  66. ^ "Ayuda para la cuenta de Yahoo" . help.yahoo.com . Consultado el 28 de junio de 2019 .
  67. ^ "Twitter comienza a aplicar nuevas políticas sobre violencia, abuso y conducta de odio" . The Verge . Consultado el 30 de mayo de 2018 .
  68. ^ "Política de conducta de odio" . Consultado el 30 de mayo de 2018 .
  69. ^ "Alemania para hacer cumplir la ley de incitación al odio" . BBC News . 2018 . Consultado el 30 de mayo de 2018 .
  70. ↑ a b c Munn, Luke (julio de 2020). "Angry by design: comunicación tóxica y arquitecturas técnicas" . Comunicación en Humanidades y Ciencias Sociales . 7 : 1-11. doi : 10.1057 / s41599-020-00550-7 . S2CID 220855380 : a través de ResearchGate. 
  71. ^ a b c d Munger, Kevin; Phillips, Joseph (2019). Un marco de oferta y demanda para la política de YouTube . University Park: Ciencias Políticas de Penn State. págs. 1-38.
  72. ^ "Nuestro trabajo continuo para combatir el odio" . blog.youtube . Consultado el 21 de noviembre de 2020 .
  73. ^ "Política de incitación al odio - Ayuda de YouTube" . support.google.com . Consultado el 30 de mayo de 2018 .
  74. ^ "Informar de contenido inapropiado - Android - Ayuda de YouTube" . support.google.com . Consultado el 30 de mayo de 2018 .
  75. ^ a b "Normas de la comunidad | Facebook" . www.facebook.com . Consultado el 28 de junio de 2019 .
  76. ^ "Normas de la comunidad | Centro de ayuda de Instagram" . www.facebook.com . Consultado el 21 de noviembre de 2020 .
  77. ^ Tobin, Ariana. "La aplicación desigual de Facebook de las reglas del discurso de odio permite que las publicaciones viles se mantengan al día" . Propublica .
  78. ^ Tobin, Ariana. "La aplicación desigual de Facebook de las reglas del discurso de odio permite que las publicaciones viles se mantengan al día" .
  79. ^ Carlsen, Audrey. "¿Qué considera Facebook el discurso de odio? Responda nuestro cuestionario" . The New York Times .
  80. ^ "Normas de la comunidad: contenido objetable" .
  81. ^ Molinos, Chris. "Esto es lo que Facebook no te permitirá publicar" .
  82. ^ a b "Normas de la comunidad: contenido objetable" .
  83. ^ "Facebook prohíbe el contenido del separatismo y el nacionalismo blanco en sus plataformas" . NPR.org . Consultado el 28 de junio de 2019 .
  84. ^ "Facebook prohíbe a Alex Jones, Louis Farrakhan y otras personas 'peligrosas'" . NPR.org . Consultado el 28 de junio de 2019 .
  85. ^ "Actualizaciones recientes de los estándares comunitarios | Facebook" . www.facebook.com . Consultado el 21 de noviembre de 2020 .
  86. ^ "Políticas de contenido" . msdn.microsoft.com . Consultado el 28 de junio de 2019 .
  87. ^ "Normas de la comunidad de Xbox | Xbox" . Xbox.com . Consultado el 28 de junio de 2019 .
  88. ^ a b c d Weimann, Gabriel; Masri, Natalie (19 de junio de 2020). "Nota de investigación: difundir el odio en TikTok" . Estudios en Conflicto y Terrorismo . 0 : 1–14. doi : 10.1080 / 1057610X.2020.1780027 . ISSN 1057-610X . 
  89. ↑ a b c d e f Simpson, Robert Mark (1 de febrero de 2019). " ' ¿Alguien no pensará por favor en los niños?' Discurso de odio, daño e infancia " . Derecho y Filosofía . 38 (1): 79–108. doi : 10.1007 / s10982-018-9339-3 . ISSN 1573-0522 . S2CID 150223892 .  
  90. ^ "Alfabetización mediática e informacional" . UNESCO . 2016-09-01 . Consultado el 28 de junio de 2019 .
  91. ^ Osler, Audrey; Starkey, Hugh (2006). "Educación para la ciudadanía democrática: una revisión de la investigación, la política y la práctica 1995-2005" . Artículos de investigación en educación . 24 (4): 433–466. doi : 10.1080 / 02671520600942438 - a través de ResearchGate.
  92. ^ Mateo, Binny; Saha, Punyajoy; Tharad, Hardik; Rajgaria, Shubham; Singhania, Prajwal; Goyal, Pawan; Mukherjee, Animesh. No odiarás: contrarrestar el discurso de odio en línea . ICWSM 2019. Munich, Alemania: AAAI. arXiv : 1808.04409 .
  93. ^ Mossberger, Karen; Tolbert, Caroline; McNeal, Ramona (2007). Ciudadanía digital: Internet, sociedad y participación . MIT Press.
  94. ^ Hoechsmann, Michael; Poyntz, Stuart (2012). Alfabetizaciones mediáticas: una introducción crítica . West Sussex: publicación de Blackwell.
  95. ^ Ver Declaración de París: Declaración de París sobre MIL en la era digital. http://www.unesco.org/new/en/communication-andinformation/resources/news-and-in-focus-articles/in-focus-articles/2014/paris-declaration-on-mediaand-information-literacy- adoptado/
  96. ^ El 'Movimiento No Hate Speech' es una campaña regional que abarca 50 países mucho más allá del continente europeo. Si bien la campaña tiene objetivos comunes y desarrolla estrategias conjuntas, los proyectos e iniciativas particulares que se desarrollan en cada país son responsabilidad de los coordinadores nacionales y están sujetos a la capacidad y los recursos de cada país.
  97. ^ Entrevista: Laura Geraghty, No Hate Speech Movement, 25 de noviembre de 2014.