De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La manipulación de Internet se refiere a la cooptación de tecnología digital, como algoritmos de redes sociales y scripts automatizados, con fines comerciales, sociales o políticos. [1] Estas tácticas pueden emplearse con la intención explícita de manipular la opinión pública, polarizar a los ciudadanos, [2] silenciar a los disidentes políticos, dañar a los adversarios corporativos o políticos y mejorar la reputación personal o de marca . Se ha informado que hackers, profesionales contratados y ciudadanos privados se involucran en la manipulación de Internet utilizando software  , generalmente bots de Internet como bots sociales , votebots y clickbots .[3]

La piratería cognitiva se refiere a un ciberataque que tiene como objetivo cambiar las percepciones de los usuarios y los comportamientos correspondientes. [4] [5] [6]

La manipulación de Internet a veces también se utiliza para describir la censura selectiva de Internet [7] [8] o las violaciones de la neutralidad de la red . [9]

Problemas [ editar ]

  • Manipulación del comportamiento : las noticias falsas, la desinformación y la inteligencia artificial pueden afectar secretamente el comportamiento. Este es un problema diferente de afectar las creencias cognitivas, ya que puede operar fuera de la conciencia, lo que dificulta su detección. [10]
  • Viralidad de emociones de alta excitación : se ha encontrado que el contenido que evoca emociones de gran excitación (por ejemplo, asombro, ira, ansiedad o con un significado sexual oculto) es más viral y ese contenido que contiene uno o muchos de estos elementos: sorprendente, interesante, o útil se toma en consideración. [11]
  • Simplicidad sobre complejidad : proporcionar y perpetuar explicaciones simples para circunstancias complejas puede usarse para la manipulación en línea. A menudo, estos son más fáciles de creer, se adelantan a cualquier investigación adecuada y tienen una viralidad más alta que cualquier explicación e información complejas y matizadas. [12] (Ver también: Racionalidad de poca información )
  • Influencia de los compañeros : las valoraciones colectivas anteriores de un contenido web influyen en la percepción que uno tiene de él. En 2015 se demostró que la belleza percibida de una obra de arte en un contexto en línea varía con la influencia externa, ya que las calificaciones confederadas fueron manipuladas por la opinión y la credibilidad de los participantes de un experimento a quienes se les pidió que evaluaran una obra de arte. [13] Además, en Reddit , se ha encontrado que el contenido que inicialmente recibe algunos votos negativos o positivos a menudo continúa siendo negativo, o viceversa. Los usuarios y administradores de reddit se refieren a esto como "votación de tren / bola de nieve". [14]
  • Burbujas de filtro : las cámaras de eco y las burbujas de filtro pueden ser creadas por administradores o moderadores del sitio web que bloquean a las personas con puntos de vista cambiantes o estableciendo ciertas reglas o por los puntos de vista típicos de miembros de sub / comunidades en línea o "tribus" de Internet
  • Sesgo de confirmación y prevalencia manipulada : las noticias falsas no necesitan ser leídas, pero tienen un efecto en la cantidad y el efecto emocional solo por sus titulares y fragmentos de sonido . [ cita requerida ] Los puntos, puntos de vista, problemas específicos y la prevalencia aparente de las personas pueden amplificarse, [15] estimularse o simularse. (Ver también: efecto de mera exposición )
  • Puntualidad e incorregibilidad de la información : las aclaraciones, la revelación de conspiraciones y la exposición de noticias falsas a menudo llegan tarde cuando el daño ya está hecho y / o no llegan a la mayor parte de la audiencia de la información errónea asociada [16] [se necesita una mejor fuente ]
  • Orientación psicológica : las actividades de las redes sociales y otros datos se pueden utilizar para analizar la personalidad de las personas y predecir su comportamiento y preferencias. [17] [18] El Dr. Michal Kosinski desarrolló un procedimiento de este tipo. [17] Esto se puede utilizar para medios o información adaptada a la psique de una persona, por ejemplo, a través de Facebook . Según los informes, esto puede haber jugado un papel integral en la victoria de Donald Trump. [17] [19] (Véase también: publicidad dirigida , marketing personalizado )

Algoritmos, cámaras de eco y polarización [ editar ]

Debido a la sobreabundancia de contenido en línea, las plataformas de redes sociales y los motores de búsqueda han aprovechado algoritmos para adaptar y personalizar los feeds de los usuarios en función de sus preferencias individuales. Sin embargo, los algoritmos también restringen la exposición a diferentes puntos de vista y contenido. Esto se conoce comúnmente como "cámaras de eco" y " burbujas de filtro ". [20]

Con la ayuda de algoritmos, las burbujas de filtro influyen en las elecciones y la percepción de la realidad de los usuarios al dar la impresión de que un punto de vista o representación en particular es ampliamente compartido. Tras el referéndum de la membresía de la Unión Europea en el Reino Unido de 2016 y las elecciones presidenciales de Estados Unidos , esto llamó la atención ya que muchas personas confesaron su sorpresa por resultados que parecían muy distantes de sus expectativas. El rango de pluralismo está influenciado por la individualización personalizada de los servicios y la forma en que disminuye la elección. [21]Se encontraron cinco influencias verbales manipuladoras en los textos de los medios. Hay autoexpresión, estrategias de habla semántica, estrategias persuasivas, películas deslizantes y manipulación de la información. El conjunto de herramientas de vocabulario para la manipulación del habla incluye eufemismo, vocabulario del estado de ánimo, adjetivos situacionales, lemas, metáforas verbales, etc. [22]

Las investigaciones sobre cámaras de eco de Flaxman, Goel y Rao, [23] Pariser , [24] y Grömping [25] sugieren que el uso de las redes sociales y los motores de búsqueda tiende a aumentar la distancia ideológica entre los individuos.

Las comparaciones entre la segregación en línea y fuera de línea han indicado cómo la segregación tiende a ser mayor en las interacciones cara a cara con vecinos, compañeros de trabajo o miembros de la familia, [26] y las revisiones de las investigaciones existentes han indicado que la evidencia empírica disponible no lo hace. Apoyar las opiniones más pesimistas sobre la polarización . [27] Un estudio realizado por investigadores de Facebook y la Universidad de Michigan , por ejemplo, ha sugerido que las propias elecciones de los individuos impulsan el filtrado algorítmico, lo que limita la exposición a una variedad de contenido. [28]Si bien es posible que los algoritmos no estén causando polarización, podrían amplificarla, lo que representa un componente importante del nuevo panorama de la información. [29]

Investigación y uso por agencias militares y de inteligencia [ editar ]

Algunos de los métodos / técnicas de operación JTRIG filtrados

La unidad del Grupo de Inteligencia de Investigación de Amenazas Conjuntas de la Sede de Comunicaciones del Gobierno (GCHQ), la agencia de inteligencia británica [30] fue revelada como parte de las revelaciones de vigilancia global en documentos filtrados por el ex contratista de la Agencia de Seguridad Nacional Edward Snowden [31] y su misión El alcance incluye el uso de "trucos sucios" para "destruir, negar, degradar [y] perturbar" a los enemigos. [31] [32] Las tácticas centrales incluyen inyectar material falso en Internet para destruir la reputación de los objetivos y manipular el discurso y el activismo en línea.para lo cual se pueden utilizar métodos como publicar material en Internet y atribuirlo falsamente a otra persona, fingir ser una víctima del individuo objetivo cuya reputación se pretende destruir y publicar "información negativa" en varios foros. [33]

Conocidas como operaciones de "Efectos", el trabajo de JTRIG se había convertido en una "parte importante" de las operaciones de GCHQ en 2010. [31] Los esfuerzos de propaganda en línea de la unidad (denominados "Acción encubierta en línea" [ cita requerida ] ) utilizan "mensajería masiva" y el "empuje [de] historias" a través de Twitter , Flickr , Facebook y YouTube . [31] JTRIG también utiliza operaciones en línea de " bandera falsa " contra objetivos. [31] JTRIG también ha cambiado fotografías en sitios de redes sociales, así como enviar correos electrónicos y mensajes de texto a colegas y vecinos con "información desagradable "sobre el individuo objetivo.[31] En junio de 2015, los archivos de la NSA publicados por Glenn Greenwald revelaron nuevos detalles sobre el trabajo de JTRIG en la manipulación encubierta de comunidades en línea. [34] Las divulgaciones también revelaron la técnica de "recolección de credenciales", en la que los periodistas podrían utilizarse para difundir información e identificar a periodistas no británicos que, una vez manipulados, podrían dar información al objetivo previsto de una campaña secreta, quizás proporcionando acceso. durante una entrevista. [31] Se desconoce si los periodistas estarían al tanto de que estaban siendo manipulados. [31]

Además, a menudo se acusa a Rusia de financiar a "trolls" para que publiquen opiniones prorrusas en Internet. [35] La Agencia de Investigación de Internet se ha hecho conocida por emplear a cientos de rusos para publicar propaganda en línea bajo identidades falsas con el fin de crear la ilusión de un apoyo masivo. [36] En 2016, Rusia fue acusada de sofisticadas campañas de propaganda para difundir noticias falsas con el objetivo de castigar a la demócrata Hillary Clinton y ayudar al republicano Donald Trump durante las elecciones presidenciales de 2016, así como socavar la fe en la democracia estadounidense. [37] [38] [39]

En un informe de 2017 [40], Facebook declaró públicamente que su sitio ha sido explotado por los gobiernos para manipular la opinión pública en otros países, incluso durante las elecciones presidenciales en Estados Unidos y Francia. [15] [41] [42] Identificó tres componentes principales involucrados en una campaña de operaciones de información: recopilación de datos dirigida, creación de contenido y amplificación falsa e incluye el robo y la exposición de información que no es pública; difundir historias, falsas o reales, a terceros a través de cuentas falsas; y la coordinación de cuentas falsas para manipular la discusión política, como amplificar algunas voces y reprimir otras. [43] [44]

En política [ editar ]

En 2016 Andrés Sepúlveda reveló que manipuló la opinión pública para manipular las elecciones en América Latina. Según él, con un presupuesto de $ 600.000, lideró un equipo de piratas informáticos que robaron estrategias de campaña, manipularon las redes sociales para crear falsas olas de entusiasmo y burla e instalaron software espía en las oficinas de la oposición para ayudar a Enrique Peña Nieto , un candidato de centro derecha. , gana las elecciones. [45] [46]

En el período previo a las elecciones de 2014 en India , tanto el partido Bharatiya Janata (BJP) como el partido del Congreso fueron acusados ​​de contratar "trolls políticos" para hablar favorablemente sobre ellos en blogs y redes sociales. [35]

También se cree que el gobierno chino dirige un llamado " ejército de 50 centavos " (una referencia a cuánto se dice que se les paga) y el " Ejército del Agua de Internet " para reforzar la opinión favorable hacia él y el Partido Comunista de China. (PCCh), así como para reprimir la disidencia. [35] [47]

En diciembre de 2014, se puso en marcha el Ministerio de Información de Ucrania para contrarrestar la propaganda rusa, siendo una de sus primeras tareas la creación de cuentas en las redes sociales (también conocidas como i-Army ) y la acumulación de amigos haciéndose pasar por residentes del este de Ucrania. [35] [48]

Twitter suspendió una serie de cuentas de bots que parecían estar difundiendo tuits a favor de Arabia Saudita sobre la desaparición del periodista disidente saudí Jamal Khashoggi . [49]

En negocios y marketing [ editar ]

Trolling y otras aplicaciones [ editar ]

En abril de 2009, los trolls de Internet de 4chan eligieron a Christopher Poole , fundador del sitio, como la persona más influyente del mundo en 2008 con 16.794.368 votos según una encuesta abierta de Internet realizada por la revista Time . [50] Los resultados fueron cuestionados incluso antes de que se completara la encuesta, ya que se utilizaron programas de votación automatizados y relleno manual de boletas para influir en la votación. [51] [52] [53] La interferencia de 4chan con la votación parecía cada vez más probable, cuando se descubrió que al leer la primera letrade los primeros 21 candidatos en la encuesta deletrearon una frase que contenía dos memes de 4chan : "Marblecake. Además, The Game ". [54]

Los bromistas y los hacktivistas de orientación política pueden compartir conocimientos sofisticados sobre cómo manipular la Web y las redes sociales. [55]

Contramedidas [ editar ]

En Wired se señaló que las reglas del estado-nación, como el registro obligatorio y las amenazas de castigo, no son medidas adecuadas para combatir el problema de los bots en línea. [56]

Para protegerse contra el problema de las calificaciones previas que influyen en la percepción, varios sitios web como Reddit han tomado medidas como ocultar el recuento de votos durante un tiempo específico. [14]

Algunas otras medidas potenciales que se están debatiendo son marcar publicaciones por ser probablemente una sátira o falsa. [57] Por ejemplo, en diciembre de 2016, Facebook anunció que los artículos en disputa se marcarán con la ayuda de usuarios y verificadores de hechos externos. [58] La empresa busca formas de identificar "operaciones de información" y cuentas falsas y suspendió 30.000 cuentas antes de las elecciones presidenciales en Francia en una huelga contra las operaciones de información. [15]

El inventor de la World Wide Web, Tim Berners-Lee, considera que poner a pocas empresas a cargo de decidir qué es o no es una propuesta arriesgada y afirma que la apertura puede hacer que la web sea más veraz. Como ejemplo, señala Wikipedia que, si bien no es perfecta, permite que cualquiera pueda editar con la clave de su éxito no solo en la tecnología sino también en la gobernanza del sitio. Es decir, tiene un ejército de innumerables voluntarios y formas de determinar qué es o no es cierto. [59]

Además, se pueden usar varios tipos de software para combatir este problema, como software de verificación falso o extensiones voluntarias del navegador que almacenan todos los sitios web que uno lee o usan el historial de navegación para entregar revelaciones falsas a aquellos que leen una historia falsa después de algún tipo de consenso. encontrado en la falsedad de una historia. [ investigación original? ]

Además, Daniel Suárez pide a la sociedad que valore el pensamiento analítico crítico y sugiere reformas educativas como la introducción de la 'lógica formal' como disciplina en las escuelas y la formación en alfabetización mediática y evaluación objetiva. [57]

Respuestas del gobierno [ editar ]

Según un estudio del Oxford Internet Institute, al menos 43 países de todo el mundo han propuesto o implementado regulaciones diseñadas específicamente para abordar diferentes aspectos de las campañas de influencia, incluidas las noticias falsas, el abuso de las redes sociales y la interferencia electoral. [60]

Alemania [ editar ]

En Alemania, durante el período anterior a las elecciones de septiembre de 2017, todos los principales partidos políticos, excepto AfD, anunciaron públicamente que no usarían bots sociales en sus campañas. Además, se comprometieron a condenar enérgicamente dicho uso de bots en línea.

Se han realizado avances hacia la regulación de las redes sociales: tres estados alemanes, Hessen, Baviera y Sajonia-Anhalt propusieron a principios de 2017 una ley que significaría que los usuarios de las redes sociales podrían enfrentar procesos judiciales si violan los términos y condiciones de una plataforma. Por ejemplo, el uso de un seudónimo en Facebook, o la creación de una cuenta falsa, se castigaría con hasta un año de prisión. [61]

Italia [ editar ]

A principios de 2018, la Agencia de Comunicaciones italiana AGCOM publicó un conjunto de directrices en su sitio web, dirigidas a las elecciones de marzo de ese mismo año. Los seis temas principales son: [62]

  1. Igualdad de trato de los sujetos políticos
  2. Transparencia de la propaganda política
  3. Contenidos ilícitos y actividades cuya difusión está prohibida (es decir, encuestas)
  4. Cuentas de redes sociales de las administraciones públicas
  5. La propaganda política está prohibida el día de las elecciones y el día anterior
  6. Recomendaciones para servicios de verificación de datos más sólidos

Francia [ editar ]

En noviembre de 2018, se aprobó en Francia una ley contra la manipulación de información. La ley estipula que durante los períodos de campaña: [63]

  • Las plataformas digitales deben revelar el monto pagado por los anuncios y los nombres de sus autores. Más allá de un cierto umbral de tráfico, las plataformas deben tener un representante presente en Francia y deben publicar los algoritmos utilizados.
  • Un juez interino puede aprobar una orden judicial para detener rápidamente la difusión de noticias falsas. Las "noticias falsas" deben satisfacer lo siguiente: (a) deben ser manifiestas; (b) debe difundirse masivamente; y (c) provocar una perturbación de la paz o comprometer el resultado de una elección.

Malasia [ editar ]

En abril de 2018, el parlamento malasio aprobó la Ley contra las noticias falsas. Definió las noticias falsas como "noticias, información, datos e informes que son o son total o parcialmente falsos". [64] Esto se aplicaba a los ciudadanos o aquellos que trabajaban en una publicación digital, y era posible una pena de prisión de hasta 6 años. Sin embargo, la ley fue derogada después de fuertes críticas en agosto de 2018 [65].

Kenia [ editar ]

En mayo de 2018, el presidente Uhuru Kenyatta promulgó la ley de delitos informáticos y cibernéticos, que penaliza los delitos cibernéticos, incluidos el ciberacoso y el ciberespionaje. Si una persona “publica intencionalmente datos falsos, engañosos o ficticios o informa mal con la intención de que los datos se considerarán o actuarán como auténticos”, está sujeta a multas y hasta dos años de prisión. [66]

Investigación [ editar ]

La canciller alemana, Angela Merkel, ha emitido el Bundestag para hacer frente a las posibilidades de manipulación política por parte de robots sociales o noticias falsas. [67]

Ver también [ editar ]

  • Astroturfing
  • Haga clic en la granja
  • Haga clic en fraude
  • Clickbait
  • Clickbot.A
  • Edición de conflictos de intereses en Wikipedia
  • Costo por impresion
  • Crítica a la democracia
  • Críticas al estudio de manipulación de emociones de Facebook § 2014
  • Difamación
  • Desinformación
  • Reforma educativa
  • Me gusta falsos
  • Noticias falsas
  • Burbuja de filtro
  • Intervención electoral extranjera
  • Framing (ciencias sociales)
  • El robo de identidad
  • Guerra de información
  • Imitador
  • Sesgo de los medios
  • Manipulación de medios (categoría)
  • Meme hack
  • Desinformación
  • Ntrepid § contrato militar
  • Vista de pagina
  • Rango de página
  • Pago por clic
  • manipulación de foto
  • Posverdad
  • Manipulación psicológica
  • Operación psicológica
  • Manejo de reputación
  • Optimización de motores de búsqueda (SEO)
  • Neutralidad de búsqueda
  • Análisis de los sentimientos
  • Servicio de redes sociales § Acceso no autorizado
  • Socavación social
  • Sockpuppet (Internet)
  • Spin (propaganda)
  • Capitalismo de vigilancia
  • La gran guerra de los memes
  • Análisis de tendencia
  • Monitoreo de sitios web

Fuentes [ editar ]

 Este artículo incorpora texto de un trabajo de contenido gratuito . Con licencia bajo CC BY SA 3.0 IGO Declaración de licencia / permiso en Wikimedia Commons . Texto extraído del Informe mundial sobre tendencias mundiales en libertad de expresión y desarrollo de los medios de comunicación 2017/2018 , 202, Universidad de Oxford, UNESCO. Para aprender cómo agregar texto de licencia abierta a los artículos de Wikipedia, consulte esta página de instrucciones . Para obtener información sobre cómo reutilizar texto de Wikipedia , consulte los términos de uso .

Referencias [ editar ]

  1. ^ Woolley, Samuel; Howard, Philip N. (2019). Propaganda computacional: partidos políticos, políticos y manipulación política en las redes sociales . Prensa de la Universidad de Oxford. ISBN 978-0190931414.
  2. ^ Marchal, Nahema; Neudert, Lisa-Maria (2019). "Polarización y uso de la tecnología en campañas políticas y comunicación" (PDF) . Servicio de Investigación del Parlamento Europeo .
  3. ^ Gorwa, Robert; Guilbeault, Douglas (10 de agosto de 2018). "Desembalaje del bot de medios sociales: una tipología para guiar la investigación y la política: desempaquetado del bot de medios sociales". Política e Internet . arXiv : 1801.06863 . doi : 10.1002 / poi3.184 . S2CID 51877148 . 
  4. ^ "Hacking cognitivo" (PDF) . 2003 . Consultado el 4 de febrero de 2017 .
  5. ^ Thompson, Paul (2004). "Hacking cognitivo e inteligencia y seguridad informática" (PDF) . Tecnologías propicias para la ciencia de la simulación VIII. 5423 : 142-151. Código bibliográfico : 2004SPIE.5423..142T . doi : 10.1117 / 12.554454 . S2CID 18907972 . Consultado el 4 de febrero de 2017 .   Cite journal requiere |journal=( ayuda )
  6. ^ "Hacking cognitivo: una batalla por la mente" (PDF) . Consultado el 4 de febrero de 2017 .
  7. Castells, Manuel (4 de junio de 2015). Redes de indignación y esperanza: movimientos sociales en la era de Internet . John Wiley e hijos. ISBN 9780745695792. Consultado el 4 de febrero de 2017 .
  8. ^ "Condena por el cierre de Internet de Egipto" . Financial Times . Consultado el 4 de febrero de 2017 .
  9. ^ "La neutralidad de la red gana en Europa - una victoria para Internet como la conocemos" . Ciencia ZME. 31 de agosto de 2016 . Consultado el 4 de febrero de 2017 .
  10. ^ Bastick, Zach (2021). "¿Notarías si las noticias falsas cambiaran tu comportamiento? Un experimento sobre los efectos inconscientes de la desinformación" . Computadoras en el comportamiento humano . 116 (106633): 106633. doi : 10.1016 / j.chb.2020.106633 .
  11. ^ Berger, Jonah; Milkman, Katherine L (abril de 2012). "¿Qué hace que el contenido en línea sea viral?" (PDF) . Revista de investigación de mercados . 49 (2): 192-205. doi : 10.1509 / jmr.10.0353 . S2CID 29504532 .  
  12. ^ Hoff, Carsten Klotz von (6 de abril de 2012). "Manipulación 2.0 - Meinungsmache a través de Facebook" (en alemán). Der Freitag . Consultado el 4 de febrero de 2017 .
  13. ^ Golda, Christopher P. (2015). Influencia social de la información e Internet: manipulación en una sociedad de consumo . Consultado el 4 de febrero de 2017 .
  14. ^ a b "Moderadores: Nueva función de subreddit: las puntuaciones de los comentarios se pueden ocultar durante un período de tiempo definido después de la publicación • / r / modnews" . reddit . Consultado el 4 de febrero de 2017 .
  15. ↑ a b c Solon, Olivia (27 de abril de 2017). "Facebook admite: los gobiernos nos explotaron para difundir propaganda" . The Guardian . Consultado el 30 de abril de 2017 .
  16. ^ "Die Scheinwelt von Facebook & Co. (documental en alemán de la ZDF)" (en alemán) . Consultado el 4 de febrero de 2017 .
  17. ^ a b c "Ich habe nur gezeigt, dass es die Bombe gibt" . Das Magazin. 3 de diciembre de 2016 . Consultado el 30 de abril de 2017 .
  18. ^ Beuth, Patrick (6 de diciembre de 2016). "EE.UU.-Wahl: Big Data allein entscheidet keine Wahl" . Die Zeit . Consultado el 30 de abril de 2017 .
  19. ^ "Los datos que dieron la vuelta al mundo" . Tarjeta madre. 2017-01-28 . Consultado el 30 de abril de 2017 .
  20. ^ Sacasas, LM (2020). "La ciudad analógica y la ciudad digital" . La Nueva Atlántida (61): 3–18. ISSN 1543-1215 . JSTOR 26898497 .  
  21. ^ Tendencias mundiales en libertad de expresión y desarrollo de medios Informe global 2017/2018 . http://www.unesco.org/ulis/cgi-bin/ulis.pl?catno=261065&set=005B2B7D1D_3_314&gp=1&lin=1&ll=1 : UNESCO. 2018. p. 202.Mantenimiento de CS1: ubicación ( enlace )
  22. Kalinina, Anna V .; Yusupova, Elena E .; Voevoda, Elena V. (18 de mayo de 2019). "Medios de influencia en la opinión pública en el contexto político: manipulación del habla en los medios" . Media Watch . 10 (2). doi : 10.15655 / mw / 2019 / v10i2 / 49625 . ISSN 2249-8818 . 
  23. ^ Flaxman, Seth, Sharad Goel y Justin M. Rao. 2016. Filtrar burbujas, cámaras de eco y consumo de noticias online . Public Opinion Quarterly 80 (S1): 298–320.
  24. Pariser, Eli. 2011. La burbuja del filtro: lo que Internet te oculta. Penguin Reino Unido. Disponible en https://books.google.co.uk/?hl=en&lr=&oi=fnd&pg=PT3&dq=eli+pariser+filter&ots=g3PrCprRV2&sig=_FI8GISLrm3WNoMKMlqSTJNOFw Consultado el 20 de mayo de 2017.
  25. ^ Grömping, Max (2014). "Cámaras de eco". Educador de medios de Asia Pacífico . 24 : 39–59. doi : 10.1177 / 1326365X14539185 . S2CID 154399136 . 
  26. ^ Gentzkow, Matthew y Jesse M. Shapiro. 2011. Segregación ideológica online y offline . The Quarterly Journal of Economics 126 (4): 1799–1839.
  27. ^ Zuiderveen Borgesius, Frederik J., Damian Trilling, Judith Moeller, Balázs Bodó, Claes H. de Vreese y Natali Helberger. 2016. ¿Deberíamos preocuparnos por las burbujas de filtro? Disponible en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2758126 . Consultado el 20 de mayo de 2017.
  28. ^ Bakshy, Eytan, Solomon Messing y Lada A. Adamic. 2015. Exposición a noticias y opiniones ideológicamente diversas en Facebook . Science 348 (6239): 1130–1132.
  29. ^ Hargittai. 2015. ¿Por qué Science no publica información importante sobre métodos de manera destacada? Madera torcida. Disponible en http://crookedtimber.org/2015/05/07/why-doesnt-science-publish-important-methods-info-prominently/ . Consultado el 20 de mayo de 2017.
  30. ^ "Fugas de Snowden: GCHQ 'atacó a piratas informáticos anónimos'" . BBC News . BBC. 5 de febrero de 2014 . Consultado el 7 de febrero de 2014 .
  31. ^ a b c d e f g h "Snowden Docs: los espías británicos usaron sexo y 'trucos sucios ' " . NBC News . 7 de febrero de 2014 . Consultado el 7 de febrero de 2014 .
  32. Glenn Greenwald (24 de febrero de 2014). "Cómo agentes encubiertos se infiltran en Internet para manipular, engañar y destruir reputaciones" . La intercepción . - contiene la presentación de diapositivas de DISRUPTION Operational Playbook de GCHQ
  33. Greenwald, Glenn (24 de febrero de 2014). "Cómo agentes encubiertos se infiltran en Internet para manipular, engañar y destruir reputaciones" . La intercepción . Consultado el 4 de febrero de 2017 .
  34. ^ Greenwald, Glenn y Andrew Fishman. Unidad controvertida de GCHQ dedicada a la aplicación de la ley nacional, propaganda en línea, investigación psicológica . La intercepción . 2015-06-22.
  35. ↑ a b c d Shearlaw, Maeve (2 de abril de 2015). "De Gran Bretaña a Beijing: cómo los gobiernos manipulan Internet" . The Guardian . Consultado el 4 de febrero de 2017 .
  36. ^ Chen, Adrian (2 de junio de 2015). "La Agencia" . The New York Times . Consultado el 30 de abril de 2017 .
  37. ^ Watts, Clint; Weisburd, Andrew (6 de agosto de 2016), "Trolls para Trump: cómo Rusia domina su feed de Twitter para promover mentiras (y Trump, también)" , The Daily Beast , consultado el 24 de noviembre de 2016
  38. ^ "Esfuerzo de propaganda rusa probablemente detrás de la avalancha de noticias falsas que precedieron a las elecciones" , PBS NewsHour , Associated Press , 25 de noviembre de 2016 , consultado el 26 de noviembre de 2016
  39. ^ "La campaña de propaganda rusa supuestamente difundió 'noticias falsas' durante las elecciones estadounidenses" , Nine News , Agence France-Presse , 26 de noviembre de 2016 , consultado el 26 de noviembre de 2016
  40. ^ "Operaciones de información y Facebook" (PDF) . 27 de abril de 2017. Archivado desde el original (PDF) el 27 de abril de 2017 . Consultado el 30 de abril de 2017 .
  41. Reinbold, Fabian (28 de abril de 2017). "Konzern dokumentiert erstmals Probleme: Geheimdienste nutzen Facebook zur Desinformation" . SPIEGEL EN LÍNEA . Consultado el 30 de abril de 2017 .
  42. ^ "Informe: Facebook nicht mehr für Propaganda missbraucht werden" (en alemán). ALAMBRADO Alemania. 28 de abril de 2017 . Consultado el 30 de abril de 2017 .
  43. ^ "Facebook se dirige a campañas coordinadas que difunden noticias falsas" . CNET . Consultado el 30 de abril de 2017 .
  44. ^ "Facebook, por primera vez, reconoce la manipulación electoral" . Consultado el 30 de abril de 2017 .
  45. ^ "Cómo piratear una elección" . Bloomberg . Consultado el 22 de enero de 2017 .
  46. ^ "El hombre afirma que manipuló las elecciones en la mayoría de los países de América Latina durante 8 años" . The Independent . 2 de abril de 2016 . Consultado el 22 de enero de 2017 .
  47. ^ MacKinnon, Rebecca (2012). Consentimiento de los interconectados: la lucha mundial por la libertad de Internet . Nueva York: Basic Books. ISBN 978-0-465-02442-1.
  48. ^ "Nuevo ejército en línea de Ucrania en la guerra mediática con Rusia" . BBC . Consultado el 4 de febrero de 2017 .
  49. ^ "Twitter derriba la red de bots que impulsó puntos de conversación pro-sauditas sobre periodista desaparecido" . NBC News . 19 de octubre de 2018.
  50. ^ "La persona más influyente del mundo es ..." TIEMPO . 27 de abril de 2009 . Consultado el 2 de septiembre de 2009 .
  51. ^ Calentador, Brian (27 de abril de 2009). "Los seguidores de 4Chan piratean la encuesta 'influyente' de Time" . Revista de PC . Archivado desde el original el 30 de abril de 2009 . Consultado el 27 de abril de 2009 .
  52. ^ Schonfeld, Erick (21 de abril de 2009). "4Chan asume el control del tiempo 100" . Washington Post . Consultado el 27 de abril de 2009 .
  53. ^ "Moot gana, Time Inc. pierde« Music Machinery " . Musicmachinery.com. 27 de abril de 2009. Archivado desde el original el 3 de mayo de 2009 . Consultado el 2 de septiembre de 2009 .
  54. ^ Enlaces principales de Reddit. "Pastel de mármol también el juego [PIC]" . Buzzfeed.com. Archivado desde el original el 15 de abril de 2009 . Consultado el 2 de septiembre de 2009 .
  55. ^ Maslin, Janet (31 de mayo de 2012). " ' Somos anónimos' por Parmy Olson" . The New York Times . Consultado el 4 de febrero de 2017 .
  56. ^ "Debatte um" Social Bots ": Blinder Aktionismus gegen die eigene Hilflosigkeit" (en alemán). ALAMBRADO Alemania. 23 de enero de 2017 . Consultado el 4 de febrero de 2017 .
  57. ^ a b "CÓMO LA TECNOLOGÍA ESTÁ CAMBIANDO LA MANERA DE PENSAR - Daniel Suarez, Jan Kalbitzer y Frank Rieger" . 7 de diciembre de 2016 . Consultado el 30 de abril de 2017 .
  58. ^ Jamieson, ámbar; Solon, Olivia (15 de diciembre de 2016). "Facebook comenzará a marcar noticias falsas en respuesta a las crecientes críticas" . The Guardian . Consultado el 4 de febrero de 2017 .
  59. Finley, Klint (4 de abril de 2017). "Tim Berners-Lee, inventor de la web, traza una revisión radical de su creación" . Cableado . Consultado el 4 de abril de 2017 .
  60. ^ Bradshaw, Samantha; Neudert, Lisa-Maria; Howard, Philip N. (2018). "Respuestas del gobierno al uso malicioso de las redes sociales" . Nato Stratcom Coe . ISBN 978-9934-564-31-4 - a través de 20.
  61. ^ Reuter, Markus. "Hausfriedensbruch 4.0: Zutritt für Fake News und Bots strengstens verboten" . Netzpolitik . Consultado el 24 de octubre de 2019 .
  62. ^ Bellezza, Marco; Frigerio, Filippo Frigerio. "ITALIA: primer intento de (auto) regular la propaganda política en línea" .
  63. ^ "Contra la manipulación de la información" . Gouvernement.fr . Consultado el 24 de octubre de 2019 .
  64. ^ Menon, Praveen. "Malasia prohíbe las 'noticias falsas'; establece una pena de prisión de hasta seis años" . Reuters . Consultado el 24 de octubre de 2019 .
  65. ^ Yeung, Jessie. "Malasia deroga la controvertida ley de noticias falsas" . CNN . Consultado el 24 de octubre de 2019 .
  66. ^ Schwartz, Arielle. "Kenia firma un proyecto de ley que penaliza las noticias falsas" . Correo y tutor . Consultado el 24 de octubre de 2019 .
  67. ^ "Bundestagsdebatte: Merkel schimpft über Internet-Trolle" . Sueddeutsche.de (en alemán). Süddeutsche Zeitung. 1 de noviembre de 2016 . Consultado el 4 de febrero de 2017 .

Enlaces externos [ editar ]

  • Cómo la tecnología está cambiando nuestra forma de pensar , habla Daniel Suarez en YouTube
  • Cómo los "bots" controlan tu vida , habla de Daniel Suarez en YouTube
  • "El nuevo poder de la manipulación" . Deutsche Welle. 18 de octubre de 2016.
  • WP: PROMOCION
  • Haz que Putin haga pucheros con esta espeluznante tecnología de seguimiento facial, manipulación de expresiones faciales