En los sitios web de Internet que invitan a los usuarios a publicar comentarios, un sistema de moderación es el método que elige el webmaster para clasificar las contribuciones que son irrelevantes, obscenas, ilegales o insultantes con respecto a contribuciones útiles o informativas.
Varios tipos de sitios de Internet permiten comentarios de los usuarios, tales como: foros de Internet , blogs y sitios de noticias impulsados por scripts como phpBB , Wiki o PHP-Nuke . Dependiendo del contenido del sitio y de la audiencia prevista, el webmaster decidirá qué tipo de comentarios de los usuarios son apropiados y luego delegará la responsabilidad de examinar los comentarios a moderadores menores . La mayoría de las veces, los webmasters intentarán eliminar el trolling , el spam o el flaming , aunque esto varía mucho de un sitio a otro.
Los sitios de redes sociales también pueden emplear moderadores de contenido para inspeccionar o eliminar manualmente el contenido marcado por incitación al odio u otro contenido objetable. En el caso de Facebook , la compañía ha aumentado el número de moderadores de contenido de 4.500 a 7.500 en 2017 debido a controversias legales y de otro tipo . En Alemania, Facebook es responsable de eliminar el discurso de odio dentro de las 24 horas posteriores a su publicación. [1]
Moderación del supervisor
También conocido como moderación unilateral, este tipo de sistema de moderación se ve a menudo en foros de Internet . El webmaster elige a un grupo de personas (generalmente a largo plazo) para que actúen como delegados, haciendo cumplir las reglas de la comunidad en nombre del webmaster. Estos moderadores reciben privilegios especiales para eliminar o editar las contribuciones de otros y / o excluir personas en función de su dirección de correo electrónico o dirección IP , y generalmente intentan eliminar las contribuciones negativas en toda la comunidad.
Moderación de contenido comercial (CCM)
La moderación de contenido comercial es un término acuñado por Sarah T. Roberts para describir la práctica de "monitorear y examinar el contenido generado por el usuario (CGU) para plataformas de redes sociales de todo tipo, con el fin de garantizar que el contenido cumpla con las exigencias legales y reglamentarias, pautas de sitio / comunidad, acuerdos de usuario, y que esté dentro de las normas de gusto y aceptabilidad para ese sitio y su contexto cultural ". [2]
Si bien en algún momento este trabajo pudo haber sido realizado por voluntarios dentro de la comunidad en línea, para los sitios web comerciales esto se logra en gran medida mediante la subcontratación de la tarea a empresas especializadas, a menudo en áreas de bajos salarios como India y Filipinas. La subcontratación de trabajos de moderación de contenido creció como resultado del auge de las redes sociales . Con el abrumador crecimiento de usuarios y UGC, las empresas necesitaban muchos más empleados para moderar el contenido. A fines de la década de 1980 y principios de la de 1990, las empresas de tecnología comenzaron a subcontratar trabajos a países extranjeros que tenían una fuerza laboral educada pero que estaban dispuestas a trabajar por poco dinero. [3]
Los empleados trabajan viendo, evaluando y eliminando contenido perturbador y pueden sufrir daños psicológicos. [4] [5] [6] [7] [8] [9] Puede surgir un trauma secundario , con síntomas similares al TEPT . [10] Algunas grandes empresas como Facebook ofrecen apoyo psicológico [10] y confían cada vez más en el uso de Inteligencia Artificial (IA) para clasificar el contenido más gráfico e inapropiado, pero los críticos afirman que es insuficiente. [11] [12]
Facebook ha decidido crear una junta de supervisión que decidirá qué contenido queda y qué contenido se elimina. Esta idea se propuso a fines de 2018. La "Corte Suprema" de Facebook reemplazará la toma de decisiones de manera ad hoc. [12]
Moderación distribuida
La moderación distribuida se presenta en dos tipos: moderación del usuario y moderación espontánea.
Moderación de usuarios
La moderación del usuario permite a cualquier usuario moderar las contribuciones de otros usuarios. En un sitio grande con una población activa suficientemente grande, esto generalmente funciona bien, ya que los votos del resto de la comunidad eliminan a un número relativamente pequeño de alborotadores. Estrictamente hablando, wikis como Wikipedia son lo último en moderación de usuarios, [ cita requerida ] pero en el contexto de foros de Internet , el ejemplo definitivo de un sistema de moderación de usuarios es Slashdot .
Por ejemplo, a cada moderador se le asigna un número limitado de "puntos de modificación", cada uno de los cuales puede usarse para moderar un comentario individual hacia arriba o hacia abajo en un punto. Por tanto, los comentarios acumulan una puntuación, que además está limitada al rango de -1 a 5 puntos. Al ver el sitio, se puede elegir un umbral de la misma escala, y solo se mostrarán las publicaciones que cumplan o superen ese umbral. Este sistema se refina aún más por el concepto de karma: las calificaciones asignadas a las contribuciones anteriores de un usuario pueden sesgar la calificación inicial de las contribuciones que realiza.
En sitios web suficientemente especializados, la moderación del usuario a menudo conducirá a un pensamiento grupal , en el que cualquier opinión que esté en desacuerdo con los principios establecidos del sitio web (sin importar cuán sólidos o bien redactados) sea muy probablemente "modificada" y censurada, lo que llevará a perpetuación de la mentalidad de pensamiento de grupo. Esto a menudo se confunde con trolling . [ cita requerida ]
La moderación del usuario también se puede caracterizar por la moderación reactiva. Este tipo de moderación depende de que los usuarios de una plataforma o sitio denuncien contenido inapropiado y que infrinja los estándares de la comunidad . En este proceso, cuando los usuarios se enfrentan a una imagen o un video que consideran inadecuado, pueden hacer clic en el botón de informe. La queja se archiva y se pone en cola para que los moderadores la vean. [13]
Moderación espontánea
La moderación espontánea es lo que ocurre cuando no existe un esquema oficial de moderación. Sin ninguna capacidad para moderar los comentarios, los usuarios moderarán espontáneamente a sus compañeros publicando sus propios comentarios sobre los comentarios de los demás. Debido a que existe la moderación espontánea, ningún sistema que permita a los usuarios enviar su propio contenido puede funcionar completamente sin ningún tipo de moderación.
Ver también
- Botón "me gusta
- Sistema de metamoderación
- Sistema de recomendación
- Métrica de confianza
Referencias
- ^ "La inteligencia artificial creará nuevos tipos de trabajo" . The Economist . Consultado el 2 de septiembre de 2017 .
- ^ "Detrás de la pantalla: moderación de contenido comercial (CCM)" . Sarah T. Roberts | La ilusión de la voluntad . 2012-06-20 . Consultado el 3 de febrero de 2017 .
- ^ Elliott, Vittoria; Parmar, Tekendra. " " La oscuridad y la desesperación de la gente te llegará " " . resto del mundo .
- ^ Stone, Brad (18 de julio de 2010). "Preocupación por aquellos que buscan la barbarie en la Web" , a través de NYTimes.com.
- ^ Adrian Chen (23 de octubre de 2014). "Los trabajadores que mantienen fotos de Dick y decapitaciones fuera de su feed de Facebook" . CON CABLE . Archivado desde el original el 13 de septiembre de 2015.
- ^ "Los devoradores de pecados invisibles de Internet" . El punzón . Archivado desde el original el 8 de septiembre de 2015.
- ^ Universidad, Departamento de Comunicaciones y Asuntos Públicos, Western (19 de marzo de 2014). "Western News - el profesor descubre la mano de obra oculta de Internet" . Western News .
- ^ "Conserjes de datos invisibles limpian los mejores sitios web - Al Jazeera America" . aljazeera.com .
- ^ "¿Debe Facebook bloquear los videos ofensivos antes de que se publiquen?" . CON CABLE . 26 de agosto de 2015.
- ^ a b Olivia Solon (4 de mayo de 2017). "Facebook está contratando moderadores. ¿Pero es el trabajo demasiado espantoso de manejar?" . The Guardian . Consultado el 13 de septiembre de 2018 .
- ^ Olivia Solon (25 de mayo de 2017). "Mal pagado y sobrecargado: la vida de un moderador de Facebook" . The Guardian . Consultado el 13 de septiembre de 2018 .
- ^ a b Asqueroso, Terry. "Para los moderadores de contenido de Facebook, el material traumatizante es un peligro laboral" . NPR.org .
- ^ Grimes-Viort, Blaise (7 de diciembre de 2010). "6 tipos de moderación de contenido que debes conocer". Social Media Today .
enlaces externos
- Slashdot : un ejemplo definitivo de moderación del usuario
- Conceptos básicos fundamentales de la moderación de contenido
enlaces externos
- Cliff Lampe y Paul Resnick: Slash (punto) y quema: moderación distribuida en un gran espacio de conversación en línea Actas de la conferencia SIGCHI sobre los factores humanos en los sistemas informáticos, tabla de contenido, Viena, Austria 2005, 543 - 550.
- Hamed Alhoori, Omar Alvarez, Richard Furuta, Miguel Muñiz, Eduardo Urbina: apoyando la creación de bibliografías académicas por comunidades a través de la colaboración social basada en la reputación en línea. ECDL 2009: 180-191