La ciencia colaborativa (que no debe confundirse con la ciencia ciudadana , un subtipo de ciencia colaborativa) se refiere a las contribuciones colaborativas de un gran grupo de personas a los diferentes pasos del proceso de investigación en ciencia. En psicología , la naturaleza y el alcance de las colaboraciones pueden variar en su aplicación y en los beneficios que ofrece.
¿Qué es el crowdsourcing?
Un complemento a la forma tradicional de hacer ciencia
El crowdsourcing es un modelo de abastecimiento colaborativo en el que un gran y diverso número de personas u organizaciones pueden contribuir a un objetivo o proyecto común.
Los primeros ejemplos de ciencia de crowdsourcing se pueden encontrar durante el siglo XIX. Un profesor de la Universidad de Yale lanzó un llamado a la participación abierta de los ciudadanos para maximizar el número y la diversidad de observaciones que podría obtener sobre el fenómeno de la tormenta de meteoros Leónidas de 1833 . [1]
La ciencia de colaboración colectiva se ha dejado de lado durante mucho tiempo y solo recientemente ha ganado popularidad en la ciencia. De hecho, ayuda a superar varios límites del modelo clásico sobre el que se ha realizado la ciencia hasta ahora. Por ejemplo, en psicología, la investigación científica a menudo se ha visto limitada por tamaños de muestra pequeños y una falta de diversidad en las poblaciones estudiadas. [2] Estos límites pueden abordarse con un enfoque más colaborativo de la investigación científica (es decir, ciencia de colaboración colectiva). [3]
Un concepto bidimensional
Las iniciativas de crowdsourcing se pueden describir a lo largo de dos ejes continuos diferentes. [4] La primera dimensión representa el grado de comunicación entre los miembros del proyecto, que van desde muy pocos colaboradores y poca comunicación, hasta una gran multitud de colaboradores con una gran cantidad de comunicación. La segunda dimensión corresponde al grado de inclusividad, que va desde seleccionar solo grupos de personas con una alta experiencia en el campo de interés, hasta abrirse a cualquier persona, con o sin experiencia, interesada en colaborar. Esta doble distinción atrae cuatro tipos de proyectos científicos de colaboración colectiva. Sin embargo, estas dos dimensiones se encuentran en un continuo: un solo proyecto no es ni completamente inclusivo (versus selectivo) ni completamente alto (versus bajo) en comunicación. [4]
¿Por qué colaborar con la ciencia psicológica?
Límites del modelo vertical tradicional
En psicología, la forma tradicional de hacer investigación sigue un modelo vertical. [4] En otras palabras, la mayoría de las veces, la investigación la llevan a cabo pequeños equipos de un laboratorio o universidad específicos, y se organizan en torno a uno o dos investigadores principales (a menudo denominados Investigador Principal o IP). Este pequeño equipo contribuye a todas las diferentes etapas del proyecto de investigación: concepción de la pregunta de investigación , diseño del estudio, recolección de datos, análisis de datos, discusión de los resultados y publicación del manuscrito. [4]
Sin embargo, la ciencia vertical tiene sus propias limitaciones que pueden impedir el progreso de la ciencia. Realizar ciencia dentro de pequeños equipos independientes dificulta la realización de proyectos a gran escala (con grandes muestras, grandes bases de datos y alto poder estadístico ), lo que puede limitar el alcance de la investigación. En la ciencia tradicional, los investigadores tienen acceso a menos recursos, datos y metodologías. [4] Los proyectos de equipos pequeños e independientes también están limitados en la retroalimentación que pueden obtener de otras perspectivas. [4]
Hoy en día, los equipos de investigación ya no tienen que hacer concesiones (por ejemplo, tamaño de muestra pequeño, mismos estímulos, mismos contextos y sin replicación), [4] porque muchos de estos límites podrían abordarse mediante una investigación más colaborativa.
La crisis de la replicación
En el método científico, la replicabilidad es un criterio fundamental para calificar una teoría como científica. La crisis de replicación (o crisis de credibilidad) es una crisis metodológica en la ciencia que los investigadores comenzaron a reconocer alrededor de la década de 2010. La controversia gira en torno a la falta de reproducibilidad de muchos hallazgos científicos, incluidos los de psicología (p. Ej., Entre 100 estudios, menos del 50% de los hallazgos fueron replicados). [5] [6]
Algunas de sus principales causas subyacentes se denominan "prácticas de investigación cuestionables" (QRP). [7] Estos incluyen p-hacking (es decir, explotar los grados de libertad del investigador hasta que se obtiene un resultado significativo ), HARKing (es decir, formular hipótesis después de que se conocen los resultados), [8] sesgo de publicación (es decir, la tendencia entre las revistas académicas a solo publicar resultados significativos), [9] errores en los informes estadísticos, [10] [11] y bajo poder estadístico a menudo debido a tamaños de muestra pequeños. [12] [6]
Entre estos diversos problemas, los tamaños de muestra pequeños y la falta de diversidad dentro de las muestras se pueden abordar a través de la ciencia colaborativa, lo que aumenta la generalización de los hallazgos y, por lo tanto, también su replicabilidad. De hecho, las muestras en psicología a menudo se basan en estudiantes universitarios [13] y poblaciones occidentales, educadas, industrializadas, ricas y democráticas ( WEIRD ). [14] [15] [16]
Por estas razones, la crisis de replicación ha contribuido al surgimiento de proyectos a gran escala de colaboración colectiva, especialmente proyectos de replicación realizados a escala internacional como el proyecto Many Labs, [17] [18] [19] [20] [21] y el Acelerador de Ciencias Psicológicas (PSA). [3] Estos proyectos de colaboración abierta tienen como objetivo resolver algunos problemas planteados por la crisis de la replicación, más específicamente mediante la evaluación de la replicabilidad de los estudios y la generalización de los resultados a otras poblaciones y contextos.
Ambiciones del modelo horizontal
En contraste con el modelo vertical de investigación, el modelo horizontal, un principio inherente de la ciencia colaborativa, se basa principalmente en variaciones en términos de inclusión y comunicación. Su principio fundamental es la falta de autoridad de uno o dos investigadores en términos de recursos, propiedad y experiencia. [22] Siguiendo este principio, las diferentes tareas dentro de un proyecto se distribuyen entre muchos investigadores. Luego, todo el proyecto es apoyado por un equipo, que asegura la coordinación de los contribuyentes. [4]
Un modelo horizontal perfecto no existe realmente porque los modelos verticales y horizontales están más conceptualizados como extremos de un mismo continuo. [4] Este modelo distribuido de trabajo científico está ganando popularidad en la comunidad científica. En aproximadamente 40 años y en diferentes disciplinas científicas, los equipos de investigación han duplicado su tamaño (de 2 a 4 personas en promedio). [23]
Al alentar a multitudes más grandes a contribuir a proyectos de investigación en psicología, el modelo horizontal apunta a reducir algunos límites del vertical. Tiene tres ambiciones distintas: [4]
- Realizar trabajos de gran envergadura
- Fomentar una ciencia psicológica democratizada
- Establecer hallazgos sólidos
Proyectos de investigación a gran escala
La primera ambición del modelo horizontal es permitir que los investigadores lleven a cabo proyectos de investigación a mayor escala (es decir, proyectos ambiciosos que no pueden ser llevados a cabo por equipos pequeños). [4] Al agregar diversas habilidades y recursos, es posible pasar de un modelo donde la investigación se define por los medios disponibles, a un modelo donde la investigación misma define los medios necesarios para responder a la pregunta de investigación. [4]
Democratizar la ciencia psicológica
La segunda ambición del modelo horizontal es compensar las desigualdades (por ejemplo, en términos de reconocimiento, estatus y éxito en la carrera de un investigador). La psicología y, en general, las ciencias sociales muestran un fuerte sesgo de lo que se llama efecto Mateo [24] (es decir, ventajas académicas para aquellos que ya son los más reconocidos).
Los investigadores de carrera temprana de instituciones menos reconocidas, países menos desarrollados económicamente o grupos demográficos subrepresentados generalmente tienen menos probabilidades de tener acceso a proyectos de alto perfil. [25] El crowdsourcing permite a estos investigadores contribuir a proyectos impactantes y obtener reconocimiento por su trabajo. [4]
Hallazgos sólidos
La tercera ambición del modelo horizontal es mejorar la solidez, la generalización y la confiabilidad de los hallazgos para aumentar la credibilidad de la ciencia psicológica. [4] [26] La colaboración horizontal entre equipos de investigación facilita la replicación de estudios [27] [17] [28] y hace que sea más fácil detectar tamaños de efecto sesgados , piratería informática y sesgo de publicación: diferentes problemas planteados por la crisis de replicación [29] (ver también #La crisis de la replicación ).
Crowdsourcing en la práctica
Contribuciones en diferentes etapas de la investigación
Esta sección tiene como objetivo detallar cómo el crowdsourcing puede contribuir a las diferentes etapas del proceso de investigación , desde la generación de ideas de investigación hasta la publicación de los resultados.
Ideación
La ideación es el primer paso de cualquier proyecto de investigación. En psicología, se refiere al proceso de definir la idea general detrás de un proyecto: propósito, pregunta de investigación e hipótesis. Este paso se puede realizar en colaboración entre varios investigadores para explorar un espectro más amplio de ideas y seleccionar aquellas de mayor interés e impacto. [4] Ante una pregunta de investigación, los diferentes colaboradores pueden aportar su experiencia en la construcción de hipótesis.
Las multitudes también pueden ayudar a generar nuevas ideas para resolver problemas complejos, como lo ilustra el proyecto Polymath . [30] [31] [32] [33]
Reunir recursos
Al reunir recursos, el crowdsourcing puede ser útil, especialmente para laboratorios con menos recursos a su disposición. [4] Las plataformas en línea como Science Exchange y Studyswap permiten a los investigadores establecer nuevas líneas de comunicación y compartir recursos entre laboratorios. La combinación de recursos de laboratorios de todo el mundo minimiza el desperdicio y facilita la capacidad de los equipos de investigación para alcanzar sus objetivos. [4]
Compartir tareas entre laboratorios puede mejorar la eficiencia de un proyecto de investigación, especialmente los que requieren mucho tiempo. En biología, por ejemplo, estudiar todo el genoma lleva mucho tiempo. Al distribuir su investigación y combinar recursos en varios laboratorios, es posible acelerar el proceso de investigación. [34]
Diseño del estudio
Puede haber muchas formas de diseñar un estudio. Los equipos de investigación de todo el mundo no tienen los mismos antecedentes teóricos ni están equipados con los mismos materiales. [4]
El crowdsourcing puede ser útil en el caso de réplicas conceptuales (es decir, probar una misma pregunta de investigación a través de diferentes operacionalizaciones ). [35] [36] Cuando se prueba una misma pregunta de investigación, las variaciones en los diseños de los estudios pueden dar lugar a fuertes variaciones en las estimaciones del tamaño del efecto. [28] La diversificación de los métodos utilizados para probar la misma hipótesis en diferentes poblaciones, a través de proyectos colaborativos, permite mejores estimaciones de la verdadera consistencia de una afirmación científica. [4]
Recopilación de datos
En psicología, la recopilación de datos a menudo se basa en muestras extraídas de poblaciones occidentales, educadas, industrializadas, ricas y democráticas (WEIRD), lo que impide la generalización general de los hallazgos. [15] [16] El crowdsourcing del proceso de recopilación de datos confiando en la recopilación de datos de múltiples laboratorios y plataformas de crowdsourcing en línea (por ejemplo, Amazon Mechanical Turk , Prolific [37] ) hace que sea más fácil llegar a una audiencia más amplia de participantes de diferentes orígenes culturales y Poblaciones no EXTRAÑAS. [4] Cuando la pregunta de investigación permite confiar en muestras de Internet, también es una manera fácil de reclutar muestras más grandes de participantes con una contribución financiera mínima y en un corto período de tiempo. [38] [39] [40]
La mayoría de las veces, se recluta a miembros del público en general para que se sometan a estudios como participantes de la investigación, pero también se les puede reclutar para recopilar datos y observaciones. [4]
Análisis de los datos
En la investigación, el análisis de datos se refiere al proceso de limpiar , transformar y modelar datos utilizando herramientas estadísticas, a menudo con el propósito de responder una pregunta de investigación. Dentro de un proyecto de investigación, esto generalmente lo hace un solo analista (o equipo) y da como resultado un único análisis de un conjunto de datos .
Las estrategias analíticas pueden diferir mucho de un equipo a otro. [4] [41] Por ejemplo, un estudio encontró que entre 241 artículos publicados sobre fMRI , se utilizaron 223 estrategias analíticas diferentes. [42] [43] Además, puede haber muchas formas de probar una sola hipótesis a partir del mismo conjunto de datos. Aunque defendibles, las decisiones en el análisis de datos siguen siendo subjetivas, lo que puede afectar en gran medida los resultados de la investigación. [41] Una forma de contrarrestar esta subjetividad es la transparencia . Cuando los datos, los planes analíticos y las decisiones analíticas se toman de forma transparente y con acceso abierto al resto de la comunidad, se facilitan las críticas y se brinda la oportunidad de explorar formas alternativas de analizar los datos. [41]
“El crowdsourcing del análisis de los datos revela hasta qué punto las conclusiones de la investigación dependen de la decisión defendible pero subjetiva de diferentes analistas”. - Uhlmann et al., 2019 [4]
Redacción de informes de investigación
Un informe de investigación es un documento que informa los resultados de un proyecto de investigación. La calidad general de un informe de investigación puede beneficiarse de las prácticas de crowdsourcing, especialmente durante el proceso de redacción. [44] Agregar un gran número de colaboradores aumenta la gama de conocimientos y perspectivas, [44] lo que contribuye a construir argumentos más sólidos. [4] También facilita la corrección de pruebas (p. Ej., Detectar errores gramaticales, redacción extraña, errores tipográficos, sesgos, errores fácticos, verificación de afirmaciones). [4] [44]
Para facilitar la escritura colaborativa, algunos investigadores han sugerido pautas para escribir manuscritos con muchos autores. [44] Siempre debe haber un autor principal (o unos pocos, pero con responsabilidades individuales) que se encargue de administrar el proceso de escritura y asuma la responsabilidad explícita de cualquier error, evitando la difusión de la responsabilidad en caso de errores. [44] También se recomienda que los autores principales sigan los cuatro principios generales que se mencionan a continuación: [44]
- Cuidado en acreditar al equipo de coautores
- Comunicación masiva clara y frecuente
- Asegúrese de que los materiales asociados al manuscrito estén bien organizados
- Toma de decisiones temprana y deliberada
Revisión por pares
Antes de ser publicados en una revista académica , los artículos enviados se someten a una revisión por pares (es decir, el proceso de hacer que el trabajo académico de un autor sea revisado por expertos del mismo campo). Por lo general, lo realiza un número limitado de revisores seleccionados. El crowdsourcing del proceso de revisión por pares aumenta las posibilidades de obtener revisiones de un mayor número de expertos en el dominio relevante. [4] Esta es también una forma de aumentar significativamente las oportunidades para una mejor crítica y una verificación de datos más rápida antes de que se publique un artículo. [45]
La revisión por pares de fuentes colaborativas se puede realizar junto con la revisión por pares de acceso abierto [46] (por ejemplo, a través de plataformas centralizadas dedicadas a la discusión y crítica de informes de investigación). [47]
Ejemplos en psicología
La crisis de la replicación sirvió como preludio para el surgimiento de muchos proyectos colaborativos a gran escala. Algunos de los más importantes incluyen el proyecto ManyLabs, [17] [18] [19] [20] [21] el proyecto ManyBabies, [48] [49] el Proyecto de reproducibilidad , [6] el Proyecto de educación y replicación colaborativa ( CREP), [50] [51] y el Acelerador de Ciencias Psicológicas (PSA). [3]
Proyectos relacionados con la pandemia COVID-19
En respuesta a la pandemia de COVID-19 , se han lanzado varias iniciativas para mejorar la colaboración entre científicos de una variedad de campos. [52] [53]
Se realizan estudios que exploran el impacto de la pandemia de COVID-19 en el comportamiento y la salud mental [54] y se comparten ampliamente en las redes sociales como Twitter. [55] [56] [57] [58] [59] [60]
En este contexto, el PSA convocó a estudios sobre la enfermedad COVID-19 [61] y recuperó 66 propuestas de estudios de diferentes expertos en el plazo de una semana. [62] A la fecha de mayo de 2020, se han seleccionado tres estudios que se están llevando a cabo en todo el mundo. [62] Dos de estos estudios apuntan a lograr una mejor adopción de conductas de salud para evitar la propagación de COVID-19, y uno apunta a ayudar a las personas a regular sus emociones negativas durante la crisis. [62] Este proyecto tiene como objetivo obtener resultados que puedan ayudar a todos los países a enfrentar la pandemia con medios adaptados a su población.
Desafíos y direcciones futuras
Frente a los modelos vertical y horizontal
Aunque un modelo horizontal de conducción científica parece prometedor para superar algunos límites del modelo vertical (ver también #Límites del modelo vertical tradicional y #Ambiciones del modelo horizontal ), es difícil evaluar empíricamente sus beneficios. [4] No está claro si dos conjuntos de investigaciones que estudian la misma cuestión, ya sea a través de una forma vertical u horizontal de hacer ciencia, conducirían a resultados diferentes o no. [4]
Independencia financiera
Actualmente, para sostener un proyecto de colaboración, los investigadores tienen que usar dinero de sus propias subvenciones o solicitar fondos. [3] Por lo tanto, estos proyectos están limitados en los estudios que pueden realizar sin independencia financiera. [3]
Coordinar cientos de laboratorios para realizar un estudio requiere un trabajo administrativo consecuente. [3] [4] Estructuras como el Acelerador de Ciencias Psicológicas (PSA) deben garantizar que cada laboratorio participante obtenga la aprobación ética para realizar un estudio determinado (ver también Junta de revisión institucional ). Dentro de la PSA, este trabajo previo lo realizan actualmente equipos o investigadores dedicados [63] de forma voluntaria, además de su ocupación principal. [3] Al alcanzar una independencia económica (como es el caso del CERN ), estos proyectos podrían optimizar su funcionamiento mediante la apertura de puestos de trabajo dedicados a estas misiones.
Autoría en la era de la ciencia colaborativa
La trayectoria profesional de un investigador en el mundo académico (es decir, oportunidades laborales, atribuciones de subvenciones, etc.) depende de contribuciones importantes a proyectos de investigación, que a menudo se evalúan a través de la cantidad de publicaciones en las que uno aparece como autor principal. [64] En psicología, es una práctica común enumerar a los autores en orden de contribución, y la participación disminuye a medida que avanzamos en la lista. [64] La verdad es que no es raro que varios autores del mismo artículo contribuyan por igual al proyecto, pero de diferentes maneras. [65] En ese sentido, los colaboradores de un proyecto no siempre reciben el crédito que merecen, ya que el orden en el que se enumeran los autores no refleja bien la contribución de cada autor. Esto es especialmente cierto para proyectos de colaboración a gran escala con muchos contribuyentes (por ejemplo, el proyecto PSA001 tiene más de 200 contribuyentes). [66]
Una alternativa al sistema de autoría actual es la taxonomía CRediT , una taxonomía que describe 14 categorías distintivas (por ejemplo, conceptualización del proyecto, administración del proyecto, adquisición de fondos, investigación) que representan los roles típicamente desempeñados por los contribuyentes en un proyecto científico. [64] [67] Los artículos que se basan en esta taxonomía permiten una descripción más representativa de la participación de cada colaborador en un proyecto.
Desarrollar prácticas de ciencia abierta y colaborativas
La inscripción de estudiantes a través de diferentes proyectos de colaboración podría fomentar la ciencia abierta y las prácticas colaborativas al principio de la carrera de un investigador. [4] Por ejemplo, en el Proyecto de Educación y Replicación Colaborativa (CREP), [50] se enseña a los estudiantes las raíces y la importancia de tales prácticas para la replicación de los principales descubrimientos recientes en psicología.
Las políticas editoriales de las revistas científicas también juegan un papel en la adopción de la ciencia abierta y las prácticas colaborativas, especialmente al definir nuevos criterios de publicación. [4] Por ejemplo, más de 200 revistas adoptan ahora un formato de “aceptación en principio” de artículos de revisión por pares. [68] En este formato de publicación, los artículos se aceptan para su publicación antes de la recopilación de datos, sobre la base del marco teórico, la metodología y el plan de análisis proporcionados. [68]
Cuestiones pendientes
La flexibilidad en el análisis de datos y otros sesgos que los proyectos colaborativos deben abordar agregando expertos no siempre se superan. [69]
También se ha demostrado que los proyectos de crowdsourcing que involucran a actores poco capacitados y poco involucrados (por ejemplo, estudiantes) pueden conducir a la falsificación de datos. [70] Por lo tanto, vincular una amplia gama de contribuyentes puede implicar problemas estructurales que pueden afectar los resultados de la investigación.
Ambos temas destacan la importancia de las prácticas educativas sobre ciencia abierta y prácticas colaborativas (ver también #Desarrollo de prácticas colaborativas y de ciencia abierta ).
Controversias
Las controversias en torno a la ciencia colaborativa no implican directamente una crítica de la ciencia colaborativa en sí, sino más bien sus costos, tanto en términos de inversión financiera como de tiempo. [71] Las prácticas colaborativas en la investigación siguen siendo muy costosas y enfrentan un número importante de desafíos. [71] Las soluciones para abordar estos desafíos requieren importantes cambios estructurales dentro de las instituciones de investigación y tienen importantes repercusiones en las carreras académicas de los investigadores (ver también #Desafíos y direcciones futuras ).
El cambio de un modelo vertical a uno más horizontal fue motivado en parte por la crisis de replicación en psicología. Sin embargo, algunos autores se muestran escépticos sobre el alcance de esta crisis en psicología. [72] [73] Según estos autores, se sobrestima la imposibilidad de replicar la mayoría de los hallazgos y se debe principalmente a la falta de fidelidad en los protocolos de replicación. [72] Estas afirmaciones mitigan si los grandes proyectos de investigación colaborativa valen el costo, lo que sugiere que un cambio hacia un modelo horizontal de hacer ciencia puede no ser necesario.
Dado el costo de los proyectos de crowdsourcing y los recursos que requieren, es posible que el crowdsourcing no siempre sea el enfoque más óptimo. [71] No obstante, el enfoque científico colaborativo ayudó al desarrollo de herramientas de las que cualquier proyecto, ya sea colaborativo o no, puede beneficiarse. Un enfoque óptimo sería un compromiso entre los modelos vertical y horizontal, que dependería de la pregunta de investigación en cuestión y de las limitaciones de cada proyecto. [4] [71]
Ver también
- Crowdsourcing
- Ciencia ciudadana
- Ciencia abierta
- Crisis de replicación
- Proyecto de reproducibilidad
- Método científico
enlaces externos
- Acelerador de Ciencias Psicológicas
- Intercambio de ciencia
- Intercambio de estudios
Referencias
- ^ Littmann, Mark; Suomela, Todd (junio de 2014). "Crowdsourcing, la gran tormenta de meteoros de 1833 y la fundación de la ciencia de los meteoros". Esfuerzo . 38 (2): 130-138. doi : 10.1016 / j.endeavour.2014.03.002 . PMID 24917173 .
- ^ Anderson, Samantha F .; Kelley, Ken; Maxwell, Scott E. (13 de septiembre de 2017). "Planificación del tamaño de la muestra para un poder estadístico más preciso: un método que ajusta los tamaños del efecto de la muestra para el sesgo y la incertidumbre de la publicación". Ciencia psicológica . 28 (11): 1547-1562. doi : 10.1177 / 0956797617723724 . PMID 28902575 . S2CID 3147299 .
- ^ a b c d e f g Moshontz, Hannah; et al. (1 de octubre de 2018). "El acelerador de la ciencia psicológica: el avance de la psicología a través de una red colaborativa distribuida" . Avances en métodos y prácticas en ciencia psicológica . 1 (4): 501–515. doi : 10.1177 / 2515245918797607 . PMC 6934079 . PMID 31886452 .
- ^ a b c d e f g h i j k l m n o p q r s t u v w x y z aa ab ac ad ae af Uhlmann, Eric Luis; Ebersole, Charles R .; Chartier, Christopher R .; Errington, Timothy M .; Kidwell, Mallory C .; Lai, Calvin K .; McCarthy, Randy J .; Riegelman, Amy; Silberzahn, Raphael; Nosek, Brian A. (julio de 2019). "Utopía científica III: ciencia de crowdsourcing" . Perspectivas de la ciencia psicológica . 14 (5): 711–733. doi : 10.1177 / 1745691619850561 . PMID 31260639 . S2CID 149202148 .
- ^ Flore, Paulette C .; Wicherts, Jelte M. (febrero de 2015). "¿Influye la amenaza de estereotipo en el rendimiento de las niñas en dominios estereotipados? Un metaanálisis". Revista de Psicología Escolar . 53 (1): 25–44. doi : 10.1016 / j.jsp.2014.10.002 . PMID 25636259 .
- ^ a b c Colaboración de ciencia abierta (agosto de 2015). "Estimación de la reproducibilidad de la ciencia psicológica". Ciencia . 349 (6251): aac4716. doi : 10.1126 / science.aac4716 . hdl : 10722/230596 . ISSN 0036-8075 . PMID 26315443 . S2CID 218065162 .
- ^ John, Leslie K .; Loewenstein, George; Prelec, Drazen (16 de abril de 2012). "Medir la prevalencia de prácticas de investigación cuestionables con incentivos para decir la verdad". Ciencia psicológica . 23 (5): 524–532. doi : 10.1177 / 0956797611430953 . PMID 22508865 . S2CID 8400625 .
- ^ Kerr, Norbert L. (agosto de 1998). "HARKing: Hipotetizar después de que se conocen los resultados" . Reseña de Personalidad y Psicología Social . 2 (3): 196–217. doi : 10.1207 / s15327957pspr0203_4 . PMID 15647155 . S2CID 22724226 .
- ^ Fanelli, Daniele (21 de abril de 2010). "¿Las presiones para publicar aumentan el sesgo de los científicos? Un apoyo empírico de los datos de los Estados de EE . UU . " . PLOS ONE . 5 (4): e10271. Código bibliográfico : 2010PLoSO ... 510271F . doi : 10.1371 / journal.pone.0010271 . PMC 2858206 . PMID 20422014 .
- ^ Bakker, Marjan; Wicherts, Jelte M. (15 de abril de 2011). "El (mal) informe de resultados estadísticos en revistas de psicología" . Métodos de investigación del comportamiento . 43 (3): 666–678. doi : 10.3758 / s13428-011-0089-5 . PMC 3174372 . PMID 21494917 .
- ^ Nuijten, Michèle B .; Hartgerink, Chris HJ; van Assen, Marcel ALM; Epskamp, Sacha; Wicherts, Jelte M. (23 de octubre de 2015). "La prevalencia de errores de informes estadísticos en psicología (1985-2013)" . Métodos de investigación del comportamiento . 48 (4): 1205-1226. doi : 10.3758 / s13428-015-0664-2 . PMC 5101263 . PMID 26497820 .
- ^ Bakker, Marjan; van Dijk, Annette; Wicherts, Jelte M. (7 de noviembre de 2012). "Las reglas del juego llamadas ciencia psicológica". Perspectivas de la ciencia psicológica . 7 (6): 543–554. doi : 10.1177 / 1745691612459060 . PMID 26168111 . S2CID 19712506 .
- ^ Sears, David O. (1986). "Estudiantes de segundo año de la universidad en el laboratorio: influencias de una base de datos estrecha en la visión de la psicología social de la naturaleza humana". Revista de Personalidad y Psicología Social . 51 (3): 515–530. doi : 10.1037 / 0022-3514.51.3.515 .
- ^ Arnett, Jeffrey J. (1 de noviembre de 2008). "El 95% descuidado por qué la psicología estadounidense necesita volverse menos estadounidense". El psicólogo estadounidense . 63 (7): 602–614. doi : 10.1037 / 0003-066X.63.7.602 . PMID 18855491 .
- ^ a b Henrich, Joseph; Heine, Steven J .; Norenzayan, Ara (15 de junio de 2010). "¿Las personas más raras del mundo?" . Ciencias del comportamiento y del cerebro . 33 (2–3): 61–83. doi : 10.1017 / S0140525X0999152X . PMID 20550733 .
- ^ a b Puthillam, Arathy (15 de abril de 2020). "Problema EXTRAÑO de la psicología" . Psicología hoy .
- ^ a b c Klein, Richard A .; et al. (1 de enero de 2014). "Investigación de la variación en la replicabilidad: un proyecto de replicación de" muchos laboratorios "" (PDF) . Psicología social . 45 (3): 142-152. doi : 10.1027 / 1864-9335 / a000178 .
- ^ a b Klein, Richard A .; et al. (24 de diciembre de 2018). "Many Labs 2: investigando la variación en la replicabilidad entre muestras y configuraciones" . Avances en métodos y prácticas en ciencia psicológica . 1 (4): 443–490. doi : 10.1177 / 2515245918810225 . S2CID 125236401 .
- ^ a b Ebersole, Charles R .; et al. (Noviembre de 2016). "Many Labs 3: Evaluación de la calidad del grupo de participantes a lo largo del semestre académico a través de la replicación" . Revista de Psicología Social Experimental . 67 : 68–82. doi : 10.1016 / j.jesp.2015.10.012 .
- ^ a b Klein, Richard A .; Cook, Corey L .; Ebersole, Charles R .; Vitiello, Christine; Nosek, Brian A .; Ahn, Paul; Brady, Abbie J .; Chartier, Christopher R .; Christopherson, Cody D .; Clay, Samuel (12 de enero de 2017). "Many Labs 4: Replicar la prominencia de la mortalidad con y sin la participación del autor original" . PsyArXiv . doi : 10.31234 / osf.io / vef2c .
- ^ a b Ebersole, Charles R .; Nosek, Brian A .; Kidwell, Mallory C .; Buttrick, Nick; Baranski, Erica; Chartier, Christopher R .; Mathur, Maya; Campbell, Lorne; IJzerman, Hans; Lazarevic, Lili (11 de diciembre de 2019). "Many Labs 5: Prueba de la revisión por pares previa a la recopilación de datos como una intervención para aumentar la replicabilidad" . PsyArXiv . doi : 10.31234 / osf.io / sxfm2 . Consultado el 25 de abril de 2020 .
- ^ Howe, Jeff (1 de junio de 2006). "El auge del crowdsourcing" . Cableado .
- ^ Wuchty, S .; Jones, BF; Uzzi, B. (18 de mayo de 2007). "El creciente dominio de los equipos en la producción de conocimiento". Ciencia . 316 (5827): 1036–1039. Código Bibliográfico : 2007Sci ... 316.1036W . doi : 10.1126 / science.1136099 . PMID 17431139 . S2CID 3208041 .
- ^ Merton, RK (5 de enero de 1968). "El efecto Matthew en la ciencia: se consideran los sistemas de recompensa y comunicación de la ciencia". Ciencia . 159 (3810): 56–63. doi : 10.1126 / science.159.3810.56 . PMID 17737466 . S2CID 3526819 .
- ^ Petersen, Alexander M .; Jung, Woo-Sung; Yang, Jae-Suk; Stanley, H. Eugene (4 de enero de 2011). "Demostración cuantitativa y empírica del efecto Mateo en un estudio de longevidad profesional" . Actas de la Academia Nacional de Ciencias . 108 (1): 18-23. arXiv : 0806.1224 . Código bibliográfico : 2011PNAS..108 ... 18P . doi : 10.1073 / pnas.1016733108 . PMC 3017158 . PMID 21173276 .
- ^ Nosek, Brian A .; Spies, Jeffrey R .; Motyl, Matt (6 de noviembre de 2012). "Utopía científica: II. Reestructuración de incentivos y prácticas para promover la verdad sobre la publicabilidad". Perspectivas de la ciencia psicológica . 7 (6): 615–631. arXiv : 1205.4251 . doi : 10.1177 / 1745691612459058 . PMID 26168121 . S2CID 23602412 .
- ^ Ebersole, Charles R .; Axt, Jordan R .; Nosek, Brian A. (12 de mayo de 2016). "La reputación de los científicos se basa en hacerlo bien, no en acertar" . PLOS Biología . 14 (5): e1002460. doi : 10.1371 / journal.pbio.1002460 . PMC 4865149 . PMID 27171138 .
- ^ a b Landy, Justin F .; et al. (Mayo de 2020). "Pruebas de hipótesis de crowdsourcing: hacer transparente cómo las elecciones de diseño dan forma a los resultados de la investigación" (PDF) . Boletín psicológico . 146 (5): 451–479. doi : 10.1037 / bul0000220 . PMID 31944796 .
- ^ Ioannidis, John PA (30 de agosto de 2005). "Por qué la mayoría de los resultados de las investigaciones publicadas son falsos" . PLOS Medicine . 2 (8): e124. doi : 10.1371 / journal.pmed.0020124 . PMC 1182327 . PMID 16060722 .
- ^ Ball, Philip (26 de febrero de 2014). "Crowd-sourcing: fuerza en números" . Naturaleza . 506 (7489): 422–423. Código bibliográfico : 2014Natur.506..422B . doi : 10.1038 / 506422a . PMID 24572407 . S2CID 4458060 .
- ^ Polymath, DHJ (2012). "Una nueva prueba del teorema de densidad Hales-Jewett" . Annals of Mathematics . 175 (3): 1283-1327. doi : 10.4007 / annals.2012.175.3.6 . ISSN 0003-486X . JSTOR 23234638 . S2CID 60078 .
- ^ Castryck, Wouter; Fouvry, Étienne; Harcos, Gergely; Kowalski, Emmanuel; Michel, Philippe; Nelson, Paul; Paldi, Eytan; Pintz, János; Sutherland, Andrew; Tao, Terence; Xie, Xiao-Feng (28 de diciembre de 2014). "Nuevas estimaciones de equidistribución de tipo Zhang" . Álgebra y teoría de números . 8 (9): 2067–2199. arXiv : 1402.0811 . doi : 10.2140 / ant.2014.8.2067 . ISSN 1944-7833 . S2CID 119695637 .
- ^ Tao, Terence; Croot, Ernest; Helfgott, Harald (2012). "Métodos deterministas para encontrar números primos" . Matemáticas de la Computación . 81 (278): 1233–1246. doi : 10.1090 / S0025-5718-2011-02542-1 . ISSN 0025-5718 . Consultado el 24 de abril de 2020 .
- ^ Visscher, Peter; Brown, Matthew; McCarthy, Mark; Yang, Jian (13 de enero de 2012). "Cinco años de descubrimiento de GWAS" . La Revista Estadounidense de Genética Humana . 90 (1): 7–24. doi : 10.1016 / j.ajhg.2011.11.029 . ISSN 0002-9297 . PMC 3257326 . PMID 22243964 .
- ^ Van Berkel, Laura; Crandall, Christian S. (2018). Replicación conceptual de la automaticidad de la jerarquía: múltiples métodos para probar una hipótesis - Métodos de investigación SAGE . Consultado el 24 de abril de 2020 .
- ^ Lynch, John G .; Bradlow, Eric T .; Huber, Joel C .; Lehmann, Donald R. (1 de diciembre de 2015). "Reflexiones sobre el rincón de la replicación: en elogio de las replicaciones conceptuales" . Revista Internacional de Investigación en Marketing . 32 (4): 333–342. doi : 10.1016 / j.ijresmar.2015.09.006 . ISSN 0167-8116 . Consultado el 24 de abril de 2020 .
- ^ "Prolific | Reclutamiento online de participantes para encuestas y estudios de mercado" . www.prolific.co . Consultado el 30 de abril de 2020 .
- ^ Buhrmester, Michael; Kwang, Tracy; Gosling, Samuel D. (1 de enero de 2011). "El turco mecánico de Amazon: ¿una nueva fuente de datos económicos pero de alta calidad?". Perspectivas de la ciencia psicológica . 6 (1): 3-5. doi : 10.1177 / 1745691610393980 . ISSN 1745-6916 . PMID 26162106 . S2CID 6331667 .
- ^ Crone, Damien L .; Williams, Lisa A. (2017). "Participantes de crowdsourcing para la investigación psicológica en Australia: una prueba de Microworkers". Revista australiana de psicología . 69 (1): 39–47. doi : 10.1111 / ajpy.12110 . ISSN 1742-9536 . S2CID 146389537 .
- ^ Stewart, Neil; Chandler, Jesse; Paolacci, Gabriele (1 de octubre de 2017). "Muestras de crowdsourcing en ciencia cognitiva" . Tendencias en ciencias cognitivas . 21 (10): 736–748. doi : 10.1016 / j.tics.2017.06.007 . ISSN 1364-6613 . PMID 28803699 . S2CID 4970624 .
- ^ a b c Silberzahn, R .; et al. (23 de agosto de 2018). "Muchos analistas, un conjunto de datos: hacer transparente cómo las variaciones en las opciones analíticas afectan los resultados" . Avances en métodos y prácticas en ciencia psicológica . 1 (3): 337–356. doi : 10.1177 / 2515245917747646 . ISSN 2515-2459 . S2CID 55306786 .
- ^ Carpa, Joshua (2012). "Sobre la pluralidad de mundos (metodológicos): estimación de la flexibilidad analítica de los experimentos de fMRI" . Fronteras en neurociencia . 6 : 149. doi : 10.3389 / fnins.2012.00149 . ISSN 1662-453X . PMC 3468892 . PMID 23087605 .
- ^ Carp, Joshua (15 de octubre de 2012). "La vida secreta de los experimentos: informes de métodos en la literatura fMRI" . NeuroImage . 63 (1): 289–300. doi : 10.1016 / j.neuroimage.2012.07.004 . ISSN 1053-8119 . PMID 22796459 . S2CID 11070366 . Consultado el 24 de abril de 2020 .
- ^ Sakaluk, John; Williams, Alexander; Biernat, Monica (noviembre de 2014). "Revisión analítica como una solución a la información errónea de resultados estadísticos en la ciencia psicológica" . Perspectivas de la ciencia psicológica . 9 (6): 652–660. doi : 10.1177 / 1745691614549257 . ISSN 1745-6916 . PMID 26186115 . S2CID 206778243 .
- ^ Nosek, Brian A .; Bar-Anan, Yoav (2012). "Utopía científica: I. Apertura de la comunicación científica". Investigación psicológica . 23 (3): 217–243. arXiv : 1205.1055 . doi : 10.1080 / 1047840X.2012.692215 . S2CID 6635829 .
- ^ Buttliere, Brett T. (2014). "Utilizar la ciencia y la psicología para mejorar la difusión y evaluación del trabajo científico" . Fronteras en neurociencia computacional . 8 : 82. doi : 10.3389 / fncom.2014.00082 . PMC 4137661 . PMID 25191261 .
- ^ Frank, Michael C .; et al. (2017). "Un enfoque colaborativo para la investigación infantil: promover la reproducibilidad, las mejores prácticas y la construcción de teorías" . Infancia . 22 (4): 421–435. doi : 10.1111 / infa.12182 . PMC 6879177 . PMID 31772509 .
- ^ Consorcio ManyBabies (2020). "Cuantificación de las fuentes de variabilidad en la investigación sobre la infancia utilizando la preferencia del habla dirigida al lactante" (PDF) . Avances en métodos y prácticas en ciencia psicológica . 3 (1): 24–52. doi : 10.1177 / 2515245919900809 . hdl : 21.11116 / 0000-0005-E457-8 . S2CID 204876716 .
- ^ a b Grahe, Jon; et al. (2013). "Proyecto de Educación y Replicaciones Colaborativas (CREP)" . OSF. doi : 10.17605 / OSF.IO / WFC6U . Cite journal requiere
|journal=
( ayuda ) - ^ Wagge, Jordan; Baciu, Cristina; Banas, Kasia; Nadler, Joel; Schwarz, Sascha; Weisberg, Yanna; IJzerman, Hans; Legado, Nicole; Grahe, Jon (2019). "Una demostración del proyecto de educación y replicación colaborativa: intentos de replicación del efecto rojo-romance" . Collabra: Psicología . 5 (1): 5. doi : 10.1525 / collabra.177 .
- ^ Kupferschmidt, Kai (26 de febrero de 2020). " ' Una cultura de investigación completamente nueva'. El brote de coronavirus cambia la forma en que los científicos se comunican " . sciencemag.org . Consultado el 24 de abril de 2020 .
- ^ "Crowdfight COVID-19" . crowdfightcovid19.org . Consultado el 24 de abril de 2020 .
- ^ Kwon, Diana (19 de marzo de 2020). "Estudios casi en tiempo real buscan medidas de comportamiento vitales para detener el coronavirus" . scientificamerican.com . Consultado el 24 de abril de 2020 .
- ^ "Andreas Lieberoth 🤯 sur Twitter:" Gracias a todos los que nos ayudan a hacer de la encuesta global #COVIDiSTRESS una de las bases de datos más grandes sobre experiencias humanas de la situación del coronavirus. Sin embargo, no cubrimos problemas de nivel clínico, ¡pero este estudio sí! Ayúdelos a ayudar a otros ⛑ LINK "/ Twitter" . Twitter . Consultado el 25 de abril de 2020 .
- ^ "Dra. Eliza Bliss-Moreau sur Twitter:" El @BlissMoreauLab está buscando participantes para una breve encuesta sobre las experiencias emocionales y sociales de las personas durante la pandemia de # COVID19 #coronavirus. RT y comparte. ¡Gracias! El enlace está aquí: LINK "/ Twitter" . Twitter . Consultado el 25 de abril de 2020 .
- ^ Marine Rougier sur Twitter: "Estamos realizando un estudio sobre las consecuencias emocionales y conductuales del distanciamiento social durante la pandemia de coronavirus". Tarda 12 minutos (opciones de idioma: inglés, francés, alemán e italiano pronto). RT sería de gran ayuda 🙂 LINK "/ Twitter" . Twitter . Consultado el 25 de abril de 2020 .
- ^ "Jeff Larsen sur Twitter:" El 'distanciamiento social' no es muy divertido. Un equipo de psicólogos está tratando de encontrar mejores términos y necesitamos su ayuda. Si tiene 15 minutos para responder nuestra encuesta, vaya a: LINK. Necesitamos que participen estadounidenses de todos los ámbitos de la vida, así que, por favor, comparta ampliamente "/ Twitter" . Twitter . Consultado el 25 de abril de 2020 .
- ^ "Michelle Lim sur Twitter:" Estamos haciendo un estudio sobre el impacto de Covid-19 en nuestras relaciones, salud y bienestar. Leer más: LINK LINK "/ Twitter" . Twitter . Consultado el 25 de abril de 2020 .
- ^ "Rhonda Balzarini, PhD sur Twitter:" Twitterverse: ¡necesitamos su ayuda! @Relationscience, @zoppolat y yo estamos lanzando un estudio pionero sobre los efectos de la pandemia # COVID19 sobre cómo las personas se conectan, se relacionan y se las arreglan durante este tiempo. ¿Puedes ayudarnos a difundir la palabra? ENLACE ¡Por favor RT ampliamente! "/ Twitter" . Twitter . Consultado el 25 de abril de 2020 .
- ^ Crchartier, ~ (13 de marzo de 2020). "El PSA pide propuestas de estudio rápidas e impactantes sobre COVID-19" . Acelerador de Ciencias Psicológicas . Consultado el 24 de abril de 2020 .CS1 maint: nombres numéricos: lista de autores ( enlace )
- ^ a b c Crchartier, ~ (21 de marzo de 2020). "Únase al Proyecto COVID-19 de Respuesta Rápida de la PSA" . Acelerador de Ciencias Psicológicas . Consultado el 24 de abril de 2020 .CS1 maint: nombres numéricos: lista de autores ( enlace )
- ^ "Gente" . Acelerador de Ciencias Psicológicas . 24 de octubre de 2017.
- ^ a b c Brand, Amy; Allen, Liz; Altman, Micah; Hlava, Marjorie; Scott, Jo (2015). "Más allá de la autoría: atribución, contribución, colaboración y crédito" . Publicación aprendida . 28 (2): 151-155. doi : 10.1087 / 20150211 . ISSN 1741-4857 .
- ^ Rennie, Drummond; Yank, Veronica; Emanuel, Linda (20 de agosto de 1997). "Cuando falla la autoría. Una propuesta para hacer responsables a los contribuyentes" . JAMA: Revista de la Asociación Médica Estadounidense . 278 (7): 579–585. doi : 10.1001 / jama.1997.03550070071041 .
- ^ Jones, Benedict C .; et al. (18 de mayo de 2018). "¿A qué regiones del mundo se aplica el modelo de percepción social de valencia-dominio?" . PsyArXiv . doi : 10.31234 / osf.io / n26dy . Consultado el 25 de abril de 2020 .
- ^ "CRediT - Taxonomía de roles de colaborador" . CASRAI . Consultado el 24 de abril de 2020 .
- ^ a b "Informes registrados" . cos.io . Consultado el 24 de abril de 2020 .
- ^ Chatard, Armand; Hirschberger, Gilad; Pyszczynski, Tom (7 de febrero de 2020). "Una advertencia sobre muchos laboratorios 4: si no sigue su plan registrado previamente, es posible que no encuentre un efecto real" . PsyArXiv . doi : 10.31234 / osf.io / ejubn . Consultado el 25 de abril de 2020 .
- ^ Brown, Nick (9 de mayo de 2019). "Blog de Nick Brown: una actualización de nuestro examen de la investigación del Dr. Nicolas Guéguen" . Blog de Nick Brown . Consultado el 24 de abril de 2020 .
- ^ a b c d Silberzahn, Raphael; Uhlmann, Eric L. (8 de octubre de 2015). "Investigación colaborativa: muchas manos hacen un trabajo apretado" . Nature News . 526 (7572): 189–91. Código Bibliográfico : 2015Natur.526..189S . doi : 10.1038 / 526189a . PMID 26450041 . S2CID 4444922 . Consultado el 24 de abril de 2020 .
- ^ a b Gilbert, Daniel T .; King, Gary; Pettigrew, Stephen; Wilson, Timothy D. (4 de marzo de 2016). "Comentario sobre" Estimación de la reproducibilidad de la ciencia psicológica " " . Ciencia . 351 (6277): 1037. Código Bibliográfico : 2016Sci ... 351.1037G . doi : 10.1126 / science.aad7243 . ISSN 0036-8075 . PMID 26941311 . S2CID 16687911 . Consultado el 24 de abril de 2020 .
- ^ Stroebe, Wolfgang (4 de marzo de 2019). "¿Qué podemos aprender de muchas réplicas de laboratorios?" . Psicología Social Básica y Aplicada . 41 (2): 91–103. doi : 10.1080 / 01973533.2019.1577736 . ISSN 0197-3533 . S2CID 150753165 .