De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda
Encontrar la mediana en conjuntos de datos con un número par e impar de valores

En estadística y teoría de la probabilidad , la mediana es el valor que separa la mitad superior de la mitad inferior de una muestra de datos , una población o una distribución de probabilidad . Para un conjunto de datos , se puede considerar como un valor "medio". La característica básica de la mediana al describir los datos en comparación con la media (a menudo descrita simplemente como el "promedio") es que no está sesgada por una pequeña proporción de valores extremadamente grandes o pequeños y, por lo tanto, proporciona una mejor representación de un "valor típico". " valor. Ingreso medio, por ejemplo, puede ser una mejor manera de sugerir qué es un ingreso "típico", porque la distribución del ingreso puede estar muy sesgada. La mediana es de importancia central en las estadísticas robustas , ya que es la estadística más resistente , con un punto de ruptura del 50%: siempre que no más de la mitad de los datos estén contaminados, la mediana no es un resultado arbitrariamente grande o pequeño.

Conjunto de datos finitos de números [ editar ]

La mediana de una lista finita de números es el número "medio", cuando esos números se enumeran en orden de menor a mayor.

Si el conjunto de datos tiene un número impar de observaciones, se selecciona el del medio. Por ejemplo, la siguiente lista de siete números,

1, 3, 3, 6 , 7, 8, 9

tiene la mediana de 6 , que es el cuarto valor.

En general, para un conjunto de elementos, esto se puede escribir como:

Un conjunto de un número par de observaciones no tiene un valor medio distinto y la mediana se define normalmente como la media de los dos valores medios. [1] [2] Por ejemplo, el conjunto de datos

1, 2, 3, 4, 5 , 6, 8, 9

tiene un valor mediano de 4.5 , es decir . (En términos más técnicos, esto interpreta la mediana como el rango medio completamente recortado ). Con esta convención, la mediana se puede definir de la siguiente manera (para un número par de observaciones):

Definición formal [ editar ]

Formalmente, una mediana de una población es cualquier valor tal que como máximo la mitad de la población sea menor que la mediana propuesta y como máximo la mitad sea mayor que la mediana propuesta. Como se vio anteriormente, las medianas pueden no ser únicas. Si cada conjunto contiene menos de la mitad de la población, entonces parte de la población es exactamente igual a la mediana única.

La mediana está bien definida para cualquier dato ordenado (unidimensional) y es independiente de cualquier métrica de distancia . Por lo tanto, la mediana se puede aplicar a clases que están clasificadas pero no numéricas (por ejemplo, calcular una calificación media cuando los estudiantes obtienen una calificación de A a F), aunque el resultado puede estar a mitad de camino entre clases si hay un número par de casos.

Una mediana geométrica , por otro lado, se define en cualquier número de dimensiones. Un concepto relacionado, en el que el resultado se ve obligado a corresponder a un miembro de la muestra, es el medoide .

No hay ampliamente aceptadas notación estándar para la mediana, pero algunos autores representan la mediana de una variable x , ya sea como x o como μ 1/2 [1] a veces también M . [3] [4] En cualquiera de estos casos, el uso de estos u otros símbolos para la mediana debe definirse explícitamente cuando se introducen.

La mediana es un caso especial de otras formas de resumir los valores típicos asociados con una distribución estadística : es el segundo cuartil , el quinto decil y el percentil 50 .

Usos [ editar ]

La mediana se puede utilizar como una medida de ubicación cuando se concede una importancia reducida a valores extremos, normalmente porque una distribución está sesgada , los valores extremos no se conocen o los valores atípicos no son fiables, es decir, pueden ser errores de medición / transcripción.

Por ejemplo, considere el multiset

1, 2, 2, 2, 3, 14.

La mediana es 2 en este caso (al igual que la moda ), y podría verse como una mejor indicación del centro que la media aritmética de 4, que es mayor que todos los valores menos uno. Sin embargo, la relación empírica ampliamente citada de que la media se desplaza "más hacia la cola" de una distribución que la mediana no es generalmente cierta. A lo sumo, se puede decir que las dos estadísticas no pueden estar "demasiado alejadas"; ver § Desigualdad relativa a medias y medianas a continuación. [5]

Como una mediana se basa en los datos intermedios de un conjunto, no es necesario conocer el valor de los resultados extremos para calcularlo. Por ejemplo, en una prueba de psicología que investiga el tiempo necesario para resolver un problema, si una pequeña cantidad de personas no lograron resolver el problema en el tiempo dado, aún se puede calcular la mediana. [6]

Debido a que la mediana es simple de entender y fácil de calcular, mientras que también es una aproximación robusta a la media , la mediana es una estadística de resumen popular en estadística descriptiva . En este contexto, hay varias opciones para una medida de variabilidad : el rango , el rango intercuartílico , la desviación absoluta media y la desviación absoluta mediana .

A efectos prácticos, las diferentes medidas de ubicación y dispersión a menudo se comparan sobre la base de qué tan bien se pueden estimar los valores de población correspondientes a partir de una muestra de datos. La mediana, estimada utilizando la mediana de la muestra, tiene buenas propiedades a este respecto. Si bien no suele ser óptimo si se supone una distribución de población determinada, sus propiedades siempre son razonablemente buenas. Por ejemplo, una comparación de la eficiencia de los estimadores candidatos muestra que la media de la muestra es más eficiente estadísticamente cuando, y solo cuando, los datos no están contaminados por datos de distribuciones de colas pesadas o de mezclas de distribuciones. [ cita requerida ] Incluso entonces, la mediana tiene una eficiencia del 64% en comparación con la media de varianza mínima (para muestras normales grandes), lo que significa que la varianza de la mediana será ~ 50% mayor que la varianza de la media. [7] [8]

Distribuciones de probabilidad [ editar ]

Visualización geométrica de la moda, la mediana y la media de una función de densidad de probabilidad arbitraria [9]

Para cualquier verdadero -valued distribución de probabilidad con acumulativo función de distribución  F , una mediana se define como cualquier número real  m que satisface las desigualdades

.

Una expresión equivalente utiliza una variable aleatoria X distribuida de acuerdo con F :

Tenga en cuenta que esta definición no requiere que X tenga una distribución absolutamente continua (que tiene una función de densidad de probabilidad ƒ ), ni requiere una discreta . En el primer caso, las desigualdades se pueden elevar a igualdad: una mediana satisface

.

Cualquier distribución de probabilidad en R tiene al menos una mediana, pero en casos patológicos puede haber más de una mediana: si F es constante 1/2 en un intervalo (de modo que ƒ = 0 allí), entonces cualquier valor de ese intervalo es un mediana.

Medianas de distribuciones particulares [ editar ]

Las medianas de ciertos tipos de distribuciones se pueden calcular fácilmente a partir de sus parámetros; además, existen incluso para algunas distribuciones que carecen de una media bien definida, como la distribución de Cauchy :

  • La mediana de una distribución unimodal simétrica coincide con la moda.
  • La mediana de una distribución simétrica que posee una media μ también toma el valor μ .
    • La mediana de una distribución normal con media μ y varianza σ 2 es μ. De hecho, para una distribución normal, media = mediana = moda.
    • La mediana de una distribución uniforme en el intervalo [ ab ] es ( a  +  b ) / 2, que también es la media.
  • La mediana de una distribución de Cauchy con parámetro de ubicación x 0 y parámetro de escala y es  x 0 , el parámetro de ubicación.
  • La mediana de una distribución de la ley de potencias x - a , con exponente a  > 1 es 2 1 / ( a  - 1) x min , donde x min es el valor mínimo para el que se cumple la ley de potencias [10]
  • La mediana de una distribución exponencial con parámetro de tasa λ es el logaritmo natural de 2 dividido por el parámetro de tasa: λ −1 ln 2.
  • La mediana de una distribución de Weibull con parámetro de forma k y parámetro de escala λ es  λ (ln 2) 1 / k .

Poblaciones [ editar ]

Propiedad de optimalidad [ editar ]

El error absoluto medio de una variable real c con respecto a la variable aleatoria  X es

A condición de que la distribución de probabilidad de X es tal que existe la expectativa de arriba, entonces m es una mediana de X si y sólo si m es un minimizador del error absoluto medio con respecto a X . [11] En particular, m es una mediana muestral si y solo si m minimiza la media aritmética de las desviaciones absolutas. [12]

De manera más general, una mediana se define como un mínimo de

como se discute a continuación en la sección sobre medianas multivariadas (específicamente, la mediana espacial ).

Esta definición de la mediana basada en la optimización es útil en el análisis de datos estadísticos, por ejemplo, en la agrupación de k -medians .

Desigualdad relativa a medias y medianas [ editar ]

Comparación de la media , la mediana y la moda de dos distribuciones logarítmicas normales con diferente asimetría

Si la distribución tiene varianza finita, entonces la distancia entre la mediana y la media está limitada por una desviación estándar .

Este límite fue probado por Mallows, [13] que utilizó la desigualdad de Jensen dos veces, de la siguiente manera. Utilizando | · | para el valor absoluto , tenemos

La primera y la tercera desigualdad provienen de la desigualdad de Jensen aplicada a la función de valor absoluto y la función cuadrada, que son cada una convexa. La segunda desigualdad proviene del hecho de que una mediana minimiza la función de desviación absoluta .

La prueba de Mallow se puede generalizar para obtener una versión multivariante de la desigualdad [14] simplemente reemplazando el valor absoluto con una norma :

donde m es una mediana espacial , es decir, un minimizador de la función. La mediana espacial es única cuando la dimensión del conjunto de datos es dos o más. [15] [16]

Una prueba alternativa utiliza la desigualdad de Chebyshev unilateral; aparece en una desigualdad en los parámetros de ubicación y escala . Esta fórmula también se deriva directamente de la desigualdad de Cantelli . [17]

Distribuciones unimodales [ editar ]

Para el caso de distribuciones unimodales , se puede lograr un límite más agudo en la distancia entre la mediana y la media:

. [18]

Existe una relación similar entre la mediana y la moda:

La desigualdad de Jensen para las medianas [ editar ]

La desigualdad de Jensen establece que para cualquier variable aleatoria X con una expectativa finita E [ X ] y para cualquier función convexa f

Esta desigualdad también se generaliza a la mediana. Decimos que una función f: ℝ → ℝ es una función C si, para cualquier t ,

es un intervalo cerrado (que permite los casos degenerados de un solo punto o un conjunto vacío ). Todas las funciones de C son convexas, pero la inversa no se cumple. Si f es una función C, entonces

Si las medianas no son únicas, la declaración es válida para el suprema correspondiente. [19]

Medianas para muestras [ editar ]

La mediana de la muestra [ editar ]

Cálculo eficiente de la mediana de la muestra [ editar ]

Aunque la clasificación por comparación de n elementos requiere operaciones Ω ( n log n ) , los algoritmos de selección pueden calcular el k -ésimo más pequeño de n elementos con solo Θ ( n ) operaciones. Esto incluye la mediana, que es lanorte/2Estadístico de orden de th (o para un número par de muestras, la media aritmética de las dos estadísticas de orden medio). [20]

Los algoritmos de selección todavía tienen la desventaja de requerir Ω ( n ) memoria, es decir, necesitan tener la muestra completa (o una porción de ella de tamaño lineal) en la memoria. Debido a que esto, así como el requisito de tiempo lineal, puede ser prohibitivo, se han desarrollado varios procedimientos de estimación para la mediana. Una simple es la regla de la mediana de tres, que estima la mediana como la mediana de una submuestra de tres elementos; esto se usa comúnmente como una subrutina en el algoritmo de clasificación rápida , que usa una estimación de la mediana de su entrada. Un estimador más robusto es el ninther de Tukey , que es la regla de la mediana de tres aplicada con recursividad limitada: [21] si Aes la muestra presentada como una matriz , y

med3 ( A ) = mediana ( A [1], A [norte/2], A [ n ]) ,

entonces

ninther ( A ) = med3 (med3 ( A [1 ...1/3n ]), med3 ( A [1/3n ...2/3n ]), med3 ( A [2/3n ... n ]))

El remedian es un estimador de la mediana que requiere tiempo lineal pero memoria sub-lineal, operando en una sola pasada sobre la muestra. [22]

Distribución de muestreo [ editar ]

Laplace determinó las distribuciones tanto de la media muestral como de la mediana muestral . [23] La distribución de la mediana de la muestra de una población con una función de densidad es asintóticamente normal con media y varianza [24]

donde es la mediana de y es el tamaño de la muestra. A continuación se presenta una demostración moderna. El resultado de Laplace se entiende ahora como un caso especial de distribución asintótica de cuantiles arbitrarios .

Para muestras normales, la densidad es , por lo tanto, para muestras grandes, la varianza de la mediana es igual a [7] (consulte también la sección # Eficiencia a continuación).

Derivación de la distribución asintótica [ editar ]

Tomamos el tamaño de la muestra como un número impar y asumimos que nuestra variable es continua; la fórmula para el caso de variables discretas se da a continuación en § Densidad local empírica . La muestra se puede resumir como "por debajo de la mediana", "en la mediana" y "por encima de la mediana", que corresponde a una distribución trinomial con probabilidades , y . Para una variable continua, la probabilidad de que múltiples valores de muestra sean exactamente iguales a la mediana es 0, por lo que se puede calcular la densidad en el punto directamente a partir de la distribución trinomial:

.

Ahora presentamos la función beta. Para argumentos enteros y , esto se puede expresar como . Además, recuerda eso . El uso de estas relaciones y la configuración de ambos e igual a permite que la última expresión se escriba como

Por lo tanto, la función de densidad de la mediana es una distribución beta simétrica impulsada por . Su media, como era de esperar, es 0,5 y su varianza es . Por la regla de la cadena , la varianza correspondiente de la mediana muestral es

.

El 2 adicional es insignificante en el límite .

Densidad local empírica [ editar ]

En la práctica, las funciones y a menudo no se conocen ni se asumen. Sin embargo, pueden estimarse a partir de una distribución de frecuencia observada. En esta sección, damos un ejemplo. Considere la siguiente tabla, que representa una muestra de 3800 observaciones (de valores discretos):

Debido a que las observaciones tienen valores discretos, la construcción de la distribución exacta de la mediana no es una traducción inmediata de la expresión anterior para ; uno puede (y normalmente tiene) tener múltiples instancias de la mediana en la muestra de uno. Entonces debemos sumar todas estas posibilidades:

Aquí, i es el número de puntos estrictamente menor que la mediana yk el número estrictamente mayor.

Usando estos preliminares, es posible investigar el efecto del tamaño de la muestra sobre los errores estándar de la media y la mediana. La media observada es 3,16, la mediana bruta observada es 3 y la mediana interpolada observada es 3,174. La siguiente tabla ofrece algunas estadísticas de comparación.

El valor esperado de la mediana cae ligeramente a medida que aumenta el tamaño de la muestra, mientras que, como era de esperar, los errores estándar tanto de la mediana como de la media son proporcionales a la raíz cuadrada inversa del tamaño de la muestra. La aproximación asintótica yerra por el lado de la precaución al sobrestimar el error estándar.

Estimación de la varianza a partir de datos de muestra [ editar ]

El valor de —el valor asintótico de dónde es la mediana de la población— ha sido estudiado por varios autores. El "uno de borrado" estándar jackknife método produce inconsistentes resultados. [25] Se ha demostrado que una alternativa, el método "eliminar k", donde crece con el tamaño de la muestra, es asintóticamente consistente. [26] Este método puede resultar computacionalmente costoso para grandes conjuntos de datos. Se sabe que una estimación bootstrap es consistente, [27] pero converge muy lentamente ( orden de ). [28] Se han propuesto otros métodos, pero su comportamiento puede diferir entre muestras grandes y pequeñas. [29]

Eficiencia[ editar ]

La eficiencia de la mediana de la muestra, medida como la relación entre la varianza de la media y la varianza de la mediana, depende del tamaño de la muestra y de la distribución de la población subyacente. Para una muestra de tamaño de la distribución normal , la eficiencia para N grande es

La eficiencia tiende a ser infinita.

En otras palabras, la varianza relativa de la mediana será , o un 57% mayor que la varianza de la media; el error estándar relativo de la mediana será , o un 25% mayor que el error estándar de la media , (ver también la sección # Distribución de muestreo arriba.). [30]

Otros estimadores [ editar ]

Para distribuciones univariadas que son simétricas alrededor de una mediana, el estimador de Hodges-Lehmann es un estimador robusto y altamente eficiente de la mediana de la población. [31]

Si los datos están representados por un modelo estadístico que especifica una familia particular de distribuciones de probabilidad , entonces se pueden obtener estimaciones de la mediana ajustando esa familia de distribuciones de probabilidad a los datos y calculando la mediana teórica de la distribución ajustada. [ cita requerida ] La interpolación de Pareto es una aplicación de esto cuando se supone que la población tiene una distribución de Pareto .

Mediana multivariante [ editar ]

Anteriormente, este artículo discutió la mediana univariante, cuando la muestra o población tenía una dimensión. Cuando la dimensión es dos o más, existen múltiples conceptos que amplían la definición de la mediana univariada; cada mediana multivariada concuerda con la mediana univariante cuando la dimensión es exactamente uno. [31] [32] [33] [34]

Mediana marginal [ editar ]

La mediana marginal se define para vectores definidos con respecto a un conjunto fijo de coordenadas. Una mediana marginal se define como el vector cuyos componentes son medianas univariadas. La mediana marginal es fácil de calcular y sus propiedades fueron estudiadas por Puri y Sen. [31] [35]

Mediana geométrica [ editar ]

La mediana geométrica de un conjunto discreto de puntos muestrales en un espacio euclidiano es el punto [a] que minimiza la suma de distancias a los puntos muestrales.

A diferencia de la mediana marginal, la mediana geométrica es equivariante con respecto a las transformaciones de semejanza euclidiana , como traslaciones y rotaciones .

Punto central [ editar ]

Una generalización alternativa de la mediana en dimensiones superiores es el punto central .

Otros conceptos relacionados con la mediana [ editar ]

Mediana interpolada [ editar ]

Cuando se trata de una variable discreta, a veces es útil considerar los valores observados como puntos medios de intervalos continuos subyacentes. Un ejemplo de esto es una escala Likert, en la que las opiniones o preferencias se expresan en una escala con un número determinado de posibles respuestas. Si la escala consta de números enteros positivos, se podría considerar que una observación de 3 representa el intervalo de 2,50 a 3,50. Es posible estimar la mediana de la variable subyacente. Si, digamos, el 22% de las observaciones son de valor 2 o menos y el 55.0% son de 3 o menos (por lo que el 33% tiene el valor 3), entonces la mediana es 3 ya que la mediana es el valor más pequeño de lo que es mayor de la mitad. Pero la mediana interpolada está entre 2,50 y 3,50. Primero agregamos la mitad del ancho del intervaloa la mediana para obtener el límite superior del intervalo mediano. Luego restamos la proporción del ancho del intervalo que es igual a la proporción del 33% que se encuentra por encima de la marca del 50%. En otras palabras, dividimos el ancho del intervalo proporcionalmente al número de observaciones. En este caso, el 33% se divide en 28% por debajo de la mediana y 5% por encima de ella, por lo que restamos 5/33 del ancho del intervalo del límite superior de 3,50 para obtener una mediana interpolada de 3,35. Más formalmente, si se conocen los valores , la mediana interpolada se puede calcular a partir de

Alternativamente, si en una muestra observada hay puntajes por encima de la categoría de la mediana, puntajes en ella y puntajes por debajo de ella, entonces la mediana interpolada viene dada por

Pseudo-mediana [ editar ]

Para distribuciones univariadas que son simétricas alrededor de una mediana, el estimador de Hodges-Lehmann es un estimador robusto y altamente eficiente de la mediana de la población; para distribuciones no simétricas, el estimador de Hodges-Lehmann es un estimador robusto y altamente eficiente de la pseudomediana de la población , que es la mediana de una distribución simétrica y que está cerca de la mediana de la población. [37] El estimador de Hodges-Lehmann se ha generalizado a distribuciones multivariadas. [38]

Variantes de regresión [ editar ]

El estimador de Theil-Sen es un método para la regresión lineal robusta que se basa en la búsqueda de medianas de pendientes . [39]

Filtro de mediana [ editar ]

En el contexto del procesamiento de imágenes de imágenes rasterizadas monocromas, existe un tipo de ruido, conocido como ruido de sal y pimienta , cuando cada píxel se vuelve negro (con alguna pequeña probabilidad) o blanco (con alguna pequeña probabilidad) de forma independiente, y no se modifica en caso contrario. (con probabilidad cercana a 1). Una imagen construida con valores medianos de vecindarios (como un cuadrado de 3 × 3) puede reducir efectivamente el ruido en este caso. [ cita requerida ]

Análisis de conglomerados [ editar ]

En el análisis de conglomerados , el algoritmo de agrupación de k-medianas proporciona una forma de definir agrupaciones, en el que el criterio de maximizar la distancia entre las medias de agrupaciones que se utiliza en la agrupación de k-medias se reemplaza maximizando la distancia entre las medianas de agrupaciones.

Línea mediana-mediana [ editar ]

Este es un método de regresión robusta. La idea se remonta a Wald en 1940, quien sugirió dividir un conjunto de datos bivariados en dos mitades según el valor del parámetro independiente : una mitad izquierda con valores menores que la mediana y una mitad derecha con valores mayores que la mediana. [40] Sugirió tomar las medias de las variables dependientes e independientes de las mitades izquierda y derecha y estimar la pendiente de la línea que une estos dos puntos. Luego, la línea podría ajustarse para que se ajuste a la mayoría de los puntos del conjunto de datos.

Nair y Shrivastava en 1942 sugirieron una idea similar, pero en cambio abogaron por dividir la muestra en tres partes iguales antes de calcular las medias de las submuestras. [41] Brown y Mood en 1951 propusieron la idea de utilizar las medianas de dos submuestras en lugar de las medias. [42] Tukey combinó estas ideas y recomendó dividir la muestra en tres submuestras de igual tamaño y estimar la línea en función de las medianas de las submuestras. [43]

Estimadores de mediana insesgada [ editar ]

Cualquier estimador de media no sesgado minimiza el riesgo ( pérdida esperada ) con respecto a la función de pérdida de error al cuadrado , como lo observó Gauss . Un estimador de mediana imparcial minimiza el riesgo con respecto a la función de pérdida de desviación absoluta , como lo observó Laplace . Otras funciones de pérdida se utilizan en teoría estadística , particularmente en estadísticas robustas .

La teoría de los estimadores no sesgados de la mediana fue revivida por George W. Brown en 1947: [44]

Una estimación de un parámetro unidimensional θ se considerará insesgada en la mediana si, para θ fijo, la mediana de la distribución de la estimación está en el valor θ; es decir, la estimación subestima tan a menudo como sobreestima. Para la mayoría de los propósitos, este requisito parece cumplir tanto como el requisito de media insesgada y tiene la propiedad adicional de que es invariante bajo la transformación uno a uno.

-  página 584

Se han informado otras propiedades de los estimadores de mediana insesgada. [45] [46] [47] [48] Los estimadores de mediana insesgada son invariantes bajo transformaciones uno a uno .

Existen métodos para construir estimadores de mediana insesgada que son óptimos (en un sentido análogo a la propiedad de varianza mínima para estimadores de media insesgada). Tales construcciones existen para distribuciones de probabilidad que tienen funciones de verosimilitud monótonas . [49] [50] Uno de estos procedimientos es análogo al procedimiento de Rao-Blackwell para estimadores de media insesgada: el procedimiento es válido para una clase más pequeña de distribuciones de probabilidad que el procedimiento Rao-Blackwell pero para una clase más grande de funciones de pérdida . [51]

Historia [ editar ]

Los investigadores científicos del antiguo Cercano Oriente parecen no haber utilizado estadísticas resumidas por completo, sino que eligieron valores que ofrecían la máxima coherencia con una teoría más amplia que integraba una amplia variedad de fenómenos. [52] Dentro de la comunidad académica mediterránea (y, más tarde, europea), las estadísticas como la media son fundamentalmente un desarrollo medieval y moderno temprano. (La historia de la mediana fuera de Europa y sus predecesores permanece relativamente sin estudiar).

La idea de la mediana apareció en el siglo XIII en el Talmud , con el fin de analizar de manera justa las valoraciones divergentes . [53] [54] Sin embargo, el concepto no se extendió a la comunidad científica en general.

En cambio, el antepasado más cercano de la mediana moderna es el rango medio , inventado por Al-Biruni . [55] : 31 [56] La transmisión del trabajo de Al-Biruni a estudiosos posteriores no está clara. Al-Biruni aplicó su técnica al ensayo de metales, pero, después de publicar su trabajo, la mayoría de los ensayadores todavía adoptaron el valor más desfavorable de sus resultados, para que no parecieran hacer trampa . [55] : 35–8 Sin embargo, aumento de la navegación en el mar durante la Era de los Descubrimientossignificaba que los navegantes de los barcos tenían que intentar cada vez más determinar la latitud en un clima desfavorable contra costas hostiles, lo que llevó a un renovado interés en las estadísticas resumidas. Ya sea redescubierto o inventado de forma independiente, el rango medio se recomienda a los navegantes náuticos en las "Instrucciones para el viaje de Raleigh a Guayana, 1595" de Harriot. [55] : 45–8

La idea de la mediana puede haber aparecido por primera vez en el libro de 1599 de Edward Wright Certaine Errores en la navegación en una sección sobre navegación con brújula . Wright se mostró reacio a descartar los valores medidos y pudo haber sentido que la mediana, que incorpora una mayor proporción del conjunto de datos que el rango medio , tenía más probabilidades de ser correcta. Sin embargo, Wright no dio ejemplos del uso de su técnica, lo que dificulta verificar que describió la noción moderna de mediana. [52] [56] [b] La mediana (en el contexto de la probabilidad) ciertamente apareció en la correspondencia de Christiaan Huygens , pero como un ejemplo de una estadística que era inapropiada parapráctica actuarial . [52]

La primera recomendación de la mediana data de 1757, cuando Roger Joseph Boscovich desarrolló un método de regresión basado en la norma L 1 y, por lo tanto, implícitamente en la mediana. [52] [57] En 1774, Laplace hizo explícito este deseo: sugirió que la mediana se usara como el estimador estándar del valor de una PDF posterior . El criterio específico fue minimizar la magnitud esperada del error; donde es la estimación y es el valor real. Con este fin, Laplace determinó las distribuciones tanto de la media muestral como de la mediana muestral a principios del siglo XIX. [23] [58] Sin embargo, una década después,Gauss y Legendre desarrollaron el método de mínimos cuadrados , que minimiza para obtener la media. En el contexto de la regresión, la innovación de Gauss y Legendre ofrece un cálculo mucho más sencillo. En consecuencia, la propuesta de Laplaces fue generalmente rechazada hasta el surgimiento de los dispositivos informáticos 150 años después (y sigue siendo un algoritmo relativamente poco común). [59]

Antoine Augustin Cournot en 1843 fue el primero [60] en usar el término mediana ( valeur médiane ) para el valor que divide una distribución de probabilidad en dos mitades iguales. Gustav Theodor Fechner usó la mediana ( Centralwerth ) en fenómenos sociológicos y psicológicos. [61] Anteriormente se había utilizado solo en astronomía y campos relacionados. Gustav Fechner popularizó la mediana en el análisis formal de datos, aunque había sido utilizada anteriormente por Laplace, [61] y la mediana apareció en un libro de texto de FY Edgeworth . [62] Francis Galton usó el término inglésmediana en 1881, [63] [64] habiendo utilizado anteriormente los términos valor más medio en 1869, y el medio en 1880. [65] [66]

Los estadísticos alentaron intensamente el uso de las medianas a lo largo del siglo XIX por su claridad intuitiva y facilidad de cálculo manual. Sin embargo, la noción de mediana no se presta a la teoría de momentos superiores tan bien como lo hace la media aritmética , y es mucho más difícil de calcular por computadora. Como resultado, la mediana fue reemplazada constantemente como una noción de promedio genérico por la media aritmética durante el siglo XX. [52] [56]

Ver también [ editar ]

  • Medoides que son una generalización de la mediana en dimensiones superiores.
  • Tendencia central
    • Significar
    • Modo
  • Desviación absoluta
  • Sesgo de un estimador
  • Concentración de medida para funciones de Lipschitz
  • Mediana (geometría)
  • Gráfico de mediana
  • Mediana de búsqueda
  • Pendiente mediana
  • Teoría del votante mediano
  • Mediana ponderada
  • Mediana de medianas : algoritmo para calcular la mediana aproximada en tiempo lineal

Notas [ editar ]

  1. ^ La mediana geométrica es única a menos que la muestra sea colineal. [36]
  2. Los estudiosos posteriores parecen estar de acuerdo con Eisenhart en que las cifras de Boroughs de 1580, aunque sugieren la mediana, de hecho describen una media aritmética. [55] : 62–3 Boroughs no se menciona en ningún otro trabajo.

Referencias [ editar ]

  1. ^ a b Weisstein, Eric W. "Mediana estadística" . MathWorld .
  2. ^ Simon, Laura J .; "Estadísticas descriptivas" Archivado el 30 de julio de 2010 en Wayback Machine , Kit de recursos de educación estadística , Departamento de Estadísticas del Estado de Pensilvania
  3. ^ David J. Sheskin (27 de agosto de 2003). Manual de procedimientos estadísticos paramétricos y no paramétricos: tercera edición . Prensa CRC. págs. 7–. ISBN 978-1-4200-3626-8. Consultado el 25 de febrero de 2013 .
  4. ^ Derek Bissell (1994). Métodos estadísticos para Spc y Tqm . Prensa CRC. págs. 26–. ISBN 978-0-412-39440-9. Consultado el 25 de febrero de 2013 .
  5. ^ "Revista de educación estadística, v13n2: Paul T. von Hippel" . amstat.org .
  6. ^ Robson, Colin (1994). Experimento, Diseño y Estadística en Psicología . Pingüino. págs. 42–45. ISBN 0-14-017648-9.
  7. ↑ a b Williams, D. (2001). Sopesando las probabilidades . Prensa de la Universidad de Cambridge. pag. 165 . ISBN 052100618X.
  8. ^ Maindonald, John; Braun, W. John (6 de mayo de 2010). Análisis de datos y gráficos con R: un enfoque basado en ejemplos . Prensa de la Universidad de Cambridge. pag. 104. ISBN 978-1-139-48667-5.
  9. ^ "Revisión de estadísticas AP - curvas de densidad y distribuciones normales" . Archivado desde el original el 8 de abril de 2015 . Consultado el 16 de marzo de 2015 .
  10. ^ Newman, Mark EJ. "Leyes de potencia, distribuciones de Pareto y ley de Zipf". Física contemporánea 46.5 (2005): 323–351.
  11. ^ Stroock, Daniel (2011). Teoría de la probabilidad . Prensa de la Universidad de Cambridge. pp.  43 . ISBN 978-0-521-13250-3.
  12. ^ André Nicolas ( https://math.stackexchange.com/users/6312/andr%c3%a9-nicolas ), La mediana minimiza la suma de las desviaciones absolutas (la norma $ {L} _ {1} $), URL (versión: 2012-02-25): https://math.stackexchange.com/q/113336
  13. ^ Mallows, Colin (agosto de 1991). "Otro comentario sobre O'Cinneide". El estadístico estadounidense . 45 (3): 257. doi : 10.1080 / 00031305.1991.10475815 .
  14. ^ Piché, Robert (2012). Vectores aleatorios y secuencias aleatorias . Publicaciones académicas de Lambert. ISBN 978-3659211966.
  15. ^ Kemperman, Johannes HB (1987). Dodge, Yadolah (ed.). "La mediana de una medida finita en un espacio de Banach: análisis de datos estadísticos basado en la norma L1 y métodos relacionados". Artículos de la Primera Conferencia Internacional celebrada en Neuchâtel, del 31 de agosto al 4 de septiembre de 1987 . Amsterdam: North-Holland Publishing Co .: 217–230. Señor 0949228 . 
  16. Milasevic, Philip; Ducharme, Gilles R. (1987). "Unicidad de la mediana espacial" . Annals of Statistics . 15 (3): 1332-1333. doi : 10.1214 / aos / 1176350511 . Señor 0902264 . 
  17. ^ K.Van Steen Notas sobre probabilidad y estadística
  18. ^ Basu, S .; Dasgupta, A. (1997). "La media, mediana y modo de distribuciones unimodales: una caracterización". Teoría de la probabilidad y sus aplicaciones . 41 (2): 210-223. doi : 10.1137 / S0040585X97975447 . S2CID 54593178 . 
  19. ^ Merkle, M. (2005). "Desigualdad de Jensen para las medianas". Estadísticas y letras de probabilidad . 71 (3): 277–281. doi : 10.1016 / j.spl.2004.11.010 .
  20. ^ Alfred V. Aho y John E. Hopcroft y Jeffrey D. Ullman (1974). El diseño y análisis de algoritmos informáticos . Lectura / MA: Addison-Wesley. ISBN 0-201-00029-6. Aquí: Sección 3.6 "Estadísticas de pedidos", p.97-99, en particular Algoritmo 3.6 y Teorema 3.9.
  21. ^ Bentley, Jon L .; McIlroy, M. Douglas (1993). "Ingeniería de una función de clasificación" . Software: práctica y experiencia . 23 (11): 1249-1265. doi : 10.1002 / spe.4380231105 . S2CID 8822797 . 
  22. ^ Rousseeuw, Peter J .; Bassett, Gilbert W. Jr. (1990). "El remedio: un método de promediado robusto para grandes conjuntos de datos" (PDF) . J. Amer. Estadístico. Assoc . 85 (409): 97-104. doi : 10.1080 / 01621459.1990.10475311 .
  23. ↑ a b Stigler, Stephen (diciembre de 1973). "Estudios de Historia de la Probabilidad y Estadística. XXXII: Laplace, Fisher y el Descubrimiento del Concepto de Suficiencia". Biometrika . 60 (3): 439–445. doi : 10.1093 / biomet / 60.3.439 . JSTOR 2334992 . Señor 0326872 .  
  24. ^ Jinete, Paul R. (1960). "Varianza de la mediana de muestras pequeñas de varias poblaciones especiales". J. Amer. Estadístico. Assoc. 55 (289): 148–150. doi : 10.1080 / 01621459.1960.10482056 .
  25. ^ Efron, B. (1982). Jackknife, Bootstrap y otros planes de remuestreo . Filadelfia: SIAM. ISBN 0898711797.
  26. ^ Shao, J .; Wu, CF (1989). "Una teoría general para la estimación de la varianza Jackknife" . Ana. Stat. 17 (3): 1176-1197. doi : 10.1214 / aos / 1176347263 . JSTOR 2241717 .  
  27. ^ Efron, B. (1979). "Métodos Bootstrap: otra mirada a la navaja" . Ana. Stat. 7 (1): 1–26. doi : 10.1214 / aos / 1176344552 . JSTOR 2958830 .  
  28. ^ Hall, P .; Martin, MA (1988). "Tasa de convergencia exacta del estimador de varianza de cuantil de Bootstrap". Campos relacionados con la teoría probabilística . 80 (2): 261–268. doi : 10.1007 / BF00356105 . S2CID 119701556 . 
  29. ^ Jiménez-Gamero, MD; Muñoz-García, J .; Pino-Mejías, R. (2004). "Bootstrap reducido para la mediana" . Statistica Sinica . 14 (4): 1179-1198.
  30. ^ Maindonald, John; John Braun, W. (6 de mayo de 2010). Análisis de datos y gráficos con R: un enfoque basado en ejemplos . ISBN 9781139486675.
  31. ↑ a b c Hettmansperger, Thomas P .; McKean, Joseph W. (1998). Métodos estadísticos robustos no paramétricos . Biblioteca de estadísticas de Kendall. 5 . Londres: Edward Arnold. ISBN 0-340-54937-8. Señor  1604954 .
  32. ^ Small, Christopher G. "Una encuesta de medianas multidimensionales". Revista Estadística Internacional / Revue Internationale de Statistique (1990): 263–277. doi : 10.2307 / 1403809 JSTOR  1403809
  33. ^ Niinimaa, A. y H. Oja. "Mediana multivariante". Enciclopedia de ciencias estadísticas (1999).
  34. ^ Mosler, Karl. Dispersión multivariante, regiones centrales y profundidad: el enfoque de elevación del zonoide. Vol. 165. Springer Science & Business Media, 2012.
  35. Puri, Madan L .; Sen, Pranab K .; Métodos no paramétricos en análisis multivariante , John Wiley & Sons, Nueva York, NY, 197l. (Reimpreso por Krieger Publishing)
  36. ^ Vardi, Yehuda; Zhang, Cun-Hui (2000). "El multivariante L 1 -mediana y profundidad de datos asociados" . Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 97 (4): 1423–1426 (electrónico). Código bibliográfico : 2000PNAS ... 97.1423V . doi : 10.1073 / pnas.97.4.1423 . Señor 1740461 . PMC 26449 . PMID 10677477 .   
  37. ^ Pratt, William K .; Cooper, Ted J .; Kabir, Ihtisham (11 de julio de 1985). Corbett, Francis J (ed.). "Filtro pseudomédico". Arquitecturas y algoritmos para el procesamiento de imágenes digitales II . 0534 : 34. Código Bibliográfico : 1985SPIE..534 ... 34P . doi : 10.1117 / 12.946562 . S2CID 173183609 . 
  38. ^ Oja, Hannu (2010). Métodos multivariantes no paramétricos con  R : un enfoque basado en signos y rangos espaciales . Apuntes de conferencias en estadística. 199 . Nueva York, NY: Springer. págs. xiv + 232. doi : 10.1007 / 978-1-4419-0468-3 . ISBN 978-1-4419-0467-6. Señor  2598854 .
  39. ^ Wilcox, Rand R. (2001), "Estimador de Theil-Sen", Fundamentos de los métodos estadísticos modernos: mejora sustancial de la potencia y la precisión , Springer-Verlag, págs. 207-210, ISBN 978-0-387-95157-7.
  40. ^ Wald, A. (1940). "El ajuste de líneas rectas si ambas variables están sujetas a error" (PDF) . Anales de estadística matemática . 11 (3): 282–300. doi : 10.1214 / aoms / 1177731868 . JSTOR 2235677 .  
  41. ^ Nair, KR; Shrivastava, diputado (1942). "Sobre un método simple de ajuste de curvas". Sankhyā: The Indian Journal of Statistics . 6 (2): 121-132. JSTOR 25047749 . 
  42. ^ Marrón, GW; Estado de ánimo, AM (1951). "En pruebas de mediana para hipótesis lineales". Proc Segundo Simposio de Berkeley sobre Probabilidad y Estadística Matemática . Berkeley, CA: Prensa de la Universidad de California. págs. 159-166. Zbl 0045.08606 . 
  43. ^ Tukey, JW (1977). Análisis de datos exploratorios . Reading, MA: Addison-Wesley. ISBN 0201076160.
  44. ^ Brown, George W. (1947). "Sobre estimación de muestras pequeñas" . Anales de estadística matemática . 18 (4): 582–585. doi : 10.1214 / aoms / 1177730349 . JSTOR 2236236 . 
  45. ^ Lehmann, Erich L. (1951). "Un concepto general de imparcialidad" . Anales de estadística matemática . 22 (4): 587–592. doi : 10.1214 / aoms / 1177729549 . JSTOR 2236928 . 
  46. ^ Birnbaum, Allan (1961). "Una teoría unificada de estimación, I" . Anales de estadística matemática . 32 (1): 112-135. doi : 10.1214 / aoms / 1177705145 . JSTOR 2237612 . 
  47. van der Vaart, H. Robert (1961). "Algunas extensiones de la idea de sesgo" . Anales de estadística matemática . 32 (2): 436–447. doi : 10.1214 / aoms / 1177705051 . JSTOR 2237754 . Señor 0125674 .  
  48. ^ Pfanzagl, Johann; con la ayuda de R. Hamböker (1994). Teoría estadística paramétrica . Walter de Gruyter. ISBN 3-11-013863-8. Señor  1291393 .
  49. Pfanzagl, Johann. "Sobre la mediana óptima de estimadores insesgados en presencia de parámetros molestos". The Annals of Statistics (1979): 187-193.
  50. ^ Marrón, LD; Cohen, Arthur; Strawderman, WE (1976). "Un teorema de clase completo para la razón de verosimilitud monótona estricta con aplicaciones" . Ana. Estadista . 4 (4): 712–722. doi : 10.1214 / aos / 1176343543 .
  51. ^ Página; Brown, LD; Cohen, Arthur; Strawderman, WE (1976). "Un teorema de clase completo para la razón de verosimilitud monótona estricta con aplicaciones" . Ana. Estadista . 4 (4): 712–722. doi : 10.1214 / aos / 1176343543 .
  52. ^ a b c d e Bakker, Arthur; Gravemeijer, Koeno PE (1 de junio de 2006). "Una fenomenología histórica de la media y la mediana". Estudios Educativos en Matemáticas . 62 (2): 149-168. doi : 10.1007 / s10649-006-7099-8 . ISSN 1573-0816 . S2CID 143708116 .  
  53. ^ Adler, Dan (31 de diciembre de 2014). "Talmud y economía moderna" . Asuntos judíos estadounidenses e israelíes . Archivado desde el original el 6 de diciembre de 2015 . Consultado el 22 de febrero de 2020 .
  54. ^ Teoría económica moderna en el Talmud por Yisrael Aumann
  55. ↑ a b c d Eisenhart, Churchill (24 de agosto de 1971). El desarrollo del concepto de la mejor media de un conjunto de medidas desde la antigüedad hasta la actualidad (PDF) (Discurso). 131ª Reunión Anual de la Asociación Estadounidense de Estadística. Universidad Estatal de Colorado.
  56. ^ a b c "Cómo el promedio triunfó sobre la mediana" . Priceonomics . Consultado el 23 de febrero de 2020 .
  57. ^ Stigler, SM (1986). La historia de la estadística: la medición de la incertidumbre antes de 1900 . Prensa de la Universidad de Harvard. ISBN 0674403401.
  58. ^ Laplace PS de (1818) Deuxième supplément à la Théorie Analytique des Probabilités , París, Courcier
  59. ^ Jaynes, ET (2007). Teoría de la probabilidad: la lógica de la ciencia (5. ed. Impresa). Cambridge [ua]: Universidad de Cambridge. Prensa. pag. 172. ISBN 978-0-521-59271-0.
  60. ^ Howarth, Richard (2017). Diccionario de geociencias matemáticas: con notas históricas . Saltador. pag. 374.
  61. ^ a b Keynes, JM (1921) Tratado sobre probabilidad . Pt II Ch XVII §5 (p 201) (reimpresión de 2006, Cosimo Classics, ISBN 9781596055308  : varias otras reimpresiones) 
  62. ^ Stigler, Stephen M. (2002). Estadísticas sobre la mesa: la historia de los conceptos y métodos estadísticos . Prensa de la Universidad de Harvard. págs. 105–7. ISBN 978-0-674-00979-0.
  63. ^ Galton F (1881) "Informe del Comité Antropométrico" pp 245-260. Informe de la 51ª reunión de la Asociación Británica para el Avance de la Ciencia
  64. ^ David, HA (1995). "Primera (?) Aparición de términos comunes en estadística matemática". El estadístico estadounidense . 49 (2): 121-133. doi : 10.2307 / 2684625 . ISSN 0003-1305 . JSTOR 2684625 .  
  65. ^ encyclopediaofmath.org
  66. ^ personal.psu.edu

Enlaces externos [ editar ]

  • "Mediana (en estadísticas)" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
  • Mediana como media aritmética ponderada de todas las observaciones de muestra
  • Calculadora online
  • Calcular la mediana
  • Un problema que involucra la media, la mediana y la moda.
  • Weisstein, Eric W. "Mediana estadística" . MathWorld .
  • Secuencia de comandos de Python para cálculos de mediana y métricas de desigualdad de ingresos
  • Cálculo rápido de la mediana por intervalos sucesivos
  • 'Media, mediana, moda y asimetría' , un tutorial ideado para estudiantes de primer año de psicología en la Universidad de Oxford, basado en un ejemplo trabajado.
  • El complejo problema de matemáticas del SAT Incluso el College Board se equivocó : Andrew Daniels en Popular Mechanics

Este artículo incorpora material de Median de una distribución en PlanetMath , que tiene la licencia Creative Commons Attribution / Share-Alike License .