El fenómeno de la estabilidad estadística , uno de los fenómenos físicos más sorprendentes, es la debilidad de la dependencia de las estadísticas (es decir, funciones de la muestra) del tamaño de la muestra, si este tamaño es grande. Este efecto es típico, por ejemplo, para frecuencias relativas ( probabilidades empíricas ) de eventos masivos y promedios. Este fenómeno está muy extendido y, por lo tanto, puede considerarse como un fenómeno natural fundamental.
La naturaleza física del fenómeno de estabilidad estadística se revela al observar los eventos masivos.
Actualmente se conocen dos teorías que describen este fenómeno. Son la teoría clásica de la probabilidad , que tiene una larga historia de desarrollo, y la teoría de los fenómenos hiper-aleatorios, creada en las últimas décadas.
Historia
El primero en llamar la atención sobre el fenómeno de la estabilidad estadística fue el comerciante de telas J. Graunt (1620-1674) [1] en 1662. La información sobre la investigación sobre la estabilidad estadística es fragmentaria para el período comprendido entre finales del siglo XVII y finales. del siglo XIX, por ejemplo, por Jacob Bernoulli (1654-1705), Simeon Denis Poisson (1781-1840), Irenee-Jules Bienayme (1796-1878), Antoine Augustin Cournot (1801-1877), Adolphe Quetelet (1796-1874) ), John Venn (1834-1923), etc. [2] [3]
El estudio sistemático de la estabilidad estadística se inició a finales del siglo XIX. En 1879, el estadístico alemán Wilhelm Lexis (1837-1914) hizo el primer intento de vincular el concepto de estabilidad estadística de la frecuencia relativa con la dispersión. En el cambio de siglo y principios del siglo XX, la estabilidad estadística fue estudiada por Karl Pearson (1857-1936), Alexander Alexandrovich Chuprov (1874-1926), Ladislaus Bortkiewicz (1868-1931), Andrey Markov (1856-1922) , Richard von Mises (1883-1953) y otros.
Una nueva etapa de la investigación experimental se inició a finales del siglo XX. Se hicieron necesarios estudios adicionales debido a las nuevas tareas aplicadas y la detección de una serie de fenómenos que no pueden explicarse y describirse satisfactoriamente en el marco de la teoría clásica de la probabilidad. Las nuevas tareas son, en particular, la medición ultraprecisa de cantidades físicas y la previsión ultraprecisa de desarrollos en grandes intervalos de observación. Los fenómenos relativamente nuevos son, por ejemplo, un error progresivo (deriva) de medición impredecible , [4] [5] así como un ruido de parpadeo , [6] que se detecta en todas partes y no puede suprimirse promediando los datos.
Estabilidad estadística de las frecuencias relativas de eventos.
Muchos científicos de renombre dirigieron investigaciones experimentales del fenómeno de la estabilidad estadística. Se sabe, por ejemplo, que los experimentos de lanzamiento de monedas fueron estudiados por PS de Laplace (1749-1827), Georges-Louis Leclerc, Comte de Buffon (1707-1788), Karl Pearson , Premio Nobel Richard Feynman (1918-1988) ), Augustus de Morgan (1806-1871), William Stanley Jevons (1835-1882), Vsevolod Ivanovich Romanovsky (1879-1954), William Feller (1906-1970) y otros. La tarea trivial, a primera vista, no les pareció trivial. La Tabla 1 presenta algunos de los resultados de sus experimentos. [7] [8] [9] La Tabla 2 muestra los resultados descritos en [10] de diez carreras del mismo experimento en el que cada carrera consta de 1,000 lanzamientos. Las tablas demuestran que, para un gran número de lanzamientos, la frecuencia relativa de cara o cruz es cercana a 0,5.
Los estudios experimentales de otros eventos físicos reales muestran que para un gran número de experimentos se estabilizan las frecuencias relativas de los eventos; que muestra la naturaleza fundamental del fenómeno de la estabilidad estadística.
Estabilidad de las estadísticas
El fenómeno de la estabilidad estadística se manifiesta no solo en la estabilidad de la frecuencia relativa de eventos masivos, sino también en la estabilidad del promedio del proceso, o su media muestral. El fenómeno de la estabilidad estadística se manifiesta en el caso de promediar fluctuaciones que son de diferentes tipos, en particular, de los procesos físicos estocásticos, determinados y reales.
Ejemplo 1. En la Fig. 1a y la Fig. 1c se presenta la realización de ruido con una densidad espectral de potencia uniforme ( ruido blanco ) y un proceso de período determinado. En la figura 1b y la figura 1d se muestran las dependencias de los promedios en el intervalo de promediado. Como puede verse en la figura 1b y la figura 1d, cuando aumenta el intervalo de promediado, las fluctuaciones en la media de la muestra disminuyen y el valor medio se estabiliza gradualmente.
Ejemplo 2. La figura 2a y la figura 2b muestran cómo la tensión de red en una ciudad fluctúa rápidamente, mientras que el promedio cambia lentamente. A medida que el intervalo promedio aumenta de cero a una hora, el voltaje promedio se estabiliza (Fig. 2 b).
El fenómeno de la estabilidad estadística se observa en el cálculo también otras estadísticas, en particular, momentos muestrales .
Propiedades de la estabilidad estadística
Aparición
La estabilidad estadística de la frecuencia relativa es una propiedad de los eventos de masa (múltiples). Esta propiedad no es inherente a un solo evento, pero es inherente a su colección. Asimismo, la estabilidad estadística de las estadísticas es una propiedad inherente al conjunto de muestras. Por tanto, la estabilidad estadística de la frecuencia relativa o la estabilidad estadística de las estadísticas puede considerarse una propiedad emergente .
Hipótesis de perfecta estabilidad estadística
A primera vista, parece bastante plausible que la secuencia de frecuencias relativas de cualquier evento real debería tender a un cierto valor (probabilidad), y la secuencia de los promedios muestrales de muestras discretas de cualquier proceso real debe tener un límite , a saber. , . Ésta es la hipótesis de una estabilidad estadística perfecta (ideal). La teoría de la probabilidad se basa en esta hipótesis. [ dudoso ]
Crítica a la hipótesis de perfecta estabilidad estadística
Durante muchos años, la hipótesis de la estabilidad estadística ideal no estuvo en duda, aunque algunos estudiosos (incluso Andrey Kolmogorov (1903-1987) [11] [12] [13] y científicos tan famosos como Andrey Markov , [14] Anatoliy Skorokhod ( 1930-2011), [15] Émile Borel (1871-1956), [16] VN Tutubalin [17] ) y otros) notaron que, en el mundo real, esta hipótesis es válida solo con ciertas reservas.
La hipótesis de la estabilidad estadística imperfecta
La posibilidad de una descripción adecuada de las frecuencias relativas de eventos reales y promedios muestrales de muestras discretas reales mediante las expresiones , es solo una hipótesis. No se sigue de ningún experimento ni de ninguna inferencia lógica. Es fácil demostrar que no todos los procesos, incluso los de tipo oscilatorio, tienen la propiedad de una perfecta estabilidad estadística.
Ejemplo 3. En la Fig. 3a y la Fig. 3c se presentan dos oscilaciones determinadas y en la Fig. 3b y la Fig. 3d se muestran según sus promedios. A partir de la Fig. 3b y la Fig. 3d se desprende que en ambos casos, el promedio no tiene un límite, es decir, ambos procesos son estadísticamente inestables.
Los estudios experimentales de varios procesos de diferente naturaleza física a lo largo de amplios intervalos de observación muestran que la hipótesis de una perfecta estabilidad estadística no está confirmada » . El mundo real cambia continuamente y se producen cambios en todos los niveles, incluido el estadístico. Las evaluaciones estadísticas formadas sobre la base de intervalos de observación relativamente pequeños son relativamente estables. Su estabilidad se manifiesta a través de una disminución en la fluctuación de los estimadores estadísticos cuando crece el volumen de datos estadísticos. Esto crea una ilusión de perfecta estabilidad estadística. Sin embargo, más allá de un cierto volumen crítico, el nivel de fluctuaciones permanece prácticamente sin cambios (y en ocasiones incluso aumenta) cuando se incrementa la cantidad de datos. Esto indica que la estabilidad estadística no es perfecta.
Ejemplo 4. La estabilidad estadística no perfecta se ilustra en la Fig. 4, [18] que presenta fluctuaciones de la tensión de red durante 2,5 días. Nótese que la fluctuación en la Fig. 2a muestra la parte inicial de la fluctuación presentada en la Fig. 4a. Como puede verse en la Fig. 4b, el promedio de la muestra no se estabiliza, incluso para intervalos de promedio muy largos.
Descripción del fenómeno de estabilidad estadística
El sexto problema de Hilbert
Hasta finales del siglo XIX, la teoría de la probabilidad se consideraba una disciplina física . En el Segundo Congreso Internacional de Matemáticos (1900) David Hilbert (1862-1943) pronunció un discurso titulado "Problemas matemáticos". [19] Aquí formuló lo que consideró como los veintitrés problemas más importantes cuyo estudio podría estimular significativamente el desarrollo de la ciencia. El sexto problema fue la descripción matemática de los axiomas de la física. En la parte de su presentación relacionada con este problema, Hilbert señaló que, en paralelo con la investigación sobre los fundamentos de la geometría, se podría abordar el problema de una construcción axiomática, en la misma línea, de las ciencias físicas en las que las matemáticas desempeñan un papel exclusivo. papel, y en particular, la teoría de la probabilidad y la mecánica.
Muchos científicos han respondido al llamamiento de Hilbert. Entre ellos estaban Richard von Mises , quien consideró el problema desde el punto de vista de las ciencias naturales, y Andrey Kolmogorov , quien propuso en 1929 la solución basada en la teoría de conjuntos y la teoría de la medida. El enfoque axiomático propuesto por AN Kolmogorov [20] ahora se ve favorecido en la teoría de la probabilidad. Este enfoque incluso se ha elevado al rango de estándar. [21]
Descripción del fenómeno de estabilidad estadística en el marco de la teoría de la probabilidad
La teoría de la probabilidad de Kolmogorov es una disciplina matemática típica. En él, el tema es un espacio de probabilidad abstracto y el alcance de la investigación son las relaciones matemáticas entre sus elementos. El fenómeno físico de la estabilidad estadística de la frecuencia relativa de eventos que constituye formalmente la base de esta disciplina no parecería entonces jugar ningún papel. Este fenómeno se tiene en cuenta de forma idealizada al aceptar el axioma de aditividad contable, que equivale a la aceptación de la hipótesis de perfecta estabilidad estadística.
Descripción del fenómeno de estabilidad estadística en el marco de la teoría de fenómenos hiper-aleatorios
En contraste con la teoría matemática clásica de la probabilidad, la teoría de los fenómenos hiper-aleatorios es físico-matemática . Su objeto es fenómeno de la estabilidad estadística y el alcance de la investigación es una descripción adecuada de la misma por los llamados modelos hiper-aleatoria ( fenómenos hiper-aleatoria ), teniendo en cuenta la violación de la estabilidad estadística. [22]
La teoría de los fenómenos hiper-aleatorios no borra los logros de la teoría de la probabilidad y la estadística matemática clásica, sino que los complementa, extendiendo los enunciados de estas disciplinas a un ámbito en el que aún no se habían considerado donde no hay convergencia de las estadísticas.
Parámetros de estabilidad estadística
Hay una serie de parámetros que caracterizan la estabilidad estadística, en particular, los parámetros de inestabilidad estadística con respecto al promedio, los parámetros de inestabilidad estadística con respecto a la desviación estándar, los intervalos de estabilidad estadística con respecto al promedio, la desviación estándar, y otras estadísticas, etc. La determinación matemáticamente correcta de estos parámetros y el desarrollo de una metodología para su estimación en caso de tamaños de muestra ilimitados y limitados se estudian en el marco de la teoría de los fenómenos hiperaleatorios.
Las áreas de uso efectivo de varios enfoques para la descripción del fenómeno de estabilidad estadística
Los principales parámetros que definen los límites del uso efectivo de la teoría de la probabilidad clásica y la teoría de los fenómenos hiperaleatorios son los intervalos de estabilidad estadística con respecto a varias estadísticas. Dentro de estos intervalos, las violaciones de la estabilidad estadística son insignificantes y, por lo tanto, el uso de la teoría de la probabilidad es posible y razonable. Fuera de estos intervalos, las violaciones de la estabilidad estadística son esenciales y, por lo tanto, es necesario utilizar los métodos que tienen en cuenta estas violaciones, en particular, los métodos de la teoría de los fenómenos hiperaleatorios.
Las limitaciones de la estabilidad estadística se hacen evidentes para tamaños de muestra grandes y en el paso al límite. Los tamaños de las muestras suelen ser pequeños y, por lo tanto, muchas tareas prácticas pueden resolverse con una precisión aceptable utilizando modelos aleatorios (estocásticos). Dichos modelos suelen ser más simples que los modelos hiperaleatorios, por lo que se prefieren para tamaños de muestra no muy grandes. Sin embargo, los modelos hiper-aleatorios tienen ventajas obvias sobre el estocástico y otros modelos más simples en los casos en que el carácter estadístico limitado de la estabilidad estadística se hace evidente, generalmente para intervalos de observación largos y tamaños de muestra grandes .
Por tanto, la aplicación principal de los modelos hiper-aleatorios es analizar estadísticamente diversos procesos físicos (eléctricos, magnéticos, electromagnéticos, acústicos, hidroacústicos, sísmico-acústicos, meteorológicos, y otros) de larga duración, así como mediciones de alta precisión de diversos cantidades físicas y la previsión de procesos físicos mediante el procesamiento estadístico de grandes conjuntos de datos.
La investigación del siglo XXI muestra que los modelos hiper-aleatorios también pueden ser útiles para resolver otras tareas, por ejemplo, en el diseño de equipos radioelectrónicos. [23] [24]
Ver también
- Coherencia (estadísticas)
- Teoría de probabilidad
- Frecuencia relativa
- Probabilidad de propensión
Referencias
- ^ Graunt, J .: Observaciones políticas y naturales sobre las facturas de mortalidad. Baltimore (1939)
- ^ Scheinin, OB: Teoriya Veroyatnostey. Istoricheskiy Ocherk (Teoría de la probabilidad. Revisión histórica). http: // www . sheynin.de (2009). Consultado el 21 de junio de 2009.
- ↑ Chaykovskiy, Yu.V .: O Prirode Sluchaynosti (Acerca de la naturaleza aleatoria). Centro de Investigación de Sistemas, Instituto de Historia de la Naturaleza y Técnica del RAS, Moscú (2004)
- ^ Sergeev, AG, Krokhin, VV: Metrologiya (Metrología). Logos, Moscú (2001)
- ^ Elyasberg, PD: Izmeritelnaya Informatsiya. Skolko ee Nuzhno? (Medición de información. ¿Cuánto se necesita?). Nauka, Moscú (1983)
- ^ Zhigalskiy, GP: Ruido γ de desequilibrio en películas conductoras y contactos. Física – Uspekhy. 46, 449–471 (2003)
- ^ Gnedenko, BV: Kurs Teorii Veroyatnostey (Curso de teoría de la probabilidad). Izdatelstvo physico – matematicheskoj literaturi, Moscú (1988)
- ^ Feynman, RP, Leighton, RB, Sands M .: Las conferencias de Feynman sobre física. Vol. 1. Addison Wesley Publishing Company, Inc. Reading, Massachusetts – Palo Alto – Londres (1963)
- ^ Rozhkov, VA: Teoriya Veroyatnostey Sluchainikh Sobytiy, Velichin i Funkziy s Gidrometeorologicheskimi Primerami (La teoría de la probabilidad de eventos aleatorios, variables y funciones con ejemplos hidrometeorológicos). Progres – pogoda, Moscú (1996)
- ^ Mosteller, F., Rourke, REK, Thomas, GB: Probabilidad: un primer curso. Addison Wesley Publishing Company, Inc. Reading, Massachusetts – Londres (1961)
- ^ Kolmogorov, AN: Teoriya veroyatnostey (teoría de la probabilidad). En: Matematika, ee Metody i Znachenie (Matemáticas, sus métodos e importancia) 2, págs. 252-284 (1956)
- ^ Kolmogorov, AN Osnovnye Ponyatiya Teorii Veroyatnostey (Fundamentos de la teoría de la probabilidad). ONTI, Moscú (1974)
- ^ Kolmogorov, AN: O logicheskikh osnovaniyakh teorii veroyatnostey (sobre los fundamentos lógicos de la teoría de la probabilidad). En: Teoriya veroyatnostey i matematicheskaya statistika (Teoría de la probabilidad y estadística matemática), págs. 467–471. Nauka, Moscú (1986)
- ^ Markov, AA: Ischislenie Veroyatnostey (Cálculo de probabilidad). Moscú (1924)
- ^ Ivanenko, VI, Labkovsky, VA: Problema Neopredelennosty v Zadachakh Prinyatiya Resheniya (Problema de incertidumbre en las tareas de toma de decisiones). Naukova dumka, Kiev (1990)
- ^ Borel, E .: Probabilité et Certitude. Prensas Universitarias de Francia, París (1956)
- ^ Tutubalin, VN: Teoriya Veroyatnostey (Teoría de la probabilidad). Moskovskiy universitet, Moscú (1972)
- ^ Gorban, II: Fenómeno de estabilidad estadística. Física técnica 59 (3), 333–340 (2014)
- ^ Aleksandrov, PD (ed.): Problemy Hilberta (Problemas de Hilbert). Nauka, Moscú (1969)
- ^ Kolmogorov, AN Osnovnye Ponyatiya Teorii Veroyatnostey (Fundamentos de la teoría de la probabilidad). ONTI, Moscú (1974)
- ^ ISO 3534-1: Estadísticas. Vocabulario y símbolos. Parte I: Términos estadísticos generales y términos utilizados en probabilidad (2006)
- ^ Gorban, II El fenómeno de estabilidad estadística - Springer, 2017. - 361 p. - ISBN 978-3-319-43584-8
- ^ Uvarov, BM: Métodos para representar las características de los equipos radioelectrónicos sobre la base de la teoría de los fenómenos hiper-aleatorios. Sistemas de radioelectrónica y comunicaciones 53 (10), 542–549 (2010)
- ^ Zinkovskiy, Yu.F., Uvarov, BM: Hiper aleatoriedad de algoritmos para la simulación de equipos radioelectrónicos actuales. Sistemas de radioelectrónica y comunicaciones 54 (3), 147-154 (2011)