Teorema de la convergencia dominada


En la teoría de la medida , el teorema de la convergencia dominada de Lebesgue proporciona condiciones suficientes bajo las cuales casi en todas partes la convergencia de una secuencia de funciones implica la convergencia en la norma L 1 . Su poder y utilidad son dos de las principales ventajas teóricas de la integración de Lebesgue sobre la integración de Riemann .

Además de su frecuente aparición en análisis matemático y ecuaciones diferenciales parciales, es muy utilizado en teoría de probabilidades , ya que da una condición suficiente para la convergencia de valores esperados de variables aleatorias .

Teorema de la convergencia dominada de Lebesgue. [1] Sea ( f n ) una secuencia de funciones medibles de valor complejo en un espacio de medida ( S , Σ, μ) . Suponga que la secuencia converge puntualmente a una función f y está dominada por alguna función integrable g en el sentido de que

para todos los números n en el conjunto índice de la sucesión y todos los puntos xS . Entonces f es integrable (en el sentido de Lebesgue ) y

Observación 1. La afirmación " g es integrable" significa que la función medible g es integrable según Lebesgue; es decir

Observación 2. La convergencia de la secuencia y la dominación por g se puede relajar para mantener solo μ- casi en todas partes siempre que el espacio de medida ( S , Σ, μ) esté completo o se elija f como una función medible que concuerda μ-casi en todas partes con el límite puntual existente en casi todas partes. (Estas precauciones son necesarias porque, de lo contrario, podría existir un subconjunto no medible de un conjunto nulo μ N ∈ Σ , por lo que f podría no ser medible).