Parte de una serie de artículos sobre |
Cálculo |
---|
En matemáticas , la derivada de una función de una variable real mide la sensibilidad al cambio del valor de la función (valor de salida) con respecto a un cambio en su argumento (valor de entrada). Las derivadas son una herramienta fundamental del cálculo . Por ejemplo, la derivada de la posición de un objeto en movimiento con respecto al tiempo es la velocidad del objeto : esto mide qué tan rápido cambia la posición del objeto cuando avanza el tiempo.
La derivada de una función de una sola variable en un valor de entrada elegido, cuando existe, es la pendiente de la recta tangente a la gráfica de la función en ese punto. La recta tangente es la mejor aproximación lineal de la función cerca de ese valor de entrada. Por esta razón, la derivada se describe a menudo como la "tasa de cambio instantánea", la relación entre el cambio instantáneo en la variable dependiente y el de la variable independiente.
Las derivadas se pueden generalizar a funciones de varias variables reales . En esta generalización, la derivada se reinterpreta como una transformación lineal cuya gráfica es (después de una traducción apropiada) la mejor aproximación lineal a la gráfica de la función original. La matriz jacobiana es la matriz que representa esta transformación lineal con respecto a la base dada por la elección de variables independientes y dependientes. Se puede calcular en términos de derivadas parciales con respecto a las variables independientes. Para una función de valor real de varias variables, la matriz jacobiana se reduce al vector de gradiente .
El proceso de encontrar una derivada se llama diferenciación . El proceso inverso se llama antidiferenciación . El teorema fundamental del cálculo relaciona la antidiferenciación con la integración . La diferenciación y la integración constituyen las dos operaciones fundamentales en el cálculo de una sola variable. [Nota 1]
Una función de una variable real y = f ( x ) es diferenciable en un punto a de su dominio , si su dominio contiene un intervalo abierto I que contiene a , y el límite
existe. Esto significa que, para cada número real positivo (incluso muy pequeño), existe un número real positivo tal que, para cada h tal que y luego se define, y
donde las barras verticales denotan el valor absoluto (ver (ε, δ) -definición de límite ).
Si la función f es derivable en a , es decir, si el límite L existe, entonces este límite se llama derivada de f en a , y se denota (se lee como " f primo de a ") o (se lee como "la derivada de f con respecto ax en a "," dy por dx en a ", o" dy sobre dx en a "); consulte § Notación (detalles) , a continuación.
Este artículo se lee como un libro de texto y puede requerir una limpieza . Ayude a mejorar este artículo para que tenga un tono neutro y cumpla con los estándares de calidad de Wikipedia . ( Junio de 2021 ) |
La diferenciación es la acción de calcular una derivada. La derivada de una función y = f ( x ) de una variable x es una medida de la tasa a la que cambia el valor y de la función con respecto al cambio de la variable x . Se llama derivada de f con respecto ax . Si x y y son números reales , y si el gráfico de f se representa frente a x , derivado es la pendiente de este gráfico en cada punto.
El caso más simple, aparte del caso trivial de una función constante , es cuando y es una función lineal de x , lo que significa que la gráfica de y es una línea. En este caso, y = f ( x ) = mx + b , para los números reales m y b , y la pendiente m está dado por
donde el símbolo Δ ( Delta ) es una abreviatura de "cambio en", y las combinaciones y se refieren a los cambios correspondientes, es decir
La fórmula anterior se cumple porque
Por lo tanto
Esto da el valor de la pendiente de una línea.
Si la función f no es lineal (es decir, su gráfica no es una línea recta), entonces el cambio en y dividido por el cambio en x varía sobre el rango considerado: la diferenciación es un método para encontrar un valor único para esta tasa de cambio, no en un rango determinado, sino en cualquier valor dado de x .
La idea, ilustrada por las Figuras 1 a 3, es calcular la tasa de cambio como el valor límite de la relación de las diferencias Δ y / Δ x cuando Δ x tiende a 0.
El enfoque más común para convertir esta idea intuitiva en una definición precisa es definir la derivada como un límite de cocientes de diferencia de números reales. [1] Este es el enfoque que se describe a continuación.
Sea f una función de valor real definida en una vecindad abierta de un número real a . En geometría clásica, la recta tangente a la gráfica de la función f en a era la única recta que pasaba por el punto ( a , f ( a )) que no se encontraba con la gráfica de f transversalmente , lo que significa que la recta no pasaba directamente por la gráfica. La derivada de y con respecto ax en a es, geométricamente, la pendiente de la recta tangente a la gráfica de f en( a , f ( a )) . La pendiente de la recta tangente está muy cerca de la pendiente de la recta que pasa por ( a , f ( a )) y un punto cercano en la gráfica, por ejemplo ( a + h , f ( a + h )) . Estas líneas se llaman líneas secantes . Un valor de h cercano a cero da una buena aproximación a la pendiente de la recta tangente, y valores más pequeños (en valor absoluto ) de h darán, en general, mejores aproximaciones.. La pendiente m de la recta secante es la diferencia entre los valores y de estos puntos dividida por la diferencia entre los valores x , es decir,
Esta expresión es Newton 's cociente de diferencias . Pasar de una aproximación a una respuesta exacta se realiza mediante un límite . Geométricamente, el límite de las líneas secantes es la línea tangente. Por lo tanto, el límite del cociente de diferencias cuando h se acerca a cero, si existe, debe representar la pendiente de la recta tangente a ( a , f ( a )) . Este límite se define como la derivada de la función f en a :
Cuando existe el límite, se dice que f es diferenciable en a . Aquí f ′ ( a ) es una de varias notaciones comunes para la derivada ( ver más abajo ). A partir de esta definición, es obvio que una función diferenciable f es creciente si y solo si su derivada es positiva, y es decreciente sif su derivada es negativa. Este hecho se usa ampliamente cuando se analiza el comportamiento de una función, por ejemplo, al encontrar extremos locales .
De manera equivalente, la derivada satisface la propiedad de que
que tiene la interpretación intuitiva (ver Figura 1) de que la línea tangente af en a da la mejor aproximación lineal
a f cerca de un (es decir, para la pequeña h ). Esta interpretación es la más fácil de generalizar a otros entornos ( ver más abajo ).
Sustituir 0 por h en el cociente de diferencias provoca la división entre cero , por lo que la pendiente de la recta tangente no se puede encontrar directamente con este método. En su lugar, defina Q ( h ) como el cociente de diferencias en función de h :
Q ( h ) es la pendiente de la recta secante entre ( a , f ( a )) y ( a + h , f ( a + h )) . Si f es una función continua , lo que significa que su gráfica es una curva ininterrumpida sin espacios, entonces Q es una función continua alejada de h = 0 . Si el límite lim h → 0 Q ( h ) existe, lo que significa que hay una forma de elegir un valor paraQ (0) que hace de Q una función continua, entonces la función f es derivable en a , y su derivada en a es igual a Q (0) .
En la práctica, la existencia de una extensión continua de la diferencia de cociente Q ( h ) a h = 0 se muestra mediante la modificación del numerador para cancelar h en el denominador. Tales manipulaciones pueden aclarar el valor límite de Q para h pequeña incluso aunque Q todavía no esté definido en h = 0 . Este proceso puede ser largo y tedioso para funciones complicadas, y muchos atajos se utilizan comúnmente para simplificar el proceso.
La función cuadrada dada por f ( x ) = x 2 es diferenciable en x = 3 , y su derivada allí es 6. Este resultado se establece calculando el límite cuando h se acerca a cero del cociente de diferencia de f (3) :
La última expresión muestra que el cociente de diferencias es igual a 6 + h cuando h ≠ 0 y no está definido cuando h = 0 , debido a la definición del cociente de diferencias. Sin embargo, la definición del límite dice que no es necesario definir el cociente de diferencias cuando h = 0 . El límite es el resultado de dejar que h vaya a cero, lo que significa que es el valor al que tiende 6 + h cuando h se vuelve muy pequeña:
Por lo tanto, la pendiente de la gráfica de la función cuadrada en el punto (3, 9) es 6 , por lo que su derivada en x = 3 es f ′ (3) = 6 .
De manera más general, un cálculo similar muestra que la derivada de la función cuadrada en x = a es f ′ ( a ) = 2 a :
Si f es diferenciable en a , entonces f también debe ser continua en a . Como un ejemplo, elegir un punto una y dejar que f sea la función de paso que devuelve el valor 1 para todo x menos de una , y devuelve un valor diferente 10 para todos los x mayor que o igual a una . f no puede tener una derivada en a . Si h es negativo, entonces a + h está en la parte baja del paso, por lo que la recta secante dea a a + h es muy empinada, y cuando h tiende a cero, la pendiente tiende a infinito. Si h es positivo, entonces a + h está en la parte alta del paso, por lo que la recta secante de a a a + h tiene pendiente cero. En consecuencia, las líneas secantes no se acercan a ninguna pendiente única, por lo que el límite del cociente de diferencias no existe.
Sin embargo, incluso si una función es continua en un punto, es posible que no sea diferenciable allí. Por ejemplo, la función de valor absoluto dada por f ( x ) = | x | es continuo en x = 0 , pero no es diferenciable allí. Si h es positivo, entonces la pendiente de la recta secante de 0 ah es uno, mientras que si h es negativo, entonces la pendiente de la recta secante de 0 ah es uno negativo. Esto se puede ver gráficamente como una "torcedura" o una "cúspide" en el gráfico en x = 0 . Incluso una función con un gráfico suave no es diferenciable en un punto donde sula tangente es vertical : por ejemplo, la función dada por f ( x ) = x 1/3 no es diferenciable en x = 0 .
En resumen, una función que tiene derivada es continua, pero hay funciones continuas que no tienen derivada.
La mayoría de las funciones que ocurren en la práctica tienen derivadas en todos los puntos o en casi todos los puntos. Al principio de la historia del cálculo , muchos matemáticos asumieron que una función continua era diferenciable en la mayoría de los puntos. En condiciones suaves, por ejemplo, si la función es una función monótona o una función de Lipschitz , esto es cierto. Sin embargo, en 1872 Weierstrass encontró el primer ejemplo de una función que es continua en todas partes pero no diferenciable en ninguna parte. Este ejemplo ahora se conoce como función Weierstrass . En 1931, Stefan Banach demostró que el conjunto de funciones que tienen una derivada en algún momento es un conjunto exiguoen el espacio de todas las funciones continuas. [2] De manera informal, esto significa que casi ninguna función continua aleatoria tiene una derivada ni siquiera en un punto.
Sea f una función que tiene una derivada en cada punto de su dominio . Entonces podemos definir una función que mapee cada punto x al valor de la derivada de f en x . Esta función se escribe f ′ y se llama función derivada o derivada de f .
A veces, f tiene una derivada como máximo, pero no todos, los puntos de su dominio. La función cuyo valor en a es igual a f ′ ( a ) siempre que f ′ ( a ) está definida y en otros lugares no está definida también se denomina derivada de f . Sigue siendo una función, pero su dominio es estrictamente menor que el dominio de f .
Usando esta idea, la diferenciación se convierte en una función de funciones: la derivada es un operador cuyo dominio es el conjunto de todas las funciones que tienen derivadas en cada punto de su dominio y cuyo rango es un conjunto de funciones. Si denotamos este operador por D , entonces D ( f ) es la función f ′ . Dado que D ( f ) es una función, se puede evaluar en un punto a . Según la definición de la función derivada, D ( f ) ( a ) = f ′ ( a ) .
Para comparar, considere la función de duplicación dada por f ( x ) = 2 x ; f es una función de valor real de un número real, lo que significa que toma números como entradas y tiene números como salidas:
Sin embargo, el operador D no se define en números individuales. Solo se define en funciones:
Dado que la salida de D es una función, la salida de D se puede evaluar en un punto. Por ejemplo, cuando D se aplica a la función cuadrada, x ↦ x 2 , D genera la función de duplicación x ↦ 2 x , que llamamos f ( x ) . Esta función de salida se puede evaluar para obtener f (1) = 2 , f (2) = 4 , y así sucesivamente.
Sea f una función diferenciable y sea f ′ su derivada. La derivada de f ′ (si tiene una) se escribe f ′ ′ y se llama la segunda derivada de f . De manera similar, la derivada de la segunda derivada, si existe, se escribe f ′ ′ ′ y se llama la tercera derivada de f . Continuando con este proceso, se puede definir, si existe, la n- ésima derivada como la derivada de la ( n- 1) -ésima derivada. Estos derivados repetidos se denominan derivados de orden superior.. El n º derivado también se llama la derivada de orden n .
Si x ( t ) representa la posición de un objeto en el tiempo t , entonces las derivadas de orden superior de x tienen interpretaciones específicas en física . La primera derivada de x es la velocidad del objeto . La segunda derivada de x es la aceleración . La tercera derivada de x es el tirón . Y finalmente, las derivadas cuarta a sexta de x son chasquido, crujido y estallido ; más aplicable a la astrofísica .
Una función f no necesita tener una derivada (por ejemplo, si no es continua). De manera similar, incluso si f tiene una derivada, es posible que no tenga una segunda derivada. Por ejemplo, deja
El cálculo muestra que f es una función diferenciable cuya derivada en está dada por
f ' ( x ) es el doble de la función de valor absoluto en, y no tiene una derivada en cero. Ejemplos similares muestran que una función puede tener una k- ésima derivada para cada entero no negativo k, pero no una ( k + 1) -ésima derivada. Una función que tiene k derivadas sucesivas se llama k veces diferenciable . Si además la k- ésima derivada es continua, entonces se dice que la función es de clase de diferenciabilidad C k . (Esta es una condición más fuerte que tener k derivadas, como se muestra en el segundo ejemplo de Suavidad § Ejemplos .) Una función que tiene infinitas derivadas se llama infinitamente diferenciable o suave .
En la línea real, cada función polinomial es infinitamente diferenciable. Según las reglas de diferenciación estándar , si un polinomio de grado n se diferencia n veces, se convierte en una función constante . Todas sus derivadas posteriores son idénticamente cero. En particular, existen, por lo que los polinomios son funciones suaves.
Las derivadas de una función f en un punto x proporcionan aproximaciones polinómicas a esa función cerca de x . Por ejemplo, si f es dos veces diferenciable, entonces
en el sentido de que
Si f es infinitamente diferenciable, entonces este es el comienzo de la serie de Taylor para f evaluada en x + h alrededor de x .
Un punto donde la segunda derivada de una función cambia de signo se llama punto de inflexión . [3] En un punto de inflexión, la segunda derivada puede ser cero, como en el caso del punto de inflexión x = 0 de la función dada por , o puede no existir, como en el caso del punto de inflexión x = 0 de la función dada por . En un punto de inflexión, una función pasa de ser una función convexa a ser una función cóncava o viceversa.
Los símbolos , y fueron introducidos por Gottfried Wilhelm Leibniz en 1675. [4] Todavía se usa comúnmente cuando la ecuación y = f ( x ) se ve como una relación funcional entre variables dependientes e independientes . Entonces la primera derivada se denota por
y una vez se pensó que era un cociente infinitesimal . Las derivadas más altas se expresan usando la notación
para el n º derivado de . Estas son abreviaturas para múltiples aplicaciones del operador derivado. Por ejemplo,
Con la notación de Leibniz, podemos escribir la derivada de en el punto de dos formas diferentes:
La notación de Leibniz permite especificar la variable de diferenciación (en el denominador), que es relevante en la diferenciación parcial . También se puede utilizar para escribir la regla de la cadena como [Nota 2]
A veces denominada notación prima , [5] una de las notaciones modernas más comunes para la diferenciación se debe a Joseph-Louis Lagrange y usa la marca prima , de modo que se denota la derivada de una función . De manera similar, la segunda y tercera derivadas se denotan
Para indicar el número de derivadas más allá de este punto, algunos autores usan números romanos en superíndice , mientras que otros colocan el número entre paréntesis:
Este último generaliza notación para producir la notación para el n º derivada de - esta notación es más útil cuando se quiere hablar de la derivada como una función en sí, como en este caso la notación de Leibniz puede llegar a ser engorroso.
La notación de Newton para la diferenciación, también llamada notación de puntos, coloca un punto sobre el nombre de la función para representar una derivada del tiempo. Si entonces
denotan, respectivamente, la primera y segunda derivadas de . Esta notación se utiliza exclusivamente para derivadas con respecto al tiempo o la longitud del arco . Se utiliza normalmente en ecuaciones diferenciales en física y geometría diferencial . [6] [7] La notación de puntos, sin embargo, se vuelve inmanejable para derivadas de orden superior (orden 4 o más) y no puede tratar con múltiples variables independientes.
La notación de Euler usa un operador diferencial , que se aplica a una función para dar la primera derivada . El n º derivado se denota .
Si y = f ( x ) es una variable dependiente, a menudo el subíndice x se adjunta a la D para aclarar la variable independiente x . Entonces se escribe la notación de Euler
aunque este subíndice a menudo se omite cuando se entiende la variable x , por ejemplo, cuando esta es la única variable independiente presente en la expresión.
La notación de Euler es útil para enunciar y resolver ecuaciones diferenciales lineales .
La derivada de una función puede, en principio, calcularse a partir de la definición considerando el cociente de diferencias y calculando su límite. En la práctica, una vez que se conocen las derivadas de algunas funciones simples, las derivadas de otras funciones se calculan más fácilmente usando reglas para obtener derivadas de funciones más complicadas a partir de funciones más simples.
Aquí están las reglas para las derivadas de las funciones básicas más comunes, donde a es un número real.
Estas son algunas de las reglas más básicas para deducir la derivada de una función compuesta a partir de las derivadas de funciones básicas.
La derivada de la función dada por
es
Aquí, el segundo término se calculó usando la regla de la cadena y el tercero usando la regla del producto . También se utilizaron las derivadas conocidas de las funciones elementales x 2 , x 4 , sin ( x ), ln ( x ) y exp ( x ) = e x , así como la constante 7.
En relación con una extensión hiperreal R ⊂ ⁎ R de los números reales, la derivada de una función real y = f ( x ) en un punto real x se puede definir como la sombra del cociente ∆ y / ∆ x para infinitesimal ∆ x , donde ∆ y = f ( x + ∆ x ) - f ( x ) . Aquí la extensión natural de fa los hiperreal todavía se denota f . Aquí se dice que existe la derivada si la sombra es independiente del infinitesimal elegido.
Una función de valor vectorial y de una variable real envía números reales a los vectores en algún espacio vectorial R n . Una función con valores vectoriales se puede dividir en sus funciones de coordenadas y 1 ( t ), y 2 ( t ), ..., y n ( t ) , lo que significa que y ( t ) = ( y 1 ( t ) ,. .., y n ( t )) . Esto incluye, por ejemplo, curvas paramétricas en R 2o R 3 . Las funciones de coordenadas son funciones de valor real, por lo que la definición anterior de derivada se aplica a ellas. La derivada de y ( t ) se define como el vector , llamado vector tangente , cuyas coordenadas son las derivadas de las funciones de coordenadas. Es decir,
Equivalentemente,
si existe el límite. La resta en el numerador es la resta de vectores, no escalares. Si la derivada de y existe para cada valor de t , entonces y ′ es otra función con valores vectoriales.
Si e 1 , ..., e n es la base estándar para R n , entonces y ( t ) también se puede escribir como y 1 ( t ) e 1 + ⋯ + y n ( t ) e n . Si asumimos que la derivada de una función con valores vectoriales conserva la propiedad de linealidad , entonces la derivada de y ( t ) debe ser
porque cada uno de los vectores base es una constante.
Esta generalización es útil, por ejemplo, si y ( t ) es el vector de posición de una partícula en el tiempo t ; entonces la derivada y ′ ( t ) es el vector de velocidad de la partícula en el tiempo t .
Suponga que f es una función que depende de más de una variable, por ejemplo,
f se puede reinterpretar como una familia de funciones de una variable indexada por las otras variables:
En otras palabras, cada valor de x elige una función, denotada f x , que es una función de un número real. [Nota 3] Es decir,
Una vez que un valor de x se elige, por ejemplo una , entonces f ( x , y ) determina una función f una que envía y a un 2 + ay + y 2 :
En esta expresión, a es una constante , no una variable , por lo que f a es una función de una sola variable real. En consecuencia, se aplica la definición de la derivada para una función de una variable:
El procedimiento anterior se puede realizar para cualquier elección de a . Al reunir las derivadas en una función, se obtiene una función que describe la variación de f en la dirección y :
Ésta es la derivada parcial de f con respecto ay . Aquí ∂ es una d redondeada llamada símbolo de derivada parcial . Para distinguirlo de la letra d , ∂ a veces se pronuncia "der", "del" o "parcial" en lugar de "dee".
En general, la derivada parcial de una función f ( x 1 ,…, x n ) en la dirección x i en el punto ( a 1 , ..., a n ) se define como:
En el cociente de diferencias anterior, todas las variables excepto x i se mantienen fijas. Esa elección de valores fijos determina una función de una variable
y, por definición,
En otras palabras, las diferentes opciones de un índice, una familia de funciones de una variable, como en el ejemplo anterior. Esta expresión también muestra que el cálculo de derivadas parciales se reduce al cálculo de derivadas de una variable.
Esto es fundamental para el estudio de las funciones de varias variables reales . Sea f ( x 1 , ..., x n ) una función de valor real . Si todas las derivadas parciales ∂ f / ∂ x j de f están definidas en el punto a = ( a 1 , ..., a n ) , estas derivadas parciales definen el vector
que se llama gradiente de f en a . Si f es diferenciable en cada punto de algún dominio, entonces el gradiente es una función con valores vectoriales ∇ f que mapea el punto ( a 1 , ..., a n ) al vector ∇ f ( a 1 , ..., un n ) . En consecuencia, el gradiente determina un campo vectorial .
Si f es una función de valor real en R n , entonces las derivadas parciales de f miden su variación en la dirección de los ejes de coordenadas. Por ejemplo, si f es una función de x y y , a continuación, sus derivados parciales miden la variación de f en el x dirección y el y dirección. Sin embargo, no miden directamente la variación de f en ninguna otra dirección, como a lo largo de la línea diagonal y = x . Estos se miden utilizando derivadas direccionales. Elige un vector
La derivada direccional de f en la dirección de v en el punto x es el límite
En algunos casos, puede ser más fácil calcular o estimar la derivada direccional después de cambiar la longitud del vector. A menudo, esto se hace para convertir el problema en el cálculo de una derivada direccional en la dirección de un vector unitario. Para ver cómo funciona esto, suponga que v = λ u donde u es un vector unitario en la dirección de v . Sustituya h = k / λ en el cociente de diferencias. El cociente de diferencias se convierte en:
Esto es λ multiplicado por el cociente de diferencias de la derivada direccional de f con respecto a u . Además, teniendo el límite cuando h tiende a cero es el mismo que tomar el límite cuando k tiende a cero porque h y k son múltiplos una de la otra. Por lo tanto, D v ( f ) = λ D u ( f ) . Debido a esta propiedad de cambio de escala, las derivadas direccionales se consideran con frecuencia solo para vectores unitarios.
Si todas las derivadas parciales de f existen y son continuas en x , entonces determinan la derivada direccional de f en la dirección v mediante la fórmula:
Ésta es una consecuencia de la definición de la derivada total . De ello se deduce que la derivada direccional es lineal en v , lo que significa que D v + w ( f ) = D v ( f ) + D w ( f ) .
La misma definición también funciona cuando f es una función con valores en R m . La definición anterior se aplica a cada componente de los vectores. En este caso, la derivada direccional es un vector en R m .
Cuando f es una función de un subconjunto abierto de R n a R m , entonces la derivada direccional de f en una dirección elegida es la mejor aproximación lineal af en ese punto y en esa dirección. Pero cuando n > 1 , ninguna derivada direccional única puede dar una imagen completa del comportamiento de f . La derivada total da una imagen completa al considerar todas las direcciones a la vez. Es decir, para cualquier vector v que comience en a , la fórmula de aproximación lineal se cumple:
Al igual que la derivada de una sola variable, f ′ ( a ) se elige de modo que el error en esta aproximación sea lo más pequeño posible.
Si n y m son ambos uno, entonces el derivado de f '( un ) es un número y la expresión f ' ( un ) v es el producto de dos números. Pero en dimensiones superiores, es imposible que f ′ ( a ) sea un número. Si fuera un número, entonces f ′ ( a ) v sería un vector en R n mientras que los otros términos serían vectores en R m , y por lo tanto la fórmula no tendría sentido. Para que la fórmula de aproximación lineal tenga sentido, f ′ (a ) debe ser una función que envíe vectores en R n a vectores en R m , y f ′ ( a ) v debe denotar esta función evaluada en v .
Para determinar qué tipo de función es, observe que la fórmula de aproximación lineal se puede reescribir como
Observe que si elegimos otro vector w , entonces esta ecuación aproximada determina otra ecuación aproximada sustituyendo v por w . Determina una tercera ecuación aproximada sustituyendo w por v y a + v por a . Al restar estas dos nuevas ecuaciones, obtenemos
Si asumimos que v es pequeño y que la derivada varía continuamente en a , entonces f ′ ( a + v ) es aproximadamente igual af ′ ( a ) y, por lo tanto, el lado derecho es aproximadamente cero. El lado izquierdo se puede reescribir de una manera diferente usando la fórmula de aproximación lineal con v + w sustituido por v . La fórmula de aproximación lineal implica:
Esto sugiere que f ′ ( a ) es una transformación lineal del espacio vectorial R n al espacio vectorial R m . De hecho, es posible hacer de esto una derivación precisa midiendo el error en las aproximaciones. Suponga que el error en esta fórmula de aproximación lineal está acotado por una constante de tiempos || v ||, donde la constante es independiente de v pero depende continuamente de a . Luego, después de agregar un término de error apropiado, todas las igualdades aproximadas anteriores se pueden reformular como desigualdades. En particular, f ′ ( a )es una transformación lineal hasta un pequeño término de error. En el límite cuando v y w tienden a cero, debe ser una transformación lineal. Dado que definimos la derivada total tomando un límite cuando v llega a cero, f ′ ( a ) debe ser una transformación lineal.
En una variable, el hecho de que la derivada sea la mejor aproximación lineal se expresa por el hecho de que es el límite de los cocientes en diferencias. Sin embargo, el cociente de diferencias habitual no tiene sentido en dimensiones superiores porque normalmente no es posible dividir vectores. En particular, el numerador y el denominador del cociente de diferencias ni siquiera están en el mismo espacio vectorial: el numerador se encuentra en el codominio R m mientras que el denominador se encuentra en el dominio R n . Además, la derivada es una transformación lineal, un tipo de objeto diferente tanto del numerador como del denominador. Para precisar la idea de que f ′ ( a )es la mejor aproximación lineal, es necesario adaptar una fórmula diferente para la derivada de una variable en la que estos problemas desaparecen. Si f : R → R , entonces la definición habitual de la derivada puede manipularse para mostrar que la derivada de f en a es el número único f ′ ( a ) tal que
Esto es equivalente a
porque el límite de una función tiende a cero si y solo si el límite del valor absoluto de la función tiende a cero. Esta última fórmula se puede adaptar a la situación de muchas variables reemplazando los valores absolutos por normas .
La definición de la derivada total de f en a , por lo tanto, es que es la única transformación lineal f ′ ( a ): R n → R m tal que
Aquí h es un vector en R n , por lo que la norma en el denominador es la longitud estándar en R n . Sin embargo, f ′ ( a ) h es un vector en R m , y la norma en el numerador es la longitud estándar en R m . Si v es un vector que comienza en a , entonces f ′ ( a ) v se llama el empuje hacia adelante de v por f y, a veces, se escribe f ∗ v .
Si la derivada total existe en a , entonces todas las derivadas parciales y direccionales de f existen en a , y para todo v , f ′ ( a ) v es la derivada direccional de f en la dirección v . Si escribimos f usando funciones de coordenadas, de modo que f = ( f 1 , f 2 , ..., f m ) , entonces la derivada total se puede expresar usando las derivadas parciales como matriz . Esta matriz se llamaMatriz jacobiana de f en a :
La existencia de la derivada total f ′ ( a ) es estrictamente más fuerte que la existencia de todas las derivadas parciales, pero si las derivadas parciales existen y son continuas, entonces la derivada total existe, está dada por el jacobiano y depende continuamente de un .
La definición de la derivada total subsume la definición de la derivada en una variable. Es decir, si f es una función de valor real de una variable real, entonces la derivada total existe si y solo si existe la derivada habitual. La matriz jacobiana se reduce a una matriz de 1 × 1 cuya única entrada es la derivada f ′ ( x ). Esta matriz 1 × 1 satisface la propiedad de que f ( a + h ) - ( f ( a ) + f ′ ( a ) h ) es aproximadamente cero, en otras palabras que
Hasta las variables cambiantes, esta es la afirmación de que la función es la mejor aproximación lineal de f en a .
La derivada total de una función no da otra función de la misma manera que en el caso de una variable. Esto se debe a que la derivada total de una función multivariable tiene que registrar mucha más información que la derivada de una función de una sola variable. En cambio, la derivada total da una función desde el paquete tangente de la fuente al paquete tangente del objetivo.
El análogo natural de las derivadas totales de segundo, tercer y orden superior no es una transformación lineal, no es una función en el paquete tangente y no se construye tomando repetidamente la derivada total. El análogo de una derivada de orden superior, llamada chorro , no puede ser una transformación lineal porque las derivadas de orden superior reflejan información geométrica sutil, como la concavidad, que no se puede describir en términos de datos lineales como vectores. No puede ser una función en el paquete tangente porque el paquete tangente solo tiene espacio para el espacio base y las derivadas direccionales. Debido a que los chorros capturan información de orden superior, toman como argumentos coordenadas adicionales que representan cambios de dirección de orden superior. El espacio determinado por estas coordenadas adicionales se llamapaquete de chorro . La relación entre la derivada total y las derivadas parciales de una función tiene un paralelo en la relación entre el chorro de k- ésimo orden de una función y sus derivadas parciales de orden menor o igual que k .
Tomando repetidamente la derivada total, se obtienen versiones superiores de la derivada de Fréchet , especializadas en R p . La derivada total de k- ésimo orden puede interpretarse como un mapa
que toma un punto x en R n y le asigna un elemento del espacio de k -mapas lineales de R n a R m - la "mejor" (en cierto sentido preciso) k -aproximación lineal af en ese punto. Al precomponerlo con el mapa diagonal Δ, x → ( x , x ) , una serie de Taylor generalizada puede comenzar como
donde f ( a ) se identifica con una función constante, x i - a i son las componentes del vector x - a , y ( Df ) i y ( D 2 f ) jk son las componentes de Df y D 2 f como lineal transformaciones.
El concepto de derivada se puede extender a muchos otros entornos. El hilo común es que la derivada de una función en un punto sirve como una aproximación lineal de la función en ese punto.
El cálculo , conocido en su historia temprana como cálculo infinitesimal , es una disciplina matemática enfocada en límites , funciones , derivadas, integrales y series infinitas . Isaac Newton y Gottfried Leibniz descubrieron el cálculo de forma independiente a mediados del siglo XVII. Sin embargo, cada inventor afirmó que el otro le robó su trabajo en una amarga disputa que continuó hasta el final de sus vidas.
Recursos de la biblioteca sobre Derivative |
|