En álgebra lineal , una matriz de rotación es una matriz de transformación que se utiliza para realizar una rotación en el espacio euclidiano . Por ejemplo, usando la convención siguiente, la matriz
rota puntos en el plano xy en sentido antihorario a través de un ángulo θ con respecto al eje x alrededor del origen de un sistema de coordenadas cartesiano bidimensional . Para realizar la rotación en un punto plano con coordenadas estándar v = ( x , y ) , debe escribirse como un vector columna y multiplicarse por la matriz R :
Si x y y son las coordenadas de punto final de un vector, donde x es el coseno y la y es la sinusoidal, a continuación, las ecuaciones anteriores se convierten en las fórmulas ángulo suma trigonométricas . De hecho, una matriz de rotación puede verse como las fórmulas de ángulo de suma trigonométrica en forma de matriz. Una forma de entender esto es decir que tenemos un vector en un ángulo de 30 ° desde el eje x , y deseamos rotar ese ángulo otros 45 °. Simplemente necesitamos calcular las coordenadas del punto final del vector a 75 °.
Los ejemplos de este artículo se aplican a rotaciones activas de vectores en sentido antihorario en un sistema de coordenadas diestro ( y en sentido antihorario desde x ) mediante pre-multiplicación ( R a la izquierda). Si se cambia alguno de estos (como ejes giratorios en lugar de vectores, una transformación pasiva ), entonces se debe usar la inversa de la matriz de ejemplo, que coincide con su transposición .
Dado que la multiplicación de matrices no tiene efecto sobre el vector cero (las coordenadas del origen), las matrices de rotación describen rotaciones sobre el origen. Las matrices de rotación proporcionan una descripción algebraica de tales rotaciones y se utilizan ampliamente para cálculos en geometría , física y gráficos por computadora . En alguna literatura, el término rotación se generaliza para incluir rotaciones impropias , caracterizadas por matrices ortogonales con un determinante de -1 (en lugar de +1). Estos combinan rotaciones adecuadas con reflejos (que invierten la orientación ). En otros casos, en los que no se tienen en cuenta los reflejos, es posible que se caiga la etiqueta propiamente dicha . La última convención se sigue en este artículo.
Las matrices de rotación son matrices cuadradas , con entradas reales . Más específicamente, se pueden caracterizar como matrices ortogonales con determinante 1; es decir, una matriz cuadrada R es una matriz de rotación si y solo si R T = R −1 y det R = 1 . El conjunto de todas las matrices ortogonales de tamaño n con determinante +1 forma un grupo conocido como grupo ortogonal especial SO ( n ) , un ejemplo del cual es el grupo de rotación SO (3) . El conjunto de todas las matrices ortogonales de tamaño n con determinante +1 o −1 forma el grupo ortogonal (general) O ( n ) .
En dos dimensiones
En dos dimensiones, la matriz de rotación estándar tiene la siguiente forma:
Esto rota los vectores de columna mediante la siguiente multiplicación de matrices ,
Por lo tanto, las nuevas coordenadas ( x ′, y ′) de un punto ( x , y ) después de la rotación son
Ejemplos de
Por ejemplo, cuando el vector
gira un ángulo θ , sus nuevas coordenadas son
y cuando el vector
gira un ángulo θ , sus nuevas coordenadas son
Dirección
La dirección de rotación del vector es en sentido antihorario si θ es positivo (por ejemplo, 90 °) y en el sentido de las agujas del reloj si θ es negativo (por ejemplo, −90 °). Por lo tanto, la matriz de rotación en el sentido de las agujas del reloj se encuentra como
El caso bidimensional es el único caso no trivial (es decir, no unidimensional) en el que el grupo de matrices de rotación es conmutativo, de modo que no importa en qué orden se realizan las rotaciones múltiples. Una convención alternativa utiliza ejes giratorios, [1] y las matrices anteriores también representan una rotación de los ejes en el sentido de las agujas del reloj a través de un ángulo θ .
Orientación no estándar del sistema de coordenadas
Si se utiliza un sistema de coordenadas cartesiano estándar para diestros , con el eje x hacia la derecha y el eje y hacia arriba, la rotación R ( θ ) es en sentido antihorario. Si se utiliza un sistema de coordenadas cartesiano para zurdos, con x dirigido a la derecha pero y dirigido hacia abajo, R ( θ ) es en el sentido de las agujas del reloj. Estas orientaciones no estándar rara vez se usan en matemáticas, pero son comunes en gráficos por computadora en 2D , que a menudo tienen el origen en la esquina superior izquierda y el eje y en la pantalla o página. [2]
Consulte a continuación otras convenciones alternativas que pueden cambiar el sentido de la rotación producida por una matriz de rotación.
Rotaciones comunes
Particularmente útiles son las matrices
para rotaciones de 90 °, 180 ° y 270 ° en sentido antihorario.
Relación con plano complejo
Desde
las matrices de la forma
formar un anillo isomorfo al campo de los números complejos . Bajo este isomorfismo, las matrices de rotación corresponden al círculo de los números complejos unitarios , los números complejos de módulo 1 .
Si uno identifica con a través del isomorfismo lineal la acción de una matriz de la forma anterior sobre los vectores de corresponde a la multiplicación por el número complejo x + iy , y las rotaciones corresponden a la multiplicación por números complejos de módulo 1 .
Como toda matriz de rotación se puede escribir
la correspondencia anterior asocia dicha matriz con el número complejo
(esta última igualdad es la fórmula de Euler ).
En tres dimensiones
Rotaciones básicas
Una rotación básica (también llamada rotación elemental) es una rotación alrededor de uno de los ejes de un sistema de coordenadas. Las siguientes tres matrices de rotación básicas rotan vectores en un ángulo θ alrededor del eje x , y o z , en tres dimensiones, usando la regla de la mano derecha, que codifica sus signos alternos. (Las mismas matrices también pueden representar una rotación de los ejes en el sentido de las agujas del reloj. [Nb 1] )
Para los vectores de columna , cada una de estas rotaciones básicas de vectores aparece en sentido antihorario cuando el eje sobre el que ocurren apunta hacia el observador, el sistema de coordenadas es a la derecha y el ángulo θ es positivo. R z , por ejemplo, rotaría hacia el eje y, un vector alineado con el eje x , como se puede verificar fácilmente operando con R z en el vector (1,0,0) :
Esto es similar a la rotación producida por la matriz de rotación bidimensional mencionada anteriormente. Consulte a continuación las convenciones alternativas que aparentemente o realmente pueden invertir el sentido de la rotación producida por estas matrices.
Rotaciones generales
Se pueden obtener otras matrices de rotación a partir de estas tres mediante la multiplicación de matrices . Por ejemplo, el producto
representa una rotación cuyos ángulos de guiñada, cabeceo y balanceo son α , β y γ , respectivamente. Más formalmente, es una rotación intrínseca cuyos ángulos de Tait-Bryan son α , β , γ , alrededor de los ejes z , y , x , respectivamente. Del mismo modo, el producto
representa una rotación extrínseca cuyos ángulos de Euler (impropios) son α , β , γ , alrededor de los ejes x , y , z .
Estas matrices producen el efecto deseado solo si se utilizan para premultiplicar vectores de columna y (dado que en general la multiplicación de matrices no es conmutativa ) solo si se aplican en el orden especificado (consulte Ambigüedades para obtener más detalles).
Conversión de matriz de rotación y eje-ángulo
Cada rotación en tres dimensiones se define por su eje (un vector a lo largo de este eje no cambia por la rotación) y su ángulo , la cantidad de rotación alrededor de ese eje ( teorema de rotación de Euler ).
Existen varios métodos para calcular el eje y el ángulo a partir de una matriz de rotación (consulte también la representación del eje y el ángulo ). Aquí, solo describimos el método basado en el cálculo de los autovectores y autovalores de la matriz de rotación. También es posible utilizar la traza de la matriz de rotación.
Determinando el eje
Dada una matriz de rotación R de 3 × 3 , un vector u paralelo al eje de rotación debe satisfacer
dado que la rotación de u alrededor del eje de rotación debe resultar en u . La ecuación anterior puede ser resuelto para u que es hasta único a un factor escalar a menos que R = I .
Además, la ecuación se puede reescribir
lo cual demuestra que u se encuentra en el espacio nulo de R - I .
Visto de otra manera, u es un vector propio de R correspondiente al valor propio λ = 1 . Cada matriz de rotación debe tener este valor propio, siendo los otros dos valores propios complejos conjugados entre sí. De ello se deduce que una matriz de rotación general en tres dimensiones tiene, hasta una constante multiplicativa, solo un vector propio real.
Una forma de determinar el eje de rotación es mostrando que:
Dado que ( R - R T ) es una matriz simétrica sesgada , podemos elegir u tal que
El producto matriz-vector se convierte en un producto cruzado de un vector consigo mismo, lo que garantiza que el resultado sea cero:
Por tanto, si
luego
La magnitud de u calculada de esta manera es || u || = 2 sen θ , donde θ es el ángulo de rotación.
Esto no funciona si R es simétrico. Arriba, si R - R T es cero, todos los pasos posteriores no son válidos. En este caso, es necesario diagonalizar R y encontrar el vector propio correspondiente a un valor propio de 1.
Determinando el ángulo
Para encontrar el ángulo de una rotación, una vez que se conoce el eje de la rotación, seleccione un vector v perpendicular al eje. Entonces, el ángulo de rotación es el ángulo entre v y R v .
Sin embargo, un método más directo es simplemente calcular la traza : la suma de los elementos diagonales de la matriz de rotación. Se debe tener cuidado de seleccionar el signo correcto para que el ángulo θ coincida con el eje elegido:
de lo que se sigue que el valor absoluto del ángulo es
Matriz de rotación desde el eje y el ángulo
La matriz de una rotación adecuada R por ángulo θ alrededor del eje u = ( u x , u y , u z ) , un vector unitario con u2
x+ u2
y+ u2
z= 1 , viene dado por: [3]
En la sección 9.2 se puede encontrar una derivación de esta matriz a partir de los primeros principios. [4] La idea básica para derivar esta matriz es dividir el problema en unos pocos pasos sencillos conocidos.
- Primero rote el eje dado y el punto de manera que el eje se encuentre en uno de los planos de coordenadas ( xy , yz o zx )
- Luego gire el eje dado y el punto tal que el eje está alineado con uno de los dos ejes de coordenadas para que plano de coordenadas en particular ( x , y o z )
- Utilice una de las matrices de rotación fundamentales para rotar el punto en función del eje de coordenadas con el que está alineado el eje de rotación.
- Gire hacia atrás el par eje-punto de modo que alcance la configuración final como en el paso 2 (Deshacer el paso 2)
- Gire hacia atrás el par eje-punto que se hizo en el paso 1 (deshaciendo el paso 1)
Esto se puede escribir de forma más concisa como
donde [ u ] × es la matriz de productos cruzados de u ; la expresión u ⊗ u es el producto externo e I es la matriz identidad . Alternativamente, las entradas de la matriz son:
donde ε jkl es el símbolo de Levi-Civita con ε 123 = 1 . Esta es una forma matricial de la fórmula de rotación de Rodrigues (o la fórmula de Euler-Rodrigues equivalente, parametrizada de manera diferente ) con [nb 2]
En ℝ 3, la rotación de un vector x alrededor del eje u en un ángulo θ se puede escribir como:
Si el espacio 3D es a la derecha y θ > 0 , esta rotación será en sentido antihorario cuando u apunte hacia el observador ( regla de la mano derecha ). Explicidad, con una base ortonormal diestra,
Tenga en cuenta las sorprendentes diferencias meramente aparentes con la formulación algebraica de Lie equivalente a continuación .
Propiedades
Para cualquier matriz de rotación n- dimensional R que actúe sobre ℝ n ,
- (La rotación es una matriz ortogonal )
Resulta que:
Una rotación se denomina apropiada si det R = 1 , e impropia (o una rota-reflexión) si det R = –1 . Para dimensiones pares n = 2 k , los n valores propios λ de una rotación adecuada ocurren como pares de conjugados complejos que son raíces de unidad: λ = e ± iθ j para j = 1,…, k , que es real solo para λ = ± 1 . Por lo tanto, puede que no haya vectores fijados por la rotación ( λ = 1 ) y, por lo tanto, ningún eje de rotación. Cualquier autovector fijo ocurre en pares, y el eje de rotación es un subespacio de dimensión uniforme.
Para dimensiones impares n = 2 k + 1 , una rotación adecuada R tendrá un número impar de valores propios, con al menos un λ = 1 y el eje de rotación será un subespacio dimensional impar. Prueba:
Aquí I es la matriz de identidad, y usamos det ( R T ) = det ( R ) = 1 , así como (−1) n = −1 ya que n es impar. Por lo tanto, det ( R - I ) = 0 , lo que significa que hay un vector nulo v con ( R - I ) v = 0 , que es R v = v , un vector propio fijo. También puede haber pares de autovectores fijos en el subespacio de dimensión par ortogonal av , por lo que la dimensión total de autovectores fijos es impar.
Por ejemplo, en 2 espacios n = 2 , una rotación por ángulo θ tiene valores propios λ = e iθ y λ = e - iθ , por lo que no hay eje de rotación excepto cuando θ = 0 , el caso de la rotación nula. En el espacio tridimensional n = 3 , el eje de una rotación propia no nula es siempre una línea única, y una rotación alrededor de este eje por el ángulo θ tiene valores propios λ = 1, e iθ , e - iθ . En 4 espacios n = 4 , los cuatro valores propios son de la forma e ± iθ , e ± iφ . La rotación nula tiene θ = φ = 0 . El caso de θ = 0, φ ≠ 0 se denomina rotación simple , con dos valores propios unitarios que forman un plano del eje y una rotación bidimensional ortogonal al plano del eje. De lo contrario, no hay plano de eje. El caso de θ = φ se llama rotación isoclínica , y tiene valores propios e ± iθ repetidos dos veces, por lo que cada vector se rota en un ángulo θ .
La traza de una matriz de rotación es igual a la suma de sus valores propios. Para n = 2 , una rotación por ángulo θ tiene la traza 2 cos θ . Para n = 3 , una rotación alrededor de cualquier eje por ángulo θ tiene la traza 1 + 2 cos θ . Para n = 4 , y la traza es 2 (cos θ + cos φ ) , que se convierte en 4 cos θ para una rotación isoclínica.
Ejemplos de
|
|
Geometría
En geometría euclidiana , una rotación es un ejemplo de isometría , una transformación que mueve puntos sin cambiar las distancias entre ellos. Las rotaciones se distinguen de otras isometrías por dos propiedades adicionales: dejan (al menos) un punto fijo y no modifican la " lateralidad ". Por el contrario, una traslación mueve todos los puntos, una reflexión intercambia el orden de izquierda y derecha, una reflexión de deslizamiento hace ambas cosas, y una rotación incorrecta combina un cambio en la mano con una rotación normal.
Si se toma un punto fijo como el origen de un sistema de coordenadas cartesiano , entonces cada punto puede recibir coordenadas como un desplazamiento desde el origen. Por tanto, se puede trabajar con el espacio vectorial de los desplazamientos en lugar de con los puntos mismos. Supongamos ahora ( p 1 , ..., p n ) son las coordenadas del vector p desde el origen O a punto P . Elija una base ortonormal para nuestras coordenadas; entonces la distancia al cuadrado de P , por Pitágoras , es
que se puede calcular usando la multiplicación de matrices
Una rotación geométrica transforma líneas en líneas y conserva las proporciones de distancias entre puntos. A partir de estas propiedades se puede demostrar que una rotación es una transformación lineal de los vectores y, por tanto, se puede escribir en forma de matriz , Q p . El hecho de que una rotación conserve, no solo las proporciones, sino también las distancias, se expresa como
o
Dado que esta ecuación es válida para todos los vectores, p , se concluye que toda matriz de rotación, Q , satisface la condición de ortogonalidad ,
Las rotaciones conservan la lateralidad porque no pueden cambiar el orden de los ejes, lo que implica la condición de matriz especial ,
De igual importancia, se puede demostrar que cualquier matriz que satisfaga estas dos condiciones actúa como una rotación.
Multiplicación
La inversa de una matriz de rotación es su transpuesta, que también es una matriz de rotación:
El producto de dos matrices de rotación es una matriz de rotación:
Para n > 2 , la multiplicación de n × n matrices de rotación generalmente no es conmutativa .
Teniendo en cuenta que cualquier matriz identidad es una matriz de rotación, y que la multiplicación de matrices es asociativa , podemos resumir todas estas propiedades diciendo que las matrices de rotación n × n forman un grupo , que para n > 2 no es abeliano , llamado ortogonal especial. grupo , y denotado por SO ( n ) , SO ( n , R ) , SO n o SO n ( R ) , el grupo de matrices de rotación n × n es isomorfo al grupo de rotaciones en un espacio n - dimensional. Esto significa que la multiplicación de matrices de rotación corresponde a la composición de rotaciones, aplicadas en orden de izquierda a derecha de sus matrices correspondientes.
Ambigüedades
La interpretación de una matriz de rotación puede estar sujeta a muchas ambigüedades.
En la mayoría de los casos, el efecto de la ambigüedad es equivalente al efecto de una inversión de matriz de rotación (para estas matrices ortogonales equivale a una transposición de matriz ).
- Transformación de alias o coartada (pasiva o activa)
- Las coordenadas de un punto P pueden cambiar debido a una rotación del sistema de coordenadas CS ( alias ) o una rotación del punto P ( coartada ). En el último caso, la rotación de P también produce una rotación del vector v que representa P . En otras palabras, ya sea P y v son fijos mientras que CS gira (alias), o CS se fija mientras que P y v rotate (coartada). Cualquier rotación dada puede describirse legítimamente en ambos sentidos, ya que los vectores y los sistemas de coordenadas realmente giran entre sí, alrededor del mismo eje pero en direcciones opuestas. A lo largo de este artículo, elegimos el enfoque de la coartada para describir las rotaciones. Por ejemplo,
- representa una rotación en sentido antihorario de un vector v en un ángulo θ , o una rotación de CS en el mismo ángulo pero en la dirección opuesta (es decir, en el sentido de las agujas del reloj). Las transformaciones de coartada y alias también se conocen como transformaciones activas y pasivas , respectivamente.
- Pre-multiplicación o post-multiplicación
- El mismo punto P se puede representar mediante un vector de columna v o un vector de fila w . Las matrices de rotación pueden pre-multiplicar vectores de columna ( R v ) o post-multiplicar vectores de fila ( w R ). Sin embargo, R v produce una rotación en la dirección opuesta con respecto a w R . A lo largo de este artículo, las rotaciones producidas en los vectores columna se describen mediante una pre-multiplicación. Para obtener exactamente la misma rotación (es decir, las mismas coordenadas finales del punto P ), el vector de fila equivalente debe multiplicarse posteriormente por la transposición de R (es decir, w R T ).
- Coordenadas para diestros o zurdos
- La matriz y el vector se pueden representar con respecto a un sistema de coordenadas para diestros o zurdos. A lo largo del artículo, asumimos una orientación hacia la derecha, a menos que se especifique lo contrario.
- Vectores o formas
- El espacio vectorial tiene un espacio dual de formas lineales y la matriz puede actuar sobre vectores o formas.
Descomposiciones
Aviones independientes
Considere la matriz de rotación 3 × 3
Si Q actúa en una cierta dirección, v , puramente como una escala por un factor λ , entonces tenemos
así que eso
Por tanto, λ es una raíz del polinomio característico de Q ,
Dos características son dignas de mención. Primero, una de las raíces (o valores propios ) es 1, lo que nos dice que alguna dirección no se ve afectada por la matriz. Para rotaciones en tres dimensiones, este es el eje de la rotación (un concepto que no tiene sentido en ninguna otra dimensión). En segundo lugar, las otras dos raíces son un par de conjugados complejos, cuyo producto es 1 (el término constante de la cuadrática), y cuya suma es 2 cos θ (el término lineal negado). Esta factorización es de interés para matrices de rotación 3 × 3 porque ocurre lo mismo con todas ellas. (Como casos especiales, para una rotación nula, los "conjugados complejos" son ambos 1, y para una rotación de 180 ° ambos son -1.) Además, una factorización similar es válida para cualquier matriz de rotación n × n . Si la dimensión, n , es impar, habrá un valor propio "colgante" de 1; y para cualquier dimensión el resto de los factores polinomiales en términos cuadráticos como el de aquí (con los dos casos especiales señalados). Se nos garantiza que el polinomio característico tendrá grados n y, por lo tanto, n valores propios. Y dado que una matriz de rotación conmuta con su transposición, es una matriz normal , por lo que se puede diagonalizar. Concluimos que cada matriz de rotación, cuando se expresa en un sistema de coordenadas adecuado, se divide en rotaciones independientes de subespacios bidimensionales, como máximonorte/2 de ellos.
La suma de las entradas en la diagonal principal de una matriz se llama traza ; no cambia si reorientamos el sistema de coordenadas y siempre es igual a la suma de los valores propios. Esto tiene la conveniente implicación para matrices de rotación 2 × 2 y 3 × 3 de que la traza revela el ángulo de rotación , θ , en el espacio bidimensional (o subespacio). Para una matriz de 2 × 2 , la traza es 2 cos θ , y para una matriz de 3 × 3 es 1 + 2 cos θ . En el caso tridimensional, el subespacio consta de todos los vectores perpendiculares al eje de rotación (la dirección invariante, con valor propio 1). Así podemos extraer de cualquier matriz de rotación de 3 × 3 un eje de rotación y un ángulo, y estos determinan completamente la rotación.
Ángulos secuenciales
Las restricciones en una matriz de rotación 2 × 2 implican que debe tener la forma
con a 2 + b 2 = 1 . Por lo tanto, podemos establecer a = cos θ y b = sin θ , para algún ángulo θ . Para resolver para θ no es suficiente para mirar a un solo o B solas; debemos considerar ambos juntos para colocar el ángulo en el cuadrante correcto , usando una función arcotangente de dos argumentos .
Ahora considere la primera columna de una matriz de rotación de 3 × 3 ,
Aunque a 2 + b 2 probablemente no será igual a 1, pero algún valor r 2 <1 , podemos usar una ligera variación del cálculo anterior para encontrar una llamada rotación Givens que transforme la columna en
puesta a cero b . Este actúa sobre el subespacio generado por el x - y Y -axes. Entonces podemos repetir el proceso para el subespacio xz a cero c . Actuando sobre la matriz completa, estas dos rotaciones producen la forma esquemática
Cambiando la atención a la segunda columna, una rotación Givens del subespacio yz ahora puede poner a cero el valor z . Esto trae la matriz completa a la forma
que es una matriz de identidad. Así hemos descompuesto Q como
Una matriz de rotación n × n tendrá ( n - 1) + ( n - 2) + ⋯ + 2 + 1 , o
entradas por debajo de la diagonal a cero. Podemos ponerlos a cero extendiendo la misma idea de atravesar las columnas con una serie de rotaciones en una secuencia fija de planos. Concluimos que el conjunto de n × n matrices de rotación, cada una de las cuales tiene n 2 entradas, puede parametrizarse medianten ( n −1)/2 anglos.
xzx w | xzy w | xyx w | xyz w |
yxy w | yxz w | yzy w | yzx w |
zyz w | zyx w | zxz w | zxy w |
xzx b | yzx b | xyx b | zyx b |
yxy b | zxy b | yzy b | xzy b |
zyz b | xyz b | zxz b | yxz b |
En tres dimensiones, esto reafirma en forma de matriz una observación hecha por Euler , por lo que los matemáticos llaman a la secuencia ordenada de tres ángulos ángulos de Euler . Sin embargo, la situación es algo más complicada de lo que hemos indicado hasta ahora. A pesar de la pequeña dimensión, en realidad tenemos una libertad considerable en la secuencia de pares de ejes que usamos; y también tenemos cierta libertad en la elección de ángulos. Así, encontramos muchas convenciones diferentes empleadas cuando se parametrizan rotaciones tridimensionales para la física, la medicina, la química u otras disciplinas. Cuando incluimos la opción de ejes del mundo o ejes del cuerpo, son posibles 24 secuencias diferentes. Y mientras que algunas disciplinas llaman ángulos de Euler a cualquier secuencia, otras dan diferentes nombres (Cardano, Tait-Bryan, roll-pitch-yaw ) a diferentes secuencias.
Una de las razones de la gran cantidad de opciones es que, como se señaló anteriormente, las rotaciones en tres dimensiones (y superiores) no se conmutan. Si invertimos una secuencia dada de rotaciones, obtenemos un resultado diferente. Esto también implica que no podemos componer dos rotaciones sumando sus ángulos correspondientes. Por tanto, los ángulos de Euler no son vectores , a pesar de su similitud en apariencia como un triplete de números.
Dimensiones anidadas
Una matriz de rotación de 3 × 3 como
sugiere una matriz de rotación 2 × 2 ,
está incrustado en la esquina superior izquierda:
Esto no es una ilusión; no sólo una, sino muchas copias de rotaciones n- dimensionales se encuentran dentro de rotaciones ( n + 1) -dimensionales, como subgrupos . Cada incrustación deja una dirección fija, que en el caso de matrices de 3 × 3 es el eje de rotación. Por ejemplo, tenemos
la fijación de la x eje x, el y eje x, y la z eje x, respectivamente. No es necesario que el eje de rotación sea un eje de coordenadas; si u = ( x , y , z ) es un vector unitario en la dirección deseada, entonces
donde c θ = cos θ , s θ = sin θ , es una rotación por ángulo θ dejando el eje u fijo.
Una dirección en el espacio ( n + 1) -dimensional será un vector de magnitud unitaria, que podemos considerar un punto en una esfera generalizada, S n . Por tanto, es natural describir el grupo de rotación SO ( n + 1) como una combinación de SO ( n ) y S n . Un formalismo adecuado es el haz de fibras ,
donde para cada dirección en el espacio base, S n , la fibra sobre él en el espacio total, SO ( n + 1) , es una copia del espacio de la fibra, SO ( n ) , es decir, las rotaciones que mantienen fija esa dirección.
Por lo tanto, podemos construir una matriz de rotación n × n comenzando con una matriz de 2 × 2 , apuntando su eje fijo a S 2 (la esfera ordinaria en el espacio tridimensional), apuntando la rotación resultante a S 3 , y así sucesivamente hasta S n −1 . Un punto en S n se puede seleccionar usando n números, por lo que nuevamente tenemosn ( n - 1)/2números para describir cualquier matriz de rotación n × n .
De hecho, podemos ver la descomposición secuencial de ángulos, discutida anteriormente, como una inversión de este proceso. La composición de n - 1 rotaciones de Givens lleva la primera columna (y fila) a (1,0,…, 0) , de modo que el resto de la matriz es una matriz de rotación de dimensión uno menos, incrustada para dejar (1 , 0,…, 0) fijo.
Parámetros sesgados a través de la fórmula de Cayley
Cuando una matriz de rotación n × n Q , no incluye un valor propio -1, por lo que ninguna de las rotaciones planas que comprende son rotaciones de 180 °, entonces Q + I es una matriz invertible . La mayoría de las matrices de rotación se ajustan a esta descripción, y para ellos se puede demostrar que ( Q - I ) ( Q + I ) -1 es una matriz antisimétrica , A . Por tanto, A T = - A ; y dado que la diagonal es necesariamente cero, y dado que el triángulo superior determina al inferior, A contiene1/2n ( n - 1) números independientes.
Convenientemente, I - A es invertible siempre que A sea asimétrico; así podemos recuperar la matriz original usando la transformada de Cayley ,
que mapea cualquier matriz A asimétrica a una matriz de rotación. De hecho, aparte de las excepciones señaladas, podemos producir cualquier matriz de rotación de esta manera. Aunque en aplicaciones prácticas difícilmente podemos permitirnos ignorar las rotaciones de 180 °, la transformada de Cayley sigue siendo una herramienta potencialmente útil, ya que proporciona una parametrización de la mayoría de las matrices de rotación sin funciones trigonométricas.
En tres dimensiones, por ejemplo, tenemos ( Cayley 1846 )
Si condensamos las entradas de sesgo en un vector, ( x , y , z ) , entonces producimos una rotación de 90 ° alrededor del eje x para (1, 0, 0), alrededor del eje y para (0, 1, 0) y alrededor del eje z para (0, 0, 1). Las rotaciones de 180 ° están fuera de su alcance; porque, en el límite cuando x → ∞ , ( x , 0, 0) se acerca a una rotación de 180 ° alrededor del eje x , y de manera similar para otras direcciones.
Descomposición en tijeras
Para el caso 2D, una matriz de rotación se puede descomponer en tres matrices de corte ( Paeth 1986 ):
Esto es útil, por ejemplo, en gráficos por computadora, ya que las cizallas se pueden implementar con menos instrucciones de multiplicación que al rotar un mapa de bits directamente. En las computadoras modernas, esto puede no importar, pero puede ser relevante para microprocesadores muy antiguos o de gama baja.
Una rotación también se puede escribir como dos tijeras y una escala ( Daubechies & Sweldens 1998 ):
Teoría de grupos
A continuación se presentan algunos datos básicos sobre el papel de la colección de todas las matrices de rotación de una dimensión fija (en este caso, principalmente 3) en matemáticas y particularmente en física, donde la simetría rotacional es un requisito de toda ley verdaderamente fundamental (debido al supuesto de isotropía del espacio ), y donde la misma simetría, cuando está presente, es una propiedad simplificadora de muchos problemas de naturaleza menos fundamental. Abundan los ejemplos en mecánica clásica y mecánica cuántica . El conocimiento de la parte de las soluciones pertenecientes a esta simetría se aplica (con salvedades) a todos estos problemas y se puede factorizar a partir de un problema específico en cuestión, reduciendo así su complejidad. Un buen ejemplo, en matemáticas y física, sería la teoría de los armónicos esféricos . Su papel en la teoría de grupos de los grupos de rotación es el de ser un espacio de representación para el conjunto completo de representaciones irreductibles de dimensión finita del grupo de rotación SO (3). Para este tema, consulte Grupo de rotación SO (3) § Armónicos esféricos .
Se hace referencia a los principales artículos enumerados en cada subsección para obtener más detalles.
Grupo de mentiras
Las matrices de rotación n × n para cada n forman un grupo , el grupo ortogonal especial , SO ( n ) . Esta estructura algebraica se acopla a una estructura topológica heredada de GL n (ℝ) de tal manera que las operaciones de multiplicación y toma de la inversa son funciones analíticas de las entradas de la matriz. Por tanto, SO ( n ) es para cada n un grupo de Lie. Es compacto y está conectado , pero no simplemente conectado . También es un grupo semi-simple , de hecho un grupo simple con la excepción SO (4). [5] La relevancia de esto es que se aplican todos los teoremas y toda la maquinaria de la teoría de las variedades analíticas (las variedades analíticas son en particular las variedades suaves ) y la teoría de representación bien desarrollada de grupos compactos semi-simples está lista para su uso.
Álgebra de mentiras
El álgebra de Lie entonces ( n ) de SO ( n ) viene dada por
y es el espacio de matrices asimétricas de dimensión n , ver grupo clásico , donde o ( n ) es el álgebra de Lie de O ( n ) , el grupo ortogonal . Como referencia, la base más común para so (3) es
Mapa exponencial
Conectando el álgebra de Lie al grupo de Lie es el mapa exponencial , que se define usando la serie exponencial de la matriz estándar para e A [6] Para cualquier matriz A de simetría sesgada , exp ( A ) es siempre una matriz de rotación. [nb 3]
Un ejemplo práctico importante es el caso de 3 × 3 . En el grupo de rotación SO (3) , se muestra que uno puede identificar cada A ∈ entonces (3) con un vector de Euler ω = θ u , donde u = ( x , y , z ) es un vector de magnitud unitaria.
Por las propiedades de la identificación Do (2) ≅ ℝ 3 , u es en el espacio nulo de A . Por tanto, exp ( A ) deja invariante u y , por tanto, es un eje de rotación.
De acuerdo con la fórmula de rotación de Rodrigues en forma de matriz , se obtiene,
dónde
Esta es la matriz para una rotación alrededor del eje u en el ángulo θ . Para obtener detalles completos, consulte el mapa exponencial SO (3) .
Fórmula de Baker – Campbell – Hausdorff
La fórmula BCH proporciona una expresión explícita para Z = log ( e X e Y ) en términos de una expansión de la serie de conmutadores anidados de X y Y . [7] Esta expansión general se desarrolla como [nb 4]
En el caso de 3 × 3 , la expansión infinita general tiene una forma compacta, [8]
para los coeficientes de función trigonométrica adecuados, detallados en la fórmula de Baker-Campbell-Hausdorff para SO (3) .
Como identidad de grupo, lo anterior se aplica a todas las representaciones fieles , incluido el doblete (representación de espinor), que es más simple. La misma fórmula explícita se sigue así directamente a través de matrices de Pauli; vea la derivación 2 × 2 para SU (2) . Para el caso general n × n , se podría usar la Ref. [9]
Grupo de giro
El grupo de Lie de n × n matrices de rotación, SO ( n ) , no está simplemente conectado , por lo que la teoría de Lie nos dice que es una imagen homomórfica de un grupo de cobertura universal . A menudo, el grupo de cobertura, que en este caso se denomina grupo de espín denotado por Spin ( n ) , es más simple y más natural para trabajar. [10]
En el caso de rotaciones planas, SO (2) es topológicamente un círculo , S 1 . Su grupo de cobertura universal, Spin (2), es isomorfo a la línea real , R , bajo la adición. Siempre que se utilizan ángulos de magnitud arbitraria, se está aprovechando la comodidad de la cubierta universal. Cada matriz de rotación 2 × 2 es producida por una infinidad de ángulos contables, separados por múltiplos enteros de 2 π . Correspondientemente, el grupo fundamental de SO (2) es isomorfo a los números enteros, Z .
En el caso de las rotaciones espaciales, SO (3) es topológicamente equivalente al espacio proyectivo real tridimensional , RP 3 . Su grupo de cobertura universal, Spin (3), es isomorfo a la 3-esfera , S 3 . Cada matriz de rotación de 3 × 3 es producida por dos puntos opuestos en la esfera. En consecuencia, el grupo fundamental de SO (3) es isomorfo al grupo de dos elementos, Z 2 .
También podemos describir Spin (3) como isomorfo a los cuaterniones de norma unitaria bajo multiplicación, o a ciertas matrices reales de 4 × 4 , o a matrices unitarias especiales complejas de 2 × 2 , a saber, SU (2). Los mapas de cobertura para el primer y último caso están dados por
y
Para una descripción detallada del recubrimiento SU (2) y el recubrimiento cuaterniónico, consulte el grupo de espín SO (3) .
Muchas características de estos casos son las mismas para dimensiones superiores. Los revestimientos son todos de dos a uno, con SO ( n ) , n > 2 , que tiene el grupo fundamental Z 2 . El escenario natural de estos grupos está dentro de un álgebra de Clifford . Un tipo de acción de las rotaciones se produce mediante una especie de "sándwich", denotado por qvq ∗ . Más importante aún en aplicaciones a la física, la representación de espín correspondiente del álgebra de Lie se encuentra dentro del álgebra de Clifford. Puede exponenciarse de la forma habitual para dar lugar a una representación de 2 valores , también conocida como representación proyectiva del grupo de rotación. Este es el caso de SO (3) y SU (2), donde la representación de 2 valores puede verse como una "inversa" del mapa de cobertura. Por las propiedades de los mapas de cobertura, se puede elegir el inverso uno a uno como una sección local, pero no globalmente.
Rotaciones infinitesimales
Las matrices del álgebra de Lie no son en sí mismas rotaciones; las matrices asimétricas son derivadas, diferencias proporcionales de rotaciones. Una "rotación diferencial" real o matriz de rotación infinitesimal tiene la forma
donde dθ es muy pequeño y A ∈ entonces (n) , por ejemplo con A = L x ,
Las reglas de cálculo son las habituales, excepto que los infinitesimales de segundo orden se eliminan de forma rutinaria. Con estas reglas, estas matrices no satisfacen todas las mismas propiedades que las matrices de rotación finita ordinarias bajo el tratamiento habitual de infinitesimales. [11] Resulta que el orden en el que se aplican las rotaciones infinitesimales es irrelevante . Para ver esto ejemplificado, consulte las rotaciones infinitesimales SO (3) .
Conversiones
Hemos visto la existencia de varias descomposiciones que se aplican en cualquier dimensión, a saber, planos independientes, ángulos secuenciales y dimensiones anidadas. En todos estos casos podemos descomponer una matriz o construir una. También hemos prestado especial atención a las matrices de rotación 3 × 3 , y estas merecen mayor atención, en ambas direcciones ( Stuelpnagel 1964 ).
Cuaternio
Dado el cuaternión unitario q = w + x i + y j + z k , la matriz de rotación equivalente para zurdos (Post-Multiplicado) 3 × 3 es
Ahora, cada componente de cuaternión aparece multiplicado por dos en un término de grado dos, y si todos esos términos son cero, lo que queda es una matriz de identidad. Esto conduce a una conversión robusta y eficiente de cualquier cuaternión, ya sea unitario o no unitario, a una matriz de rotación de 3 × 3 . Dado:
podemos calcular
Liberados de la demanda de un cuaternión unitario, encontramos que los cuaterniones distintos de cero actúan como coordenadas homogéneas para matrices de rotación de 3 × 3 . La transformada de Cayley, discutida anteriormente, se obtiene escalando el cuaternión de modo que su componente w sea 1. Para una rotación de 180 ° alrededor de cualquier eje, w será cero, lo que explica la limitación de Cayley.
La suma de las entradas a lo largo de la diagonal principal (la traza ), más uno, es igual a 4 - 4 ( x 2 + y 2 + z 2 ) , que es 4 w 2 . Por tanto, podemos escribir la traza en sí como 2 w 2 + 2 w 2 - 1 ; y de la versión anterior de la matriz vemos que las mismas entradas diagonales tienen la misma forma: 2 x 2 + 2 w 2 - 1 , 2 y 2 + 2 w 2 - 1 , y 2 z 2 + 2 w 2 - 1 . Entonces podemos comparar fácilmente las magnitudes de los cuatro componentes del cuaternión usando la diagonal de la matriz. De hecho, podemos obtener las cuatro magnitudes usando sumas y raíces cuadradas, y elegir signos consistentes usando la parte simétrica sesgada de las entradas fuera de la diagonal:
where copysign(p, q) is defined as p with the sign of q, that is
Alternatively, use a single square root and division
This is numerically stable so long as the trace, t, is not negative; otherwise, we risk dividing by (nearly) zero. In that case, suppose Qxx is the largest diagonal entry, so x will have the largest magnitude (the other cases are derived by cyclic permutation); then the following is safe.
If the matrix contains significant error, such as accumulated numerical error, we may construct a symmetric 4 × 4 matrix,
and find the eigenvector, (x,y,z,w), of its largest magnitude eigenvalue. (If Q is truly a rotation matrix, that value will be 1.) The quaternion so obtained will correspond to the rotation matrix closest to the given matrix (Bar-Itzhack 2000).
Polar decomposition
If the n × n matrix M is nonsingular, its columns are linearly independent vectors; thus the Gram–Schmidt process can adjust them to be an orthonormal basis. Stated in terms of numerical linear algebra, we convert M to an orthogonal matrix, Q, using QR decomposition. However, we often prefer a Q closest to M, which this method does not accomplish. For that, the tool we want is the polar decomposition (Fan & Hoffman 1955; Higham 1989).
To measure closeness, we may use any matrix norm invariant under orthogonal transformations. A convenient choice is the Frobenius norm, ||Q − M||F, squared, which is the sum of the squares of the element differences. Writing this in terms of the trace, Tr, our goal is,
- Find Q minimizing Tr( (Q − M)T(Q − M) ), subject to QTQ = I.
Though written in matrix terms, the objective function is just a quadratic polynomial. We can minimize it in the usual way, by finding where its derivative is zero. For a 3 × 3 matrix, the orthogonality constraint implies six scalar equalities that the entries of Q must satisfy. To incorporate the constraint(s), we may employ a standard technique, Lagrange multipliers, assembled as a symmetric matrix, Y. Thus our method is:
- Differentiate Tr( (Q − M)T(Q − M) + (QTQ − I)Y ) with respect to (the entries of) Q, and equate to zero.
Consider a 2 × 2 example. Including constraints, we seek to minimize
Taking the derivative with respect to Qxx, Qxy, Qyx, Qyy in turn, we assemble a matrix.
In general, we obtain the equation
so that
where Q is orthogonal and S is symmetric. To ensure a minimum, the Y matrix (and hence S) must be positive definite. Linear algebra calls QS the polar decomposition of M, with S the positive square root of S2 = MTM.
When M is non-singular, the Q and S factors of the polar decomposition are uniquely determined. However, the determinant of S is positive because S is positive definite, so Q inherits the sign of the determinant of M. That is, Q is only guaranteed to be orthogonal, not a rotation matrix. This is unavoidable; an M with negative determinant has no uniquely defined closest rotation matrix.
Axis and angle
To efficiently construct a rotation matrix Q from an angle θ and a unit axis u, we can take advantage of symmetry and skew-symmetry within the entries. If x, y, and z are the components of the unit vector representing the axis, and
then
Determining an axis and angle, like determining a quaternion, is only possible up to the sign; that is, (u, θ) and (−u, −θ) correspond to the same rotation matrix, just like q and −q. Additionally, axis–angle extraction presents additional difficulties. The angle can be restricted to be from 0° to 180°, but angles are formally ambiguous by multiples of 360°. When the angle is zero, the axis is undefined. When the angle is 180°, the matrix becomes symmetric, which has implications in extracting the axis. Near multiples of 180°, care is needed to avoid numerical problems: in extracting the angle, a two-argument arctangent with atan2(sin θ, cos θ) equal to θ avoids the insensitivity of arccos; and in computing the axis magnitude in order to force unit magnitude, a brute-force approach can lose accuracy through underflow (Moler & Morrison 1983).
A partial approach is as follows:
The x-, y-, and z-components of the axis would then be divided by r. A fully robust approach will use a different algorithm when t, the trace of the matrix Q, is negative, as with quaternion extraction. When r is zero because the angle is zero, an axis must be provided from some source other than the matrix.
Euler angles
Complexity of conversion escalates with Euler angles (used here in the broad sense). The first difficulty is to establish which of the twenty-four variations of Cartesian axis order we will use. Suppose the three angles are θ1, θ2, θ3; physics and chemistry may interpret these as
while aircraft dynamics may use
One systematic approach begins with choosing the rightmost axis. Among all permutations of (x,y,z), only two place that axis first; one is an even permutation and the other odd. Choosing parity thus establishes the middle axis. That leaves two choices for the left-most axis, either duplicating the first or not. These three choices gives us 3 × 2 × 2 = 12 variations; we double that to 24 by choosing static or rotating axes.
This is enough to construct a matrix from angles, but triples differing in many ways can give the same rotation matrix. For example, suppose we use the zyz convention above; then we have the following equivalent pairs:
(90°, 45°, −105°) ≡ (−270°, −315°, 255°) multiples of 360° (72°, 0°, 0°) ≡ (40°, 0°, 32°) singular alignment (45°, 60°, −30°) ≡ (−135°, −60°, 150°) bistable flip
Angles for any order can be found using a concise common routine (Herter & Lott 1993; Shoemake 1994).
The problem of singular alignment, the mathematical analog of physical gimbal lock, occurs when the middle rotation aligns the axes of the first and last rotations. It afflicts every axis order at either even or odd multiples of 90°. These singularities are not characteristic of the rotation matrix as such, and only occur with the usage of Euler angles.
The singularities are avoided when considering and manipulating the rotation matrix as orthonormal row vectors (in 3D applications often named the right-vector, up-vector and out-vector) instead of as angles. The singularities are also avoided when working with quaternions.
Vector to vector formulation
In some instances it is interesting to describe a rotation by specifying how a vector is mapped into another through the shortest path (smallest angle). In ℝ3 this completely describes the associated rotation matrix. In general, given x, y ∈ 𝕊n, the matrix
belongs to SO(n + 1) and maps x to y.[12]
Matrices uniformes de rotación aleatoria
We sometimes need to generate a uniformly distributed random rotation matrix. It seems intuitively clear in two dimensions that this means the rotation angle is uniformly distributed between 0 and 2π. That intuition is correct, but does not carry over to higher dimensions. For example, if we decompose 3 × 3 rotation matrices in axis–angle form, the angle should not be uniformly distributed; the probability that (the magnitude of) the angle is at most θ should be 1/π(θ − sin θ), for 0 ≤ θ ≤ π.
Since SO(n) is a connected and locally compact Lie group, we have a simple standard criterion for uniformity, namely that the distribution be unchanged when composed with any arbitrary rotation (a Lie group "translation"). This definition corresponds to what is called Haar measure. León, Massé & Rivest (2006) show how to use the Cayley transform to generate and test matrices according to this criterion.
We can also generate a uniform distribution in any dimension using the subgroup algorithm of Diaconis & Shashahani (1987)SO(n), as follows. Generate a uniform angle and construct a 2 × 2 rotation matrix. To step from n to n + 1, generate a vector v uniformly distributed on the n-sphere Sn, embed the n × n matrix in the next larger size with last column (0,…,0,1), and rotate the larger matrix so the last column becomes v.
. This recursively exploits the nested dimensions group structure ofAs usual, we have special alternatives for the 3 × 3 case. Each of these methods begins with three independent random scalars uniformly distributed on the unit interval. Arvo (1992) takes advantage of the odd dimension to change a Householder reflection to a rotation by negation, and uses that to aim the axis of a uniform planar rotation.
Another method uses unit quaternions. Multiplication of rotation matrices is homomorphic to multiplication of quaternions, and multiplication by a unit quaternion rotates the unit sphere. Since the homomorphism is a local isometry, we immediately conclude that to produce a uniform distribution on SO(3) we may use a uniform distribution on S3. In practice: create a four-element vector where each element is a sampling of a normal distribution. Normalize its length and you have a uniformly sampled random unit quaternion which represents a uniformly sampled random rotation. Note that the aforementioned only applies to rotations in dimension 3. For a generalised idea of quaternions, one should look into Rotors.
Euler angles can also be used, though not with each angle uniformly distributed (Murnaghan 1962; Miles 1965).
For the axis–angle form, the axis is uniformly distributed over the unit sphere of directions, S2, while the angle has the nonuniform distribution over [0,π] noted previously (Miles 1965).
Ver también
- Euler–Rodrigues formula
- Euler's rotation theorem
- Rodrigues' rotation formula
- Plane of rotation
- Axis–angle representation
- Rotation group SO(3)
- Rotation formalisms in three dimensions
- Rotation operator (vector space)
- Transformation matrix
- Yaw-pitch-roll system
- Kabsch algorithm
- Isometry
- Rigid transformation
- Rotations in 4-dimensional Euclidean space
- Trigonometric Identities
Observaciones
- ^ Note that if instead of rotating vectors, it is the reference frame that is being rotated, the signs on the sin θ terms will be reversed. If reference frame A is rotated anti-clockwise about the origin through an angle θ to create reference frame B, then Rx (with the signs flipped) will transform a vector described in reference frame A coordinates to reference frame B coordinates. Coordinate frame transformations in aerospace, robotics, and other fields are often performed using this interpretation of the rotation matrix.
- ^ Note that
- ^ Note that this exponential map of skew-symmetric matrices to rotation matrices is quite different from the Cayley transform discussed earlier, differing to the third order,
- ^ For a detailed derivation, see Derivative of the exponential map. Issues of convergence of this series to the right element of the Lie algebra are here swept under the carpet. Convergence is guaranteed when ||X|| + ||Y|| < log 2 and ||Z|| < log 2. If these conditions are not fulfilled, the series may still converge. A solution always exists since exp is onto[clarification needed] in the cases under consideration.
Notas
- ^ Swokowski, Earl (1979). Calculus with Analytic Geometry (Second ed.). Boston: Prindle, Weber, and Schmidt. ISBN 0-87150-268-2.
- ^ W3C recommendation (2003). "Scalable Vector Graphics – the initial coordinate system".
- ^ Taylor, Camillo J.; Kriegman, David J. (1994). "Minimization on the Lie Group SO(3) and Related Manifolds" (PDF). Technical Report No. 9405. Yale University.
- ^ https://dspace.lboro.ac.uk/dspace-jspui/handle/2134/18050
- ^ Baker (2003); Fulton & Harris (1991)
- ^ (Wedderburn 1934, §8.02)
- ^ Hall 2004, Ch. 3; Varadarajan 1984, §2.15
- ^ (Engø 2001)
- ^ Curtright, T L; Fairlie, D B; Zachos, C K (2014). "A compact formula for rotations as spin matrix polynomials". SIGMA. 10: 084. arXiv:1402.3541. Bibcode:2014SIGMA..10..084C. doi:10.3842/SIGMA.2014.084. S2CID 18776942.
- ^ Baker 2003, Ch. 5; Fulton & Harris 1991, pp. 299–315
- ^ (Goldstein, Poole & Safko 2002, §4.8)
- ^ Cid, Jose Ángel; Tojo, F. Adrián F. (2018). "A Lipschitz condition along a transversal foliation implies local uniqueness for ODEs". Electronic Journal of Qualitative Theory of Differential Equations. 13 (13): 1–14. arXiv:1801.01724. doi:10.14232/ejqtde.2018.1.13.
Referencias
- Arvo, James (1992), "Fast random rotation matrices", in David Kirk (ed.), Graphics Gems III, San Diego: Academic Press Professional, pp. 117–120, Bibcode:1992grge.book.....K, ISBN 978-0-12-409671-4
- Baker, Andrew (2003), Matrix Groups: An Introduction to Lie Group Theory, Springer, ISBN 978-1-85233-470-3
- Bar-Itzhack, Itzhack Y. (Nov–Dec 2000), "New method for extracting the quaternion from a rotation matrix", Journal of Guidance, Control and Dynamics, 23 (6): 1085–1087, Bibcode:2000JGCD...23.1085B, doi:10.2514/2.4654, ISSN 0731-5090
- Björck, Åke; Bowie, Clazett (June 1971), "An iterative algorithm for computing the best estimate of an orthogonal matrix", SIAM Journal on Numerical Analysis, 8 (2): 358–364, Bibcode:1971SJNA....8..358B, doi:10.1137/0708036, ISSN 0036-1429
- Cayley, Arthur (1846), "Sur quelques propriétés des déterminants gauches", Journal für die reine und angewandte Mathematik, 1846 (32): 119–123, doi:10.1515/crll.1846.32.119, ISSN 0075-4102, S2CID 199546746; reprinted as article 52 in Cayley, Arthur (1889), The collected mathematical papers of Arthur Cayley, I (1841–1853), Cambridge University Press, pp. 332–336
- Diaconis, Persi; Shahshahani, Mehrdad (1987), "The subgroup algorithm for generating uniform random variables", Probability in the Engineering and Informational Sciences, 1: 15–32, doi:10.1017/S0269964800000255, ISSN 0269-9648
- Engø, Kenth (June 2001), "On the BCH-formula in so(3)", BIT Numerical Mathematics, 41 (3): 629–632, doi:10.1023/A:1021979515229, ISSN 0006-3835, S2CID 126053191
- Fan, Ky; Hoffman, Alan J. (February 1955), "Some metric inequalities in the space of matrices", Proceedings of the American Mathematical Society, 6 (1): 111–116, doi:10.2307/2032662, ISSN 0002-9939, JSTOR 2032662
- Fulton, William; Harris, Joe (1991), Representation Theory: A First Course, Graduate Texts in Mathematics, 129, New York, Berlin, Heidelberg: Springer, ISBN 978-0-387-97495-8, MR 1153249
- Goldstein, Herbert; Poole, Charles P.; Safko, John L. (2002), Classical Mechanics (third ed.), Addison Wesley, ISBN 978-0-201-65702-9
- Hall, Brian C. (2004), Lie Groups, Lie Algebras, and Representations: An Elementary Introduction, Springer, ISBN 978-0-387-40122-5 (GTM 222)
- Herter, Thomas; Lott, Klaus (September–October 1993), "Algorithms for decomposing 3-D orthogonal matrices into primitive rotations", Computers & Graphics, 17 (5): 517–527, doi:10.1016/0097-8493(93)90003-R, ISSN 0097-8493
- Higham, Nicholas J. (October 1, 1989), "Matrix nearness problems and applications", in Gover, Michael J. C.; Barnett, Stephen (eds.), Applications of Matrix Theory, Oxford University Press, pp. 1–27, ISBN 978-0-19-853625-3
- León, Carlos A.; Massé, Jean-Claude; Rivest, Louis-Paul (February 2006), "A statistical model for random rotations", Journal of Multivariate Analysis, 97 (2): 412–430, doi:10.1016/j.jmva.2005.03.009, ISSN 0047-259X
- Miles, Roger E. (December 1965), "On random rotations in R3", Biometrika, 52 (3/4): 636–639, doi:10.2307/2333716, ISSN 0006-3444, JSTOR 2333716
- Moler, Cleve; Morrison, Donald (1983), "Replacing square roots by pythagorean sums", IBM Journal of Research and Development, 27 (6): 577–581, doi:10.1147/rd.276.0577, ISSN 0018-8646
- Murnaghan, Francis D. (1950), "The element of volume of the rotation group", Proceedings of the National Academy of Sciences, 36 (11): 670–672, Bibcode:1950PNAS...36..670M, doi:10.1073/pnas.36.11.670, ISSN 0027-8424, PMC 1063502, PMID 16589056
- Murnaghan, Francis D. (1962), The Unitary and Rotation Groups, Lectures on applied mathematics, Washington: Spartan Books
- Cayley, Arthur (1889), The collected mathematical papers of Arthur Cayley, I (1841–1853), Cambridge University Press, pp. 332–336
- Paeth, Alan W. (1986), "A Fast Algorithm for General Raster Rotation" (PDF), Proceedings, Graphics Interface '86: 77–81
- Daubechies, Ingrid; Sweldens, Wim (1998), "Factoring wavelet transforms into lifting steps" (PDF), Journal of Fourier Analysis and Applications, 4 (3): 247–269, doi:10.1007/BF02476026, S2CID 195242970
- Pique, Michael E. (1990), "Rotation Tools", in Andrew S. Glassner (ed.), Graphics Gems, San Diego: Academic Press Professional, pp. 465–469, ISBN 978-0-12-286166-6
- Press, William H.; Teukolsky, Saul A.; Vetterling, William T.; Flannery, Brian P. (2007), "Section 21.5.2. Picking a Random Rotation Matrix", Numerical Recipes: The Art of Scientific Computing (3rd ed.), New York: Cambridge University Press, ISBN 978-0-521-88068-8
- Shepperd, Stanley W. (May–June 1978), "Quaternion from rotation matrix", Journal of Guidance and Control, 1 (3): 223–224, doi:10.2514/3.55767b
- Shoemake, Ken (1994), "Euler angle conversion", in Paul Heckbert (ed.), Graphics Gems IV, San Diego: Academic Press Professional, pp. 222–229, ISBN 978-0-12-336155-4
- Stuelpnagel, John (October 1964), "On the parameterization of the three-dimensional rotation group", SIAM Review, 6 (4): 422–430, Bibcode:1964SIAMR...6..422S, doi:10.1137/1006093, ISSN 0036-1445, S2CID 13990266 (Also NASA-CR-53568.)
- Varadarajan, Veeravalli S. (1984), Lie Groups, Lie Algebras, and Their Representation, Springer, ISBN 978-0-387-90969-1 (GTM 102)
- Wedderburn, Joseph H. M. (1934), Lectures on Matrices, AMS, ISBN 978-0-8218-3204-2
enlaces externos
- "Rotation", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
- Rotation matrices at Mathworld
- Math Awareness Month 2000 interactive demo (requires Java)
- Rotation Matrices at MathPages
- (in Italian) A parametrization of SOn(R) by generalized Euler Angles
- Rotation about any point