Descomposición propia de una matriz - Eigendecomposition of a matrix

En álgebra lineal , la descomposición propia es la factorización de una matriz en una forma canónica , mediante la cual la matriz se representa en términos de sus valores propios y vectores propios . Solo las matrices diagonalizables se pueden factorizar de esta manera. Cuando la matriz que se factoriza es una matriz simétrica normal o real , la descomposición se denomina "descomposición espectral", derivada del teorema espectral .

Teoría fundamental de los autovectores y autovalores matriciales

Un vector v (distinto de cero) de dimensión N es un vector propio de una matriz A cuadrada N × N si satisface una ecuación lineal de la forma

para algunos escalares λ . Entonces λ se llama el valor propio correspondiente av . Geométricamente hablando, los vectores propios de A son los vectores que A simplemente alarga o encoge, y la cantidad en la que se alargan / encogen es el valor propio. La ecuación anterior se llama ecuación de valor propio o problema de valor propio.

Esto produce una ecuación para los valores propios

Llamamos p ( λ ) el polinomio característico , y la ecuación, llamada ecuación característica, es una ecuación polinomial de orden N en la λ desconocida . Esta ecuación tendrá N λ soluciones distintas, donde 1 ≤ N λN . El conjunto de soluciones, es decir, los valores propios, se llama el espectro de A .

Si el campo de escalares es algebraicamente cerrado , entonces podemos factorizar p como

El número entero n i se denomina multiplicidad algebraica del valor propio λ i . Las multiplicidades algebraicas suman N ::

Para cada valor propio λ i , tenemos una ecuación de valor propio específico

Habrá 1 ≤ m in i soluciones linealmente independientes para cada ecuación de valor propio. Las combinaciones lineales de las soluciones m i (excepto la que da el vector cero) son los vectores propios asociados con el valor propio λ i . El entero m i se denomina multiplicidad geométrica de λ i . Es importante tener en cuenta que la multiplicidad algebraica n i y la multiplicidad geométrica m i pueden ser iguales o no, pero siempre tenemos m in i . El caso más simple es, por supuesto, cuando m i = n i = 1 . El número total de vectores propios linealmente independientes, N v , se puede calcular sumando las multiplicidades geométricas

Los autovectores se pueden indexar por autovalores, usando un índice doble, siendo v ij el j- ésimo autovector para el i- ésimo autovalor. Los autovectores también se pueden indexar usando la notación más simple de un solo índice v k , con k = 1, 2, ..., N v .

Descomposición propia de una matriz

Sea A una matriz cuadrada n × n con n vectores propios linealmente independientes q i (donde i = 1, ..., n ). Entonces A se puede factorizar como

donde Q es la matriz cuadrada n × n cuya i- ésima columna es el vector propio q i de A , y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λ ii = λ i . Tenga en cuenta que solo las matrices diagonalizables se pueden factorizar de esta manera. Por ejemplo, la matriz defectuosa (que es una matriz de corte ) no se puede diagonalizar.

Los n autovectores q i suelen estar normalizados, pero no es necesario que lo estén. Un conjunto no normalizada de n vectores propios, v i también se puede utilizar como las columnas de Q . Eso puede entenderse observando que la magnitud de los autovectores en Q se cancela en la descomposición por la presencia de Q −1 .

La descomposición se puede derivar de la propiedad fundamental de los autovectores:

Ejemplo

La matriz real 2 × 2 A

puede descomponerse en una matriz diagonal mediante la multiplicación de una matriz no singular B

Luego

para alguna matriz diagonal real .

Multiplicando ambos lados de la ecuación de la izquierda por B :

La ecuación anterior se puede descomponer en dos ecuaciones simultáneas :

Factorizar los valores propios x y y :

Dejando

esto nos da dos ecuaciones vectoriales:

Y se puede representar mediante una única ecuación vectorial que involucra dos soluciones como valores propios:

donde λ representa los dos valores propios x y y y u representa los vectores de una y b .

El cambio λ U a la izquierda y la factorización de U a cabo

Dado que B no es singular, es esencial que u no sea cero. Por lo tanto,

Por lo tanto

dándonos las soluciones de los valores propios de la matriz A como λ = 1 o λ = 3 , y la matriz diagonal resultante de la descomposición propia de A es así .

Volviendo a poner las soluciones en las ecuaciones simultáneas anteriores

Resolviendo las ecuaciones, tenemos

Por tanto, la matriz B requerida para la descomposición propia de A es

es decir:

Matriz inversa mediante autodescomposición

Si una matriz A puede descomponerse de forma propia y si ninguno de sus valores propios es cero, entonces A es invertible y su inverso está dado por

Si es una matriz simétrica, dado que se forma a partir de los autovectores de la misma, se garantiza que será una matriz ortogonal , por lo tanto . Además, debido a que Λ es una matriz diagonal , su inversa es fácil de calcular:

Implicaciones prácticas

Cuando se utiliza la descomposición propia en una matriz de datos reales medidos, la inversa puede ser menos válida cuando todos los valores propios se utilizan sin modificar en la forma anterior. Esto se debe a que a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos cerca de cero o en el "ruido" del sistema de medición tendrán una influencia indebida y podrían obstaculizar las soluciones (detección) usando el inverso.

Se han propuesto dos mitigaciones: truncar los autovalores pequeños o nulos y extender el autovalor confiable más bajo a los que están por debajo de él.

El primer método de mitigación es similar a una muestra escasa de la matriz original, eliminando componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección están cerca del nivel de ruido, truncar puede eliminar componentes que influyen en la solución deseada.

La segunda mitigación extiende el valor propio de modo que los valores más bajos tengan mucha menos influencia sobre la inversión, pero aún contribuyen, de modo que aún se encontrarán soluciones cercanas al ruido.

El autovalor confiable se puede encontrar asumiendo que los autovalores de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).

Si los autovalores están ordenados por rango por valor, entonces el autovalor confiable se puede encontrar minimizando el laplaciano de los autovalores ordenados:

donde los valores propios están subindicados con una s para indicar que están ordenados. La posición de la minimización es el valor propio confiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio sobre los componentes del sistema.

Cálculo funcional

La descomposición propia permite un cálculo mucho más sencillo de las series de potencias de las matrices. Si f  ( x ) está dada por

entonces sabemos que

Como Λ es una matriz diagonal , las funciones de Λ son muy fáciles de calcular:

Los elementos fuera de la diagonal de f  ( Λ ) son cero; es decir, f  ( Λ ) también es una matriz diagonal. Por lo tanto, calcular f  ( A ) se reduce a simplemente calcular la función en cada uno de los valores propios.

Una técnica similar funciona de manera más general con el cálculo funcional holomórfico , utilizando

desde arriba . Una vez más, encontramos que

Ejemplos de

que son ejemplos de las funciones . Además, es la matriz exponencial .

Descomposición para matrices especiales

Cuando A es una matriz simétrica normal o real , la descomposición se denomina "descomposición espectral", derivada del teorema espectral .

Matrices normales

Una matriz cuadrada de valor complejo A es normal (es decir, A * A = AA * , donde A * es la transposición conjugada ) si y solo si se puede descomponer como

donde U es una matriz unitaria (lo que significa U * = U −1 ) y Λ = diag ( λ 1 , ..., λ n ) es una matriz diagonal . Las columnas u 1 , ..., u n de U forman una base ortonormal y son autovectores de A con sus correspondientes autovalores λ 1 , ..., λ n .

Si A está restringido a ser una matriz hermitiana ( A = A * ), entonces Λ solo tiene entradas con valor real. Si A está restringido a una matriz unitaria, entonces Λ toma todos sus valores en el círculo unitario complejo, es decir, | λ i | = 1 .

Matrices simétricas reales

Como caso especial, para cada matriz simétrica real n × n , los valores propios son reales y los vectores propios pueden elegirse reales y ortonormales . Por lo tanto, una matriz simétrica real A se puede descomponer como

donde Q es una matriz ortogonal cuyas columnas son (los anteriormente elegido, reales y ortonormales) vectores propios de A , y Λ es una matriz diagonal cuyas entradas son los valores propios de A .

Hechos útiles

Datos útiles sobre los valores propios

  • El producto de los valores propios es igual al determinante de A
    Tenga en cuenta que cada valor propio se eleva a la potencia n i , la multiplicidad algebraica .
  • La suma de los valores propios es igual a la traza de A
    Tenga en cuenta que cada valor propio se multiplica por n i , la multiplicidad algebraica .
  • Si los autovalores de A son λ i , y A es invertible, entonces los autovalores de A −1 son simplemente λ−1
    yo
    .
  • Si los valores propios de A son λ i , entonces los valores propios de f  ( A ) son simplemente f  ( λ i ) , para cualquier función holomórfica f .

Datos útiles sobre los vectores propios

  • Si A es hermitiano y de rango completo, la base de los vectores propios puede elegirse para que sea mutuamente ortogonal . Los valores propios son reales.
  • Los vectores propios de A -1 son los mismos que los vectores propios de A .
  • Los autovectores solo se definen hasta una constante multiplicativa. Es decir, si Av = λ v entonces c v también es un vector propio para cualquier escalar c ≠ 0 . En particular, - v y e v (para cualquier θ ) también son vectores propios.
  • En el caso de autovalores degenerados (un autovalor que aparece más de una vez), los autovectores tienen una libertad adicional de rotación, es decir, cualquier combinación lineal (ortonormal) de autovectores que comparten un autovalor (en el subespacio degenerado), son ellos mismos autovectores ( en el subespacio).

Datos útiles sobre la descomposición propia

  • A puede descomponerse de forma propia si y solo si el número de vectores propios linealmente independientes, N v , es igual a la dimensión de un vector propio: N v = N
  • Si el campo de escalares es algebraicamente cerrado y si p ( λ ) no tiene raíces repetidas, es decir, si entonces A puede descomponerse por sí mismo.
  • El enunciado " A puede descomponerse por sí mismo" no implica que A tenga una inversa.
  • El enunciado " A tiene una inversa" no implica que A pueda descomponerse por sí mismo. Un contraejemplo es , que es una matriz defectuosa invertible .

Datos útiles sobre la matriz inversa

  • A se puede invertir si y solo si todos los valores propios son distintos de cero:
  • Si λ i ≠ 0 y N v = N , la inversa está dada por

Cálculos numéricos

Cálculo numérico de valores propios

Suponga que queremos calcular los valores propios de una matriz dada. Si la matriz es pequeña, podemos calcularlos simbólicamente usando el polinomio característico . Sin embargo, esto a menudo es imposible para matrices más grandes, en cuyo caso debemos usar un método numérico .

En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio se vuelve costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de polinomios de alto grado (5 o más) no pueden en general expresarse simplemente usando n th raíces. Por lo tanto, los algoritmos generales para encontrar autovectores y autovalores son iterativos .

Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton , pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los autovalores y autovectores: las raíces son una función extremadamente mal condicionada de los coeficientes.

Un método iterativo simple y preciso es el método de potencia : se elige un vector aleatorio v y se calcula una secuencia de vectores unitarios como

Esta secuencia será casi siempre converger a un vector propio correspondiente al valor propio de mayor magnitud, siempre que v tiene un componente no nulo de este vector propio en la base vector propio (y también a condición de que sólo hay un valor propio de mayor magnitud). Este sencillo algoritmo es útil en algunas aplicaciones prácticas; por ejemplo, Google lo usa para calcular el rango de página de los documentos en su motor de búsqueda. Además, el método de potencia es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, si se mantiene no solo el último vector de la secuencia, sino que se observa el intervalo de todos los vectores de la secuencia, se puede obtener una mejor aproximación (convergencia más rápida) del autovector, y esta idea es la base de Arnoldi iteración . Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencia.

Cálculo numérico de vectores propios

Una vez que se calculan los valores propios, los vectores propios podrían calcularse resolviendo la ecuación

utilizando la eliminación gaussiana o cualquier otro método para resolver ecuaciones matriciales .

Sin embargo, en los métodos prácticos de valores propios a gran escala, los vectores propios se suelen calcular de otras formas, como un subproducto del cálculo del valor propio. En la iteración de potencia , por ejemplo, el vector propio se calcula en realidad antes que el valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio). En el algoritmo QR para una matriz hermitiana (o cualquier matriz normal ), los vectores propios ortonormales se obtienen como un producto de las matrices Q de los pasos del algoritmo. (Para matrices más generales, el algoritmo QR produce primero la descomposición de Schur , a partir de la cual se pueden obtener los vectores propios mediante un procedimiento de sustitución inversa .) Para las matrices hermitianas, el algoritmo de valor propio de dividir y conquistar es más eficiente que el algoritmo QR si ambos vectores propios y se desean valores propios.

Temas adicionales

Espacios propios generalizados

Recordemos que el geométrica multiplicidad de un valor propio puede ser descrito como la dimensión del espacio característico asociado, el espacio nulo de λ I - A . La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio propio generalizado asociado (1er sentido), que es el espacio nulo de la matriz ( λ I - A ) k para cualquier k suficientemente grande . Es decir, es el espacio de autovectores generalizados (primer sentido), donde un autovector generalizado es cualquier vector que eventualmente se convierte en 0 si λ I - A se le aplica suficientes veces sucesivamente. Cualquier autovector es un autovector generalizado, por lo que cada autoespacio está contenido en el autoespacio generalizado asociado. Esto proporciona una prueba fácil de que la multiplicidad geométrica es siempre menor o igual que la multiplicidad algebraica.

Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.

Vector propio conjugado

Un autovector conjugado o coneigenvector es un vector enviado después de la transformación a un múltiplo escalar de su conjugado, donde el escalar se llama autovalor conjugado o coneigenvalor de la transformación lineal. Los vectores y valores propios representan esencialmente la misma información y significado que los vectores propios y valores propios regulares, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es

Por ejemplo, en la teoría de la dispersión electromagnética coherente, la transformación lineal A representa la acción realizada por el objeto de dispersión, y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Forward Scattering Alignment (FSA), y da lugar a una ecuación de valor propio regular, mientras que en el radar , el sistema de coordenadas se define desde el punto de vista del radar, conocido como Back Scattering Alignment (BSA), y da lugar a una ecuación de valor coneigen.

Problema generalizado de valores propios

Un problema de valor propio generalizado (segundo sentido) es el problema de encontrar un vector v que obedezca

donde A y B son matrices. Si v obedece a esta ecuación, con algo de λ , entonces llamamos v el vector propio generalizado de A y B (en el segundo sentido), y λ se llama el valor propio generalizado de A y B (en el segundo sentido) que corresponde al vector propio generalizado de A y B (en el segundo sentido). vector propio v . Los posibles valores de λ deben obedecer a la siguiente ecuación

Si se pueden encontrar n vectores linealmente independientes { v 1 ,…, v n } , de manera que para todo i ∈ {1,…, n } , Av i = λ i Bv i , entonces definimos las matrices P y D tales que

Entonces se cumple la siguiente igualdad

Y la prueba es

Y como P es invertible, multiplicamos la ecuación de la derecha por su inversa, terminando la demostración.

El conjunto de matrices de la forma A - λ B , donde λ es un número complejo, se llama lápiz ; el término lápiz de matriz también puede referirse al par ( A , B ) de matrices.

Si B es invertible, entonces el problema original se puede escribir en la forma

que es un problema de valores propios estándar. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de los valores propios generalizados como se indicó originalmente. Esto es especialmente importante si A y B son matrices hermitianas , ya que en este caso B −1 A no es generalmente hermitiano y las propiedades importantes de la solución ya no son evidentes.

Si A y B son simétricos o hermitianos, y B también es una matriz definida positiva , los valores propios λ i son reales y los vectores propios v 1 y v 2 con valores propios distintos son B -ortogonales ( v 1 * Bv 2 = 0 ). En este caso, los vectores propios se pueden elegir de modo que la matriz P definida anteriormente satisfaga

o ,

y existe una base de autovectores generalizados (no es un problema defectuoso ). Este estuche a veces se llama lápiz definido hermitiano o lápiz definido .

Ver también

Notas

Referencias

enlaces externos