Diagonalització, teoremes espectrals i descomposició espectral

Diagonalització, teoremes espectrals i descomposició espectral

Recursos útils

Vídeo d’on surten els GIFS de diagonalització
Visualize Spectral Decomposition | SEE Matrix, Chapter 2
A video illustrating the underlying elegant visual interpretation of Spectral Decomposition. Chapters: 0:00 Chapter 1 Summary 1:23 Symmetric Matrix ? 1:44 Property of Transpose 3:27 Matrix Decomposition 4:58 Eigen Vectors and Eigen Values 8:07 Strong Property of Symmetric Matrix 9:36 Spectral Decomposition 12:03 Visualization 14:13 appreciation Video Sins: 1. regarding the eigenvectors of symmetric, it is correct to say the eigen vectors are orthogonal if the matrix is full rank. However, the formal definition is there always exist a orthornormal basis which contains the eigen vectors of the symmetric matrix, for details refer to https://www.youtube.com/watch?v=UCc9q_cAhho&t=812s, where professor Strang explains the case with eigen vectors with eigen value of 0. 2. 00:50: a diagonal matrix is also a symmetric matrix, and its visual interpretation is very straightforward. So it’s definitely not correct to say every symmetric matrix produces a visually complicated transformation. But normally when we address a matrix as a symmetric, we often mean “symmetric and non-diagonal”, if the matrix is diagonal, we would just call it diagonal matrix. 3. 2:46, the transpose of orthogonal matrix is also a orthogonal matrix. I didn’t mention this fact. 4. 7:42, when the eigen value is 0, it means the vector is in the null-space, pretty important fact, which I didn’t mention. 5. 14:20: the visual interpretation of matrix decomposition doesn’t apply to every type of matrix decomposition. Most matrix decomposition are often used for speeding up computational purposes, for example the LU decomposition. 6. Order of eigen vector could be swap, so there are many alternative decomposition of symmetric matrices. This video wouldn’t be possible without the inspiration of the legendary 3b1b : https://www.youtube.com/c/3blue1brown and the animation software - Manim, which he wrote: https://www.youtube.com/c/3blue1brown and the Manim Community: https://docs.manim.community/en/stabl...
Visualize Spectral Decomposition | SEE Matrix, Chapter 2
Un altre video relacionat
Pdf amb demos i definicions
Diagonalització i exponents de matrius i nsq de Jordan
Web que pinta útil en general

Relacionat

Matriu diagonal

Una matriu diagonal és aquella que només té elements a la diagonal
Visualment significa agafar l’espai vectorial expressat en un SR i escalar-ne els eixos per diferents factors.
Visualització i exemple
Si estem en una base qualsevol , aquests vectors s’expressen a si mateixos com , i respectivament.
Aleshores transformar el vector mitjançant la matriu diagonal implica convertir-lo en el vector és a dir escalar-lo per un factor .
Visualment això implica
La pregunta
Donada una transformació lineal concreta, podem canviar a una base tal que els vectors base només s’escalin?
La resposta és no sempre, però amb algunes transformacions lineals concretes sí. És a dir no totes les matrius són diagonalitzables, però quan ho siguin sí podrem.

Matriu diagonalitzable

És aquella en la qual és possible un canvi de base que resulti en una matriu diagonal.

Diagonalització

Suposem que tenim una transformació lineal, que en la nostra base s’expressa amb la matriu següent
Aquesta transformació lineal, ja que la matriu no és diagonal, agafarà els nostres vector base i els transformarà ( i ) "traient-los de la seva línia”.
notion image
Direm que la transformació (i per tant la matriu) és diagonalitzable si existeix una base, per exemple , la qual els seus vectors es mantinguin en la “línia”, és a dir
notion image
Nota: això realment els hi passa a tots els vectors que es troben en aquestes línies.
Visualització
notion image
Per exemple quan a fonaments de mecànica, parlàvem d’eixos principals d’inèrcia o a medis continus d’eixos principals del tensor d’esforços, fèiem referència a que el tensor (i per tant la matriu) era diagonalitzable i hi havia uns eixos principals que només s’escalaven (mentre la resta rotaven i s’escalaven).
Aleshores, si expresséssim la transformació lineal en aquesta base , la matriu associada seria una matriu diagonal.

Vectors propis i valors propis

Nota sobre terminologia: Valor propi = VAP = Autovalor = Eigenvalue i Vector propi = VEP = Autovector = Eigenvector.
A aquests vectors que només s’escalen ( i ), els hi diem vectors propis, i el factor pel qual s’escalen ( i ) els hi diem valors propis.
La transformació lineal fa i , és a dir sigui la matriu associada (en una base qualsevol) tenim que
Si la base és justament la matriu és . I si la base és justament tenim que és una matriu diagonal
Seguint amb l’exemple, si en la nostra base original la matriu és
I els vectors propis i tenen per components
Aleshores la matriu que ens permet canviar a la nostra base (expressar-nos en el nostre llenguatge original) és .
I la matriu que ens permet expressar un vector en la base dels valors propis, és a dir fer , serà
On són les components dels vectors en la base . I tenim que una matriu és la inversa de l’altra.
Aleshores per dir quina és la transformació lineal (d’un vector qualsevol ) expressada en la base dels vectors propis (és a dir ), sabent la transformació en la nostra base () i els vectors propis (, ) en la nostra base fem:
  1. El vector qualsevol (que volem transformar) primer de tot l’expressem en la nostra base, és a dir , fent . On les files de la matriu són els vectors propis expressats en la nostra base.
  1. Ara que està expressat en la nostra base, el transformem.
  1. I finalment expressem el vector ja transformat en l’altra base .
Aleshores si tenim que
Pel càlcul computacional dels valors i vectors propis (amb el polinomi característic) entrar a .
Nota sobre diagonalització complexa
Si és un vector propi, qualsevol vector també ho serà on és qualsevol número complex. És a dir que és un vector propi igual de vàlid que l’altre.
Així doncs si en un vector propi pertanyent a el visualitzàvem com un eix que s’estrenyia o comprimia (amb dues possibilitats de vector propi normalitzat a triar, la positiva i la negativa), ara un vector propi pertanyent a l’entendrem com pertanyent a un pla en que conté tots els vectors propis (infinits normalitzats) que s’estrenyen o contrauen per aquell valor propi.
De manera que si en només tenim com a vectors propis normalitzats i (eix), ara tenim com a vectors propis normalitzats qualsevol de la forma .
I si en (per matrius simètriques) els vectors propis eren ortogonals, és a dir els dos eixos formaven 90 graus entre ells, en els vectors propis són ortogonals, i els plans els que pertanyen també ho són.
Nota: ara bé en per cada pla tenim infinits plans ortogonals (de manera similar a que en per una línia tenim infinites línies ortogonals que passin per l’origen, que podem entendre com una mateixa línia rotada amb l’altra com a eix de rotació). La manera com entenem dels infinits plans ortogonals al pla el qual pertany , com sabem quin és el pla al qual pertany és la condició d’ortogonalitat. Per exemple
On aquesta seria justament l’angle de rotació correcte del pla ortogonal al qual pertany .
Matriu simètrica (en el cas real) i hermítica (en el cas complex) és aquella que compleix

Teorema Espectral Principal

Ens diu que si tenim una matriu simètrica o hermítica, aquesta és diagonalitzable i que els valors propis són reals.
Nota: que totes les matrius simètriques siguin diagonalitzables no implica que totes les matrius diagonalitzables siguin simètriques, una és un subconjunt de l’altra.
Això ens dona una pista, si les matrius diagonalitzables compleixen i són més generals que les simètriques, quina condició més restrictiva compleixen les simètriques? En breus ho veurem.

Teoremes Espectrals Secundaris

Base ortonormal de vectors propis
Ens diu que pel cas no degenerat (si els valors propis són diferents), els vectors propis són ortogonals.
I ja que podem considerar els vectors propis de qualsevol magnitud (tota la “línia” es manté igual) sempre podrem construir una base ortonormal.

Demostracions dels teoremes

Matriu ortogonal o unitària

Matriu ortogonal (en el cas real) o unitària (en el cas complex) és aquella que compleix
Aquestes representen rotacions.

Matriu ortogonalment (o unitàriament) diagonalitzable

Diem que una matriu és ortogonalment diagonalizable si és diagonalitzable i la matriu de canvi de base és ortogonal.
I en el cas complex, diem unitàriament diagonalizable ().

Si una matriu és simètrica (o hermítica) és un cas particular

Teorema
Una matriu és ortogonalment diagonalitzable si només si és simètrica (i unitàriament diagonalizable si només si hermítica).
És a dir
Si tenim una matriu simètrica, no només serà diagonalitzable, sinó que a més serà ortogonalment diagonalizable.
El que fan les matrius canvis de base (matrius ortogonals) és rotar d’una base (la nostra base) a l’altra (la base dels vector propis).

Descomposició Espectral

Vale ara ve la gràcia, si tenim una matriu simètrica (o hermítica), podem expressar-la a partir de la seva descomposició espectral.
Descomposició espectral
On són els valors propis de la matriu i són els corresponents vectors propis
Recordem d’
🧿
Àlgebra Tensorial
que
Exemple
Si tenim per exemple la matriu
Que té per valors propis
Amb els corresponents vectors propis
Amb les corresponents matrius resultants del producte tensorial amb ells mateixos
Podem comprovar que la matriu es pot expressar amb la seva descomposició espectral
Informació Descomposició Espectral

Singular Value Decomposition (SDV)

És una generalització de la descomposició espectral per matrius que no necessàriament són simètriques ni quadrades. I tot i així es poden descomposar en un producte de 3 matrius.
Nota: no ens afecta gaire però al final la gràcia de tot això està en facilitar els càlculs computacionals. Un exemple en diagonalització normal és que . En aquest cas encara no li veig la utilitat però en té perquè s’utilitza molt en programació.
Informació SDV
Minut 7:04
Video preview
Més videos
Video preview
Articles sobre el tema

Previ: Descomposició de Schur

Sigui una matriu quadrada i una matriu unitària qualsevol, podem obtenir una matriu triangular superior fent
Matriu triangular superior vol dir que tot són zeros per sota de la diagonal.
Teorema relacionat
Resulta que si una matriu triangular superior és una matriu normal aleshores és també una matriu diagonal.

Matriu Normal = Diagonalitzable

Aleshores
Ja que un canvi de base ortogonal no canvia cap de les següents propietats
  • Producte escalar
  • Matriu normal
    • Matriu hermítica
    • Matriu unitària
Tenim que
Per la descomposició de Schur, el teorema relacionat i la invariància de normalitat… que qualsevol matriu normal es pot diagonalitzar ortogonalment.
Això implica que no només les matrius hermítiques són ortogonalment diagonalitzables (o similars ortogonalment a una diagonalitzada) sinó que també les matrius unitàries ho són.