Matrice ortogonale

In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice invertibile tale che la sua trasposta coincide con la sua inversa.

Nel campo complesso, una matrice invertibile la cui trasposta coniugata coincide con l'inversa è detta matrice unitaria.

Definizione

Data una matrice invertibile G {\displaystyle G} , indicando con G T {\displaystyle G^{T}} la sua trasposta si definisce G {\displaystyle G} ortogonale se:

G G T = G T G = I n {\displaystyle GG^{T}=G^{T}G=I_{n}}

laddove I n {\displaystyle I_{n}} è la matrice identità, ovvero la trasposta è l'inversa.

In modo equivalente, una matrice ortogonale è una matrice che rappresenta una isometria dello spazio euclideo, oppure è una matrice di cambiamento di base fra due basi ortonormali.

Si può ricavare che il numero di parametri indipendenti in una matrice ortogonale di dimensione N {\displaystyle N} è N ( N 1 ) / 2 {\displaystyle N(N-1)/2} .

Proprietà

Basi ortonormali

Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo R n {\displaystyle \mathbb {R} ^{n}} con l'ordinario prodotto scalare. Questa proprietà è semplicemente la rilettura della relazione G T G = I n {\displaystyle G^{T}G=I_{n}} .

Rileggendo similmente la relazione G G T = I n {\displaystyle GG^{T}=I_{n}} , si ricava l'enunciato duale del precedente: una matrice quadrata reale è ortogonale se e solo se le sue righe formano una base ortonormale di R n {\displaystyle \mathbb {R} ^{n}} .

Isometrie

Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di R n {\displaystyle \mathbb {R} ^{n}} che sono anche isometrie. Queste preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni sono isometrie.

Viceversa, se V {\displaystyle V} è un qualsiasi spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo, e f : V V {\displaystyle f:V\to V} è un'applicazione lineare con:

f ( x ) , f ( y ) = x , y {\displaystyle \langle f(x),f(y)\rangle =\langle x,y\rangle }

per tutti gli elementi x {\displaystyle x} , y {\displaystyle y} di V {\displaystyle V} , allora f {\displaystyle f} è una isometria ed è rappresentata in ogni base ortonormale di V {\displaystyle V} da una matrice ortogonale.

In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un asse, o una riflessione, o una composizione di queste due trasformazioni.

Gruppo ortogonale

Lo stesso argomento in dettaglio: Gruppo ortogonale.

Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale.

Analogamente, il prodotto di due matrici ortogonali è una matrice ortogonale. Infatti:

( G H ) ( G H ) T = G H H T G T = G G T = I {\displaystyle (GH)\cdot (GH)^{T}=GHH^{T}G^{T}=GG^{T}=I}

Questo dimostra che l'insieme delle matrici ortogonali n × n {\displaystyle n\times n} forma un gruppo, il gruppo ortogonale, che è un gruppo di Lie e viene indicato con O ( n ) {\displaystyle O(n)} .

La sua dimensione è n ( n 1 ) / 2 {\displaystyle n(n-1)/2} . Intuitivamente, la dimensione è calcolata nel modo seguente: gli n 2 {\displaystyle n^{2}} numeri di una matrice ortogonale sono vincolati dalle n 2 {\displaystyle n^{2}} uguaglianze della definizione, ciascuna delle quali è caratterizzata da una coppia di indici ( i , j ) {\displaystyle (i,j)} che vanno da 1 a n {\displaystyle n} , ma l'equazione relativa a ( i , j ) {\displaystyle (i,j)} con i < j {\displaystyle i<j} equivale a quella relativa a ( j , i ) {\displaystyle (j,i)} e quindi ci sono solo n ( n + 1 ) / 2 {\displaystyle n(n+1)/2} equazioni indipendenti, e quindi n ( n 1 ) / 2 {\displaystyle n(n-1)/2} gradi di libertà.

Matrice ortogonale speciale

Il determinante di ogni matrice ortogonale è 1 {\displaystyle 1} o 1 {\displaystyle -1} . Questo si può dimostrare come segue:

1 = det ( I ) = det ( G G T ) = det ( G ) det ( G T ) = ( det ( G ) ) 2 {\displaystyle 1=\det(I)=\det(G\cdot G^{T})=\det(G)\det(G^{T})=(\det(G))^{2}}

Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale.

L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di O ( n ) {\displaystyle O(n)} di indice 2, chiamato gruppo ortogonale speciale e denotato S O ( n ) {\displaystyle SO(n)} .

Autovalori e decomposizioni

Autovalori

Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto 1 {\displaystyle 1} . Autospazi relativi a differenti autovalori sono ortogonali tra loro.

Decomposizioni lungo piani

Data una matrice ortogonale Q {\displaystyle Q} , esiste una matrice ortogonale P {\displaystyle P} , tale che:

P 1 Q P = ( R 1 R 2 R k ± 1 ± 1 ) {\displaystyle P^{-1}QP={\begin{pmatrix}R_{1}\\&R_{2}\\&&\ddots \\&&&R_{k}\\&&&&\pm 1\\&&&&&\ddots \\&&&&&&\pm 1\\\end{pmatrix}}}

dove R 1 , , R k {\displaystyle R_{1},\dots ,R_{k}} denotano matrici di rotazione 2 × 2 {\displaystyle 2\times 2} . Intuitivamente, questo risultato dice che ogni matrice ortogonale descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici R 1 , , R k {\displaystyle R_{1},\dots ,R_{k}} corrispondono alle coppie di autovalori complessi coniugati di Q {\displaystyle Q} .

Decomposizione QR

Lo stesso argomento in dettaglio: Decomposizione QR.

Se A {\displaystyle A} è una arbitraria matrice di tipo m × n {\displaystyle m\times n} di rango n {\displaystyle n} (cioè m n {\displaystyle m\geq n} ), si può sempre scrivere:

A = Q ( R 0 ) {\displaystyle A=Q{\begin{pmatrix}R\\0\end{pmatrix}}}

dove Q {\displaystyle Q} è una matrice ortogonale di tipo m × n {\displaystyle m\times n} e R {\displaystyle R} è una matrice triangolare superiore di tipo n × n {\displaystyle n\times n} con valori positivi sulla diagonale principale. La decomposizione QR può essere dimostrata applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di A {\displaystyle A} .

Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi quadrati.

Matrici ortogonali e rappresentazione delle algebre di Clifford

Lo stesso argomento in dettaglio: Algebra di Clifford.

Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alle rappresentazione matriciale delle algebre di Clifford. Ad esempio, i vettori della base canonica di R 2 {\displaystyle \mathbb {R} ^{2}} sono e 1 = [ 1 , 0 ] {\displaystyle e_{1}=[1,0]} e e 2 = [ 0 , 1 ] {\displaystyle e_{2}=[0,1]} e un generico vettore [ x , y ] {\displaystyle [x,y]} di questo piano cartesiano si può scrivere:

[ x , y ] = x [ 1 , 0 ] + y [ 0 , 1 ] {\displaystyle [x,y]=x[1,0]+y[0,1]}

La matrice ortogonale:

E 1 := [ 0 1 1 0 ] {\displaystyle E_{1}:={\begin{bmatrix}0&1\\1&0\end{bmatrix}}}

rappresenta la riflessione rispetto alla bisettrice y = x {\displaystyle y=x} , poiché scambia le due componenti di ogni vettore piano:

[ x y ] × [ 0 1 1 0 ] = [ y x ] {\displaystyle {\begin{bmatrix}x&y\end{bmatrix}}\times {\begin{bmatrix}0&1\\1&0\end{bmatrix}}={\begin{bmatrix}y&x\end{bmatrix}}}

La matrice ortogonale:

E 2 := [ 1 0 0 1 ] {\displaystyle E_{2}:={\begin{bmatrix}1&0\\0&-1\end{bmatrix}}}

rappresenta invece la riflessione rispetto all'asse x {\displaystyle x} , poiché il punto [ x y ] {\displaystyle [xy]} ha come immagine [ x , y ] {\displaystyle [x,-y]} :

[ x y ] × [ 1 0 0 1 ] = [ x y ] {\displaystyle {\begin{bmatrix}x&y\end{bmatrix}}\times {\begin{bmatrix}1&0\\0&-1\end{bmatrix}}={\begin{bmatrix}x&-y\end{bmatrix}}}

Per i due prodotti di queste matrici si trova:

E 1 × E 2 = [ 0 1 1 0 ] × [ 1 0 0 1 ] = [ 0 1 1 0 ] {\displaystyle E_{1}\times E_{2}={\begin{bmatrix}0&1\\1&0\end{bmatrix}}\times {\begin{bmatrix}1&0\\0&-1\end{bmatrix}}={\begin{bmatrix}0&-1\\1&0\end{bmatrix}}}
E 2 × E 1 = [ 1 0 0 1 ] × [ 0 1 1 0 ] = [ 0 1 1 0 ] {\displaystyle E_{2}\times E_{1}={\begin{bmatrix}1&0\\0&-1\end{bmatrix}}\times {\begin{bmatrix}0&1\\1&0\end{bmatrix}}={\begin{bmatrix}0&1\\-1&0\end{bmatrix}}}

Si tratta delle due rotazioni nel piano di π / 2 {\displaystyle \pi /2} e di π / 2 {\displaystyle -\pi /2} , rotazioni opposte: quindi le due matrici E i {\displaystyle E_{i}} anticommutano. In formule:

E 1 2 = E 2 2 = I E 1 E 2 = E 2 E 1 {\displaystyle E_{1}^{2}=E_{2}^{2}=I\qquad E_{1}E_{2}=-E_{2}E_{1}}

Si considerino ora E 1 {\displaystyle E_{1}} ed E 2 {\displaystyle E_{2}} come vettori di base del piano bidimensionale delle loro combinazioni lineari:

( x , y ) := x E 1 + y E 2 = [ y x x y ] {\displaystyle (x,y):=xE_{1}+yE_{2}={\begin{bmatrix}y&x\\x&-y\end{bmatrix}}}

sfruttando la composizione:

A B := 1 2 ( A B + B A ) {\displaystyle A\cdot B:={\frac {1}{2}}(AB+BA)}

si trova:

[ y x x y ] [ v u u v ] = 1 2 ( [ x u + y v y u x v x v y u x u + y v ] + [ x u + y v x v y u y u x v x u + y v ] ) = [ x u + y v 0 0 x u + y v ] {\displaystyle {\begin{bmatrix}y&x\\x&-y\end{bmatrix}}\cdot {\begin{bmatrix}v&u\\u&-v\end{bmatrix}}={\frac {1}{2}}{\Biggl (}{\begin{bmatrix}xu+yv&yu-xv\\xv-yu&xu+yv\end{bmatrix}}+{\begin{bmatrix}xu+yv&xv-yu\\yu-xv&xu+yv\end{bmatrix}}{\Biggr )}={\begin{bmatrix}xu+yv&0\\0&xu+yv\end{bmatrix}}}

Per il quadrato di una di queste entità in particolare:

[ y x x y ] [ y x x y ] = [ x 2 + y 2 0 0 x 2 + y 2 ] {\displaystyle {\begin{bmatrix}y&x\\x&-y\end{bmatrix}}\cdot {\begin{bmatrix}y&x\\x&-y\end{bmatrix}}={\begin{bmatrix}x^{2}+y^{2}&0\\0&x^{2}+y^{2}\end{bmatrix}}}

Si può quindi definire come prodotto interno di A {\displaystyle A} e B {\displaystyle B} la precedente composizione, a meno della matrice unità I 2 {\displaystyle I_{2}} . Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una entità matriciale e vettoriale con sé stessa fornisce il quadrato della sua norma.

Dato che le entità base anticommutano si vede che:

E 1 E 2 = 0 {\displaystyle E_{1}\cdot E_{2}=0}

Le entità E 1 {\displaystyle E_{1}} ed E 2 {\displaystyle E_{2}} sono ortogonali secondo entrambe le loro interpretazioni: sono matrici ortogonali e rappresentano vettori di base ortogonali in quanto matrici anticommutative.

Matrici ortogonali trigonometriche

Matrice ortogonale 2×2

[ cos ( α ) sin ( α ) sin ( α ) ± cos ( α ) ] {\displaystyle {\begin{bmatrix}\cos(\alpha )&\mp \sin(\alpha )\\\sin(\alpha )&\pm \cos(\alpha )\end{bmatrix}}}

Matrice ortogonale 3×3

[ cos ( α ) cos ( γ ) sin ( α ) sin ( β ) sin ( γ ) sin ( α ) cos ( β ) cos ( α ) sin ( γ ) sin ( α ) sin ( β ) cos ( γ ) cos ( α ) sin ( β ) sin ( γ ) + sin ( α ) cos ( γ ) cos ( α ) cos ( β ) cos ( α ) sin ( β ) cos ( γ ) sin ( α ) sin ( γ ) cos ( β ) sin ( γ ) sin ( β ) cos ( β ) cos ( γ ) ] {\displaystyle {\begin{bmatrix}\cos(\alpha )\cos(\gamma )-\sin(\alpha )\sin(\beta )\sin(\gamma )&-\sin(\alpha )\cos(\beta )&-\cos(\alpha )\sin(\gamma )-\sin(\alpha )\sin(\beta )\cos(\gamma )\\\cos(\alpha )\sin(\beta )\sin(\gamma )+\sin(\alpha )\cos(\gamma )&\cos(\alpha )\cos(\beta )&\cos(\alpha )\sin(\beta )\cos(\gamma )-\sin(\alpha )\sin(\gamma )\\\cos(\beta )\sin(\gamma )&-\sin(\beta )&\cos(\beta )\cos(\gamma )\end{bmatrix}}}

Queste matrici sono anche matrici di rotazione di coordinate. Utilizzando le equazioni di rotazione di uno spazio n-dimensionale si possono costruire matrici ortogonali trigonometriche di dimensione n × n {\displaystyle n\times n} .

Bibliografia

  • (EN) A.I. Mal'tsev, Foundations of linear algebra , Freeman (1963) (Translated from Russian)
  • (EN) W. Noll, Finite dimensional spaces , M. Nijhoff (1987) pp. Sect. 43
  • (EN) H.W. Turnball, A.C. Aitken, An introduction to the theory of canonical matrices , Blackie & Son (1932)
  • (EN) Persi Diaconis, Mehrdad Shahshahani. The subgroup algorithm for generating uniform random variables. Prob. in Eng. and Info. Sci., vol. 1, 15–32, 1987. ISSN 0269-9648.
  • (EN) Augustin A. Dubrulle. Frobenius Iteration for the Matrix Polar Decomposition. HP Labs Technical Report HPL-94-117. December 16, 1994. [1] Archiviato il 21 marzo 2021 in Internet Archive.
  • (EN) Gene H. Golub, Charles F. Van Loan. Matrix Computations, 3/e. Johns Hopkins University Press, Baltimore, 1996. ISBN 978-0-8018-5414-9.
  • (EN) Nicholas Higham. Computing the Polar Decomposition—with Applications. SIAM Journal on Scientific and Statistical Computing, 7(4):1160–1174, 1986. ISSN 0196-5204. [2] Archiviato il 7 ottobre 2007 in Internet Archive.

Voci correlate

Collegamenti esterni

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica