next up previous contents
Next: Codice prodotto Up: Algoritmi matematici utilizzati Previous: Metoto iterativo di Landweber-Fridman   Contents


Decomposizione in valori singolari di una matrice

Se si considera una matrice $A$ simmetrica, di dimensioni $N \times N$, con elementi reali tale che

\begin{displaymath}
A_{m n}\,=\,A_{n m} \, .
\end{displaymath}


Allora esiste una matrice diagonale $\Lambda$ e una matrice ortogonale $U$ tali che

\begin{displaymath}
A\,=\,U \Lambda U^{T} \, .
\end{displaymath}


Gli elementi diagonali di $\Lambda$, $(\lambda_{1},....,\lambda_{N})$, costituiscono gli autovalori di $A$; le colonne di $U$, $(u_{1},....,u_{N})$, costituiscono gli autovettori di $A$, associati ai rispettivi autovalori, essi sono soluzioni dei problemi:

\begin{displaymath}
Au_{k}\,=\,\lambda_{k}u_{k} \,\,\,\,\,\,\,\,\,\,\, k\,=\,1,2,....,N \, .
\end{displaymath}


Gli autovettori sono ortonormali rispetto al prodotto scalare euclideo, ovvero:

\begin{displaymath}
(u_{k},u_{j})_{N}\,=\, \delta_{kj}
\end{displaymath}


dove $\delta_{kj}$ è il simbolo di Kronecker.
La forma diagonale di $A$ implica la seguente rappresentazione spettrale:

\begin{displaymath}
Af\,=\, \sum_{k=1}^{N} \lambda_{k} \, (f,u_{k})_{N} u_{k} \, .
\end{displaymath}


Se la matrice $A$ è semidefinita positiva, cioè se

\begin{displaymath}
(Af,f)_{N}\, \geq \, 0
\end{displaymath}


allora $\lambda_{k} \geq 0$.
Se $p$ è il rango della matrice, si possono ordinare gli autovalori in modo tale che $\lambda_{1}\geq....\geq\lambda_{p}$, $\lambda_{p+1}=....=\lambda_{N}=0$.
Se $A$ è positiva, cioè se

\begin{displaymath}
(Af,f)_{N}\, > \, 0 \,\,\,\,\,\,\,\,\,\,\,\,\, \forall f \neq 0
\end{displaymath}


allora $\lambda_{k} > 0$ (cioè $p=N$) e si possono ordinare gli autovalori in modo tale che $\lambda_{1}\geq....\geq\lambda_{N}$.
Il caso più generale, però, è quello in cui la matrice $A$ è rettangolare, di dimensioni $M \times N$, e rango $p$.
Se $A^{T}$ è la matrice trasposta di $A$, si considerino le matrici $A^{T}A$ di dimensioni $N \times N$ con autovettori $v_{k}$ e $AA^{T}$ di dimensioni $M \times M$ con autovettori $u_{k}$. Si può dimostrare che tali matrici sono simmetriche e semidefinite (o definite) positive; inoltre queste matrici hanno gli stessi autovalori (che indicheremo con $\sigma^{2}$) positivi e con la stessa molteplicità.
Si ottengono, quindi, le seguenti rappresentazioni spettrali:

\begin{displaymath}
A^{T}Af\,=\, \sum_{k=1}^{p} \sigma_{k}^{2} \, (f,v_{k})_{N} v_{k}
\end{displaymath} (A.1)


\begin{displaymath}
AA^{T}g\,=\, \sum_{k=1}^{p} \sigma_{k}^{2} \, (g,u_{k})_{M} u_{k}
\end{displaymath} (A.2)


Valgono le seguenti relazioni:

\begin{displaymath}
Av_{k}\,=\,\sigma_{k}u_{k} \,\,\,\,\,\,\,\, A^{T}u_{k}\,=\,\sigma_{k}v_{k} \, .
\end{displaymath}


Si ottengono le seguenti rappresentazioni:

\begin{displaymath}
Af\,=\, \sum_{k=1}^{p} \sigma_{k} \, (f,v_{k})_{N} u_{k}
\end{displaymath} (A.3)


\begin{displaymath}
A^{T}g\,=\, \sum_{k=1}^{p} \sigma_{k} \, (g,u_{k})_{M} v_{k}
\, .
\end{displaymath} (A.4)

Si ottiene, così, la decomposizione a valori singolari (SVD) di una matrice $A$ arbitraria e della sua trasposta.
Sia $U$ la matrice isometrica di dimensione $M\times p$, le cui colonne sono costituite dai vettori $u_{1},....,u_{p}$; sia $V$ la matrice isometrica di dimensioni $N\times p$, le cui colonne sono i vettori $v_{1},....,v_{p}$; allora si può scrivere:

\begin{displaymath}
A\,=\,U \Sigma V^{T}\,\,\,\,\,\,\,\,\,\, A^{T}\,=\,V \Sigma U^{T}
\end{displaymath} (A.5)


dove $\Sigma$ è la matrice diagonale di dimensioni $p\times p$, avente gli autovalori $\sigma_{k}$ con $k=1,....,p$ sulla diagonale principale.

Se si deve risolvere il seguente sistema lineare algebrico:

\begin{displaymath}
Af\,=\,g
\end{displaymath}


dove $A$ è una matrice di dimensione $M \times N$ di rango $p$, si può trovare la soluzione generalizzata $f^{\dagger}$, ovvero la soluzione ai minimi quadrati avente norma minima, tramite la SVD.
Le soluzioni ai minimi quadrati sono tutte e sole le soluzioni del seguente problema:

\begin{displaymath}
\vert\vert\,Af\,-\,g\,\vert\vert _{M}\,=\, minimo
\end{displaymath}


Esse costituiscono le soluzioni dell'equazione di Eulero:

\begin{displaymath}
A^{T}Af\,=\,A^{T}g \, .
\end{displaymath}


Dalle formule (A.1) e (A.4) si ottiene:

\begin{displaymath}
\sum_{k=1}^{p} \sigma_{k}^{2} \, (f,v_{k})_{N} v_{k}\,=\,\sum_{k=1}^{p} \sigma_{k} \, (g,u_{k})_{M} v_{k}
\end{displaymath}


e quindi eguagliando le componenti secondo i $v_{k}$ si ha:

\begin{displaymath}
(f,v_{k})_{N}\,=\,\frac{1}{\sigma_{k}}(g,u_{k})_{M} \, .
\end{displaymath}


Quindi la soluzione generalizzata $f^{\dagger}$ è la seguente:

\begin{displaymath}
f^{\dagger}\,=\,\sum_{k=1}^{p} \frac{1}{\sigma_{k}}(g,u_{k})_{M} v_{k} \, .
\end{displaymath}


Essa può anche essere scritta nella seguente forma

\begin{displaymath}
f^{\dagger}\,=\,A^{\dagger}g
\end{displaymath}


La matrice $A^{\dagger}$ di dimensioni $N \times M$ e di rango $p$ è detta matrice inversa generalizzata (o inversa di Moore-Penrose) di $A$.
Dall'equazione (A.5 della SVD di $A$ si ottiene la SVD di $A^{\dagger}$:

\begin{displaymath}
A^{\dagger}\,=\,V \Sigma^{-1} U^{T} \, .
\end{displaymath}


next up previous contents
Next: Codice prodotto Up: Algoritmi matematici utilizzati Previous: Metoto iterativo di Landweber-Fridman   Contents
Anna Custo 2002-02-05