Richiami di algebra lineare

in costruzione

Vettori e matrici

Norma

Norma nello spazio \(L^p\) di ordine \(p\)
\(\parallel \vec{x} \parallel _p := \left ( \sum_{i=1}^n \vert x_i \vert ^p \right ) ^{\frac{1}{p}}\)

Norma euclidea (\(\ell ^2\)) di ordine \(p=2\)
\(\parallel \vec{x} \parallel := \sqrt{\left \langle \vec{x}, \vec{x} \right \rangle }\)

Versore

Un versore è un vettore in uno spazio normato di modulo unitario, utilizzato per indicare una particolare direzione e verso. Dato un qualunque vettore \(\mathbf{v}\) (diverso dal vettore nullo che è l’unico ad avere modulo pari a zero) è possibile formarne un versore moltiplicandolo per il reciproco del suo modulo

Somma vettoriale

\(\vec{x}+\vec{y}= \begin{pmatrix} x_1 + y_1 \\ x_2 + y_2 \\ ... \\ x_n + y_n \end{pmatrix}\)

Prodotto scalare

Il prodotto scalare (dot product) tra due vettori è uno scalare (un numero), è un prodotto interno (inner product) nello spazio Euclideo. A livello di notazione solitamente il primo si esprime con un punto tra i due elementi e il secondo tra parentesi angolate.
\(\vec{x}\cdot \vec{y}=\left \langle \vec{x}, \vec{y} \right \rangle = \sum_{i=1}^n x_i y_i\)

Per vettori riga vale il prodotto matriciale: \(x\kern 0em_{\small (1\times n)}y^T\kern 0em_{\small (n\times1)}\)
Per vettori colonna vale il prodotto matriciale: \(x^T\kern 0em_{\small (1\times n)}y\kern 0em_{\small (n\times1)}\)

Il prodotto scalare tra vettori è nullo se e solo se i due vettori sono perpendicolari.

Esempio prodotto due vettori in forma matriciale (≡ prodotto matriciale Riga × Colonna)
\(\begin{pmatrix} y_1 & y_2 & y_3 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = x_1 y_1 + x_2 y_2 + x_3 y_3\)

Prodotto vettoriale

Il prodotto vettoriale tra due vettori è un vettore.
\(\vec{x} \times \vec{y}=\vec{z}\)

Somma matriciale

\([A+B]_{ij}=[A]_{ij}+[B]_{ij}\)

Prodotto matriciale

\([AB]_{ik}=\sum_{j=1}^n [A]_{ij} [B]_{jk}\) con \(i=1,...,l\) e \(k=1,...,m\)
Riga × Colonna

\[\begin{pmatrix} \mathbf{\color{ForestGreen}{a_{11}}} & \mathbf{\color{ForestGreen}{a_{12}}} & \mathbf{\color{ForestGreen}{a_{13}}} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{pmatrix} \begin{pmatrix} \mathbf{\color{ForestGreen}{b_{11}}} & b_{12} \\ \mathbf{\color{ForestGreen}{b_{21}}} & b_{22} \\ \mathbf{\color{ForestGreen}{b_{31}}} & b_{32} \end{pmatrix} = \begin{pmatrix} \mathbf{\color{ForestGreen}{a_{11}b_{11}+a_{12}b_{21}+a_{13}b_{31}}} & ... \\ ... & ... \\ ... & ... \end{pmatrix}\]

Operazioni e proprietà utili delle matrici

  • \((A^T)^T\) \(=A\)
  • \((AB)^T\) \(=A^T B^T\)
  • \((A+B)^T\) \(=A^T+B^T\)
  • \((A^{-1})^T\) \(=(A^T)^{-1}\)
    1. \(A^{-1}A\) \(=I\)
    2. \((A^{-1}A)^T=I^T\) \(=I\)
    3. dato che \((AB)^T=B^TA^T\)
    4. \(A^T(A^{-1})^T\) \(=I\)
    5. dato che \(A\) è invertibile allora anche \(A^T\) lo è
    6. \((A^T)^{-1}A^T(A^{-1})^T\) \(=(A^T)^{-1}I\)
    7. \((A^{-1})^T\) \(=(A^T)^{-1}\)
  • \([(X^TX)^{-1}X^T]^T=X[(X^TX)^{-1}]^T=X[(X^TX)^T]^{-1}=X[(X)^T(X^T)^T]^{-1}\) \(=X(X^TX)^{-1}\)
  • Se \(Q\) matrice ortogonale, allora \(Q^TQ=I\) quindi \(Q^T=Q^{-1}\)
  • \((AB)^{-1}\) \(=B^{-1}A^{-1}\)
  • \(\mbox{det}(A^T)\) \(=\mbox{det}(A)\)
  • \(\mbox{det}(AB)\) \(=\mbox{det}(A)\cdot \mbox{det}(B)\)
  • \(\mbox{det}(I)=1\Rightarrow \mbox{det}(A^{-1})\) \(=\frac{1}{\mbox{det}(A)}\)
  • Pseudo-inversa di una matrice non quadrata: \(A^+=A^T(AA^T)^{-1}\)
  • Traccia di una matrice: \(\mbox{tr}(A)=\sum_i A_{ii}=\sum_i \lambda_i\) con \(\lambda_i\) i-esimo autovalore

Decomposizioni matriciali

Elenco delle più diffuse

Decomposizione spettrale

Data una matrice \(A\kern 0em_{\small (n\times n)}\) reale simmetrica quadrata (es. matrice delle varianze e covarianze), si può esprimere come
\(A=\sum_{i=1}^n \lambda_i v_i v_i^T = V \Lambda V^T = V \Lambda V^{-1}\)
con \(\lambda_i\) è l’autovalore dell’autovettore \(v_i\), \(V\) matrice ortogonale degli autovettori e \(\Lambda\) la corrispondente matrice diagonale degli autovalori di \(A\).

Decomposizione a valori singolari (SVD)

Data una matrice \(A\kern 0em_{\small (n\times p)}\), si può esprimere come
\(A=U\kern 0em_{\small (n\times n)}D\kern 0em_{\small (n\times p)}V^T\kern 0em_{\small (p\times n)}\)
con \(U^TU=V^T V=I_n\) matrici unitarie e \(D\) diagonale non-negativa.
I valori singolari sono ordinati, in alto a sinistra si trova l’elemento di \(D\) che contiene il più grande valore singolare.

Geometria analitica

Distanza da un punto dall’iperpiano

Generico iperpiano in \(\mathbb{R}^p\) di equazione \(a+b^T x=0\) con \(x\in \mathbb{R}^p\)
identificato dai coefficienti \(a\in \mathbb{R}\) e \(b\in \mathbb{R}\), si ha che:

  • per ogni punto \(x_i\) che giace sull’iperpiano \(\Rightarrow b^T x_i=-a\)
  • per ogni coppia di punti \(x_1\) e \(x_2\) che giacciono sull’iperpiano \(\Rightarrow b^T (x_1-x_2)=0\)
  • quindi il vettore \(b\) è ortogonale all’iperpiano
  • \(b^*=b/{\vert\vert b \vert\vert}\) vettore di norma unitaria
  • la distanza da un generico punto \(X\in \mathbb{R}^p\) dall’iperpiano, cioè la distanza tra \(X\) e \(x_0\), con \(x_0\) proiezione ortogonale di \(X\) che giace sull’iperpiano (quindi \(b^T x_0=-a\)), è data da:
    \(\vert\vert X - x_0 \vert\vert = {b^*}^T(X-x_0)=\frac{1}{\vert\vert b \vert\vert} (b^T X+a)\)

Utili

Risorse