Identifier les directions principales
Chercher \(\boldsymbol{u_1}\) tel que \(I_{u_1^\perp}\) soit maximale
En se plaçant dans la nouvelle base, posons \(\boldsymbol{v_1} = P^\top \boldsymbol{u_1},\) \(\lVert\boldsymbol{v_1}\rVert=1\):
Maximiser \(\boldsymbol{v_1}^\top D \boldsymbol{v_1} = \sum_{k=1}^p v_{1p}^2 \lambda_p\), sous la contrainte \(\sum_{k=1}^p v_{1p}^2=1\)
\[\boldsymbol{v_1} = (1, 0, \ldots, 0)^\top, \quad \boldsymbol{u_1} = P \boldsymbol{v_1} = \begin{pmatrix} P_{11} \\ \vdots \\P_{p1} \end{pmatrix}.\]
\(\boldsymbol{u_1}\) est le premier vecteur propre de \(V = X^\top W X\). (la matrice de covariance).
Chercher \(\boldsymbol{u_2}\)
On cherche \(\boldsymbol{u_2}\perp \boldsymbol{u_1}\), tel que \(\boldsymbol{u_2}^\top X^\top W X \boldsymbol{u_2}\) soit maximale.
Posons \(\boldsymbol{v_2} = P^\top \boldsymbol{u_2},\) \(\lVert\boldsymbol{v_2}\rVert=1\): Maximiser \(\boldsymbol{v_2}^\top D \boldsymbol{v_2} = \sum_{k=1}^p v_{2p}^2 \lambda_p\), sous la contrainte \(\sum_{k=1}^p v_{1p}^2=1\) et \(v_{1p}=0\) pour assurer l’orthogonalité avec \(\boldsymbol{v_1}\)
\[\boldsymbol{v_2} = (0, 1, \ldots, 0)^\top, \quad \boldsymbol{u_2} = P \boldsymbol{v_2} = \begin{pmatrix} P_{12} \\ \vdots \\U_{p2} \end{pmatrix}.\]
\(\boldsymbol{u_2}\) est le deuxième vecteur propre de de \(X^\top W X\).
Choix de la distance
L’ACP normée (ACP sur les données centrées et réduites) peut-être envisagée comme une ACP avec une autre distance que la distance euclidienne.
Une autre manière de présenter la même approche est de dire qu’on change la métrique utilisée
Une métrique \(M\) permet de définir une distance entre les observations (ainsi, M est une matrice de \({\mathbb{R}}^p\times{\mathbb{R}}^p\) symétrique, définie et positive).
Calcul de distance
Soient \(\boldsymbol{x}_1 \in {\mathbb{R}}^p\) et \(\boldsymbol{x}_é\in{\mathbb{R}}^p\), la distance entre \(\boldsymbol{x}_1\) et \(\boldsymbol{x}_2\)pour la métrique \(M\) est \[d_M(\boldsymbol{x}_1, \boldsymbol{x}_2)^2= \lVert\boldsymbol{x}_1 - \boldsymbol{x}_2\rVert_M^2 = (\boldsymbol{x}_1 - \boldsymbol{x}_2)^\top M (\boldsymbol{x}_1 - \boldsymbol{x}_2).\]
Si \(M= I_p\),
\[d_M(\boldsymbol{x}_1, \boldsymbol{x}_2)^2= \lVert\boldsymbol{x}_1 - \boldsymbol{x}_2\rVert_M^2 = (\boldsymbol{x}_1 - \boldsymbol{x}_2)^\top I_p (\boldsymbol{x}_1 - \boldsymbol{x}_2) =\sum_{k=1}^p (x_{1k}-x_{2k})^2.\]
Si \(M\) est diagonale est \(M_{ii}= 1/ s_i^2\) où \(s_i^2\) est la variance de la variable \(i\),
\[d_M(\boldsymbol{x}_1, \boldsymbol{x}_2)^2= (\boldsymbol{x}_1 - \boldsymbol{x}_2)^\top M (\boldsymbol{x}_1 - \boldsymbol{x}_2) =\sum_{k=1}^p \frac{(x_{1k}-x_{2k})^2}{s_k^2}=\sum_{k=1}^p \left ( \frac{x_{1k}}{s_k}-\frac{x_{2k}}{s_k} \right)^2.\]
Dans une ACP normée on s’intéresse donc aux valeurs propres de la matrice \(M^{1/2} X^\top W X M^{1/2},\) il s’agit de la matrice de corrélation.
On note \(V\) la matrice de covariance et on va donc travailler sur \(M^{1/2} V M^{1/2}\)
Identifier les directions principales pour une métrique quelconque \(M\)
Maximiser \(I_{u_1^\perp}\)
sous la contrainte \(\lVert\boldsymbol{u_1}\rVert\) \[\begin{align}
I_{u_1^\perp} & = \frac{1}{n}\lVert X \boldsymbol{u_1}\rVert^2_M \\
& = \frac{1}{n} (X \boldsymbol{u_1})^\top M (X \boldsymbol{u_1})\\
& = \boldsymbol{u_1}^\top M^{1/2} \left (\frac{1}{n} X^\top X\right) M^{1/2} \boldsymbol{u_1}
\end{align}\]
D’apères ce qui précède \(\boldsymbol{u_1}\) est le premier vecteur propre de \(M^{1/2} V M^{1/2}.\)
Le changement de métrique a un impact sur la matrice à diagonaliser mais pas sur la logique de construction.