diff --git a/.obsidian/plugins/nldates-obsidian/data.json b/.obsidian/plugins/nldates-obsidian/data.json index 86ebfa07..810d6da7 100644 --- a/.obsidian/plugins/nldates-obsidian/data.json +++ b/.obsidian/plugins/nldates-obsidian/data.json @@ -1,7 +1,7 @@ { "autosuggestToggleLink": true, - "autocompleteTriggerPhrase": "-", - "isAutosuggestEnabled": true, + "autocompleteTriggerPhrase": "", + "isAutosuggestEnabled": false, "format": "YYYY-MM-DD", "timeFormat": "HH:mm", "separator": " ", diff --git a/S2 LOGOS . analyse exploratoire de données.md b/S2 LOGOS . analyse exploratoire de données.md index f6c8aef7..9fb8609a 100644 --- a/S2 LOGOS . analyse exploratoire de données.md +++ b/S2 LOGOS . analyse exploratoire de données.md @@ -27,7 +27,24 @@ depth: [0, 0] # Correlations -On considère 2 colonnes numériques : $(x_1, \dots, x_{n})$ et $(y_1, \dots, y_{n})$ +On considère 2 colonnes numériques : $(x_1, \dots, x_{n})$ et $(y_1, \dots, y_{n})$ $z = \left[ \begin{array}{cc} x_1 & y_1 \\ \vdots&\vdots \\ x_{n} & y_{n} \end{array} \right]$ + - ? y a-t-il une "association" entre les $x_{i}$ et les $y_{i}$ + +## Cas le plus simple : colinéarité +Quand $\begin{pmatrix}x_1\\ \vdots\\ x_{n}\end{pmatrix}$ et $\begin{pmatrix}y_1\\ \vdots\\ y_{n}\end{pmatrix}$ sont [[vecteurs colinéaires|colinéaires]] +autrement dit : $\exists a, b,\quad y_{i} = ax_{i} + b$ pour tout $i$ + +### Quand il n'y a pas colinéarité parfaite +On cherchera $(a, b)$ qui minimisent $\begin{pmatrix} a \\ b\end{pmatrix} \mapsto \sum\limits_{i=1}^{n}(y_{i} - (ax_{i}+b))^{2}$ + - "**critère des moindres carrés ordinaires**" (*ordinary least squares*, OLS) + - pour obtenir la **meilleure approximation affine** des $y_{i}$ à partir des $x_{i}$ + +La recherche de $\begin{pmatrix}a \\ b\end{pmatrix}$ se fait par régression linéaire simple de $\begin{pmatrix}y_1 \\ y_{n}\end{pmatrix}$ par rapport à $\begin{pmatrix}x_1 \\ x_{n}\end{pmatrix}$ + + - def **[[variance|variances]] empiriques** : $\sigma _{x}^{2} = \frac{1}{n} \sum\limits_{i = 1}^{n} (x_{i} - \overline{X})^{2}$ et $\sigma _{y}^{2} = \frac{1}{n}\sum\limits_{i = 1}^{n} (y_{i} - \overline{Y})^{2}$ + - def **[[covariance]]** : $\operatorname{Cov}(X, Y) = \frac{1}{n} \sum\limits_{i=1}^{n} (x_{i} - \overline{X})(y_{i} - \overline{Y}) = \frac{1}{n}\sum\limits_{i = 1}^{n}x_{i}y_{i} -\overline{X} \cdot\overline{Y} = \overline{XY} - \overline{X}\cdot \overline{Y}$ + - def **[[coefficient de correlation linéaire de Pearson]]** : $\displaystyle\rho = \frac{\operatorname{Cov}(X, Y)}{\sigma _{x} \sigma _{y}}$ + + -$z = \left[ \begin{array} x_1 & \end{array} \right]$ diff --git a/coefficient de correlation linéaire de Pearson.md b/coefficient de correlation linéaire de Pearson.md new file mode 100644 index 00000000..dcf19db7 --- /dev/null +++ b/coefficient de correlation linéaire de Pearson.md @@ -0,0 +1,19 @@ +--- +up: + - "[[covariance]]" +tags: + - s/maths/statistiques +aliases: + - coefficient de correlation linéaire +--- + + +> [!definition] [[coefficient de correlation linéaire de Pearson]] +> Soient $X$ et $Y$ deux [[variable aléatoire|variables aléatoires]] (ou colonnes numériques) +> Soient $\sigma _{X}$ et $\sigma _{Y}$ les +^definition + +# Propriétés + +# Exemples + diff --git a/vecteurs colinéaires.md b/vecteurs colinéaires.md index 215dee03..3c9ab586 100644 --- a/vecteurs colinéaires.md +++ b/vecteurs colinéaires.md @@ -1,5 +1,7 @@ --- -alias: "colinéaires" +alias: colinéaires +aliases: + - colinéaires --- #s/maths/algèbre #s/maths/géométrie #not-done