--- aliases: - indépendants up: - "[[probabilité conditionnelle]]" tags: - s/maths/probabilités --- > [!definition] Définition > Dans un [[espace probabilisé]] $(\Omega, \mathcal{A}, \mathbb{P})$ > On dit que $A$ et $B$ sont indépendants si : > $\boxed{\mathbb{P}(A \cap B) = \mathbb{P}(A) \mathbb{P}(B)}$ ^definition > [!definition] Variables aléatoires indépendantes > $X$ et $Y$ des [[variable aléatoire réelle|variables aléatoires réelles]] sont **indépendantes** si : > $\forall B_1, B_2 \in \mathcal{B}(\mathbb{R}),\quad \underbrace{\mathbb{P}(X \in B_1) \wedge Y \in B_2}_{\mathbb{P}((X, Y) \in B_1 \times B_2)} = P(X \in B_1) \times \mathbb{P}(Y \in B_2)$ > Autrement dit : > $\forall B_1, B_2 \in \mathcal{B(\mathbb{R})},\quad \mathbb{P}_{(X, Y)}(B_1 \times B_2) = \mathbb{P}_{X}(B_1) \mathbb{P}_{Y}(B_2)$ > Ou bien $\mathbb{P}_{(X, Y)}(B_1 \times B_2) = P_{X} \otimes \mathbb{P}_{Y} (B_1 \times B_2)$ (notation de la [[mesure produit]]) # Propriétés > [!proposition]+ Définitions équivalentes > Soient $A, B \in \mathcal{A}$ avec $\mathbb{P}(A) > 0$ et $\mathbb{P}(B) > 0$ > On a équivalence entre les propositions suivantes : > - $A$ et $B$ sont indépendants > - $\mathbb{P}(A \cap B) = \mathbb{P}(A) \mathbb{P}(B)$ > - $\mathbb{P}(A \mid B) = \mathbb{P}(A)$ > - $\mathbb{P}(B | A) = \mathbb{P}(B)$ > > > [!démonstration]- Démonstration > > $\begin{align} \mathbb{P}(A | B) = \mathbb{P}(A) &\iff \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)} = \mathbb{P}(A) \\&\iff \mathbb{P}(A \cap B) = \mathbb{P}(A) \mathbb{P}(B) \\&\iff \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(A)} = \mathbb{P}(B) \\&\iff \mathbb{P}(B \mid A) = \mathbb{P}(B) \end{align}$ > [!proposition]+ > Si $A$ et $A$ sont indépendants on a : > $\mathbb{P}(A) = 0$ ou $\mathbb{P}(A) = 1$ > > > [!démonstration]- Démonstration > > $\begin{align} A \text{ et } A \text{ indépendants} &\iff \mathbb{P}(A \cap A) = \mathbb{P}(A)\mathbb{P}(A) \\&\iff \mathbb{P}(A) = \mathbb{P}(A)^{2} \\&\iff \mathbb{P}(A) = 0 \text{ ou } \mathbb{P}(A) = 1 \end{align}$ > [!proposition]+ Indépendance du complémentaire > Si $A$ et $B$ sont indépendants > Alors $A$ et $B^{\complement}$ sont indépendants > > > [!démonstration]- Démonstration > > Supposons $A$ et $B$ indépendants, on a alors : > > $\begin{align} \mathbb{P}(\underbrace{A \cap B^{\complement}}_{A \setminus B}) &= \mathbb{P}(A) - \mathbb{P}(A \cap B) \\&= \mathbb{P}(A) - \mathbb{P}(A)\mathbb{P}(B) \\&= \mathbb{P}(A) \left[ 1 - \mathbb{P}(B) \right] \\&= \mathbb{P}(A)\mathbb{P}(B^{\complement}) \end{align}$ > > > > d'où suit que $A$ et $B^{\complement}$ sont indépendants > > > [!proposition]+ Indépendance et mesure produit > Soit $X = (X_1, \dots, X_{d})$ un [[vecteur aléatoire]] > $X_1, \dots, X_{d}$ sont indépendantes si et seulement si : > $\mathbb{P}_{X} = \mathbb{P}_{X_1} \otimes \cdots \otimes \mathbb{P}_{X_{d}}$ > > --- > Cas des [[probabilité à densité|variables à densité]] : > > [!info] Notation > > si $f, g : \mathbb{R} \to \mathbb{R}$ sont deux applications, > > on note : > > $\begin{align} f \otimes g : \mathbb{R}^{2} &\to \mathbb{R} \\ (x, y) &\mapsto f(x)g(y) \end{align}$ > > > [!proposition]+ > > Si $X_1, \dots, X_{d}$ sont des variables aléatoires **indépendantes** de densité $f_{X_1}, \dots, f_{X_{d}}$ > > alors $X = (X_1, \dots, X_{d})$ admet une densité donnée par $f_{X} = f_{X_1} \otimes \cdots \otimes f_{X_{d}}$ > > - ! La réciproque n'est pas vraie > > > > > [!démonstration]- Démonstration > > > Pour $d = 2$ > > > On suppose $X_1, X_2$ indépendantes > > > Soit $B_1\times B_2 \in \mathcal{B}(\mathbb{R}^{2})$ > > > $\begin{align} \mathbb{P}(X \in B_1 \times B_2) &= \mathbb{P}(X_1 \in B_1)\mathbb{P}(X_2 \in B_2) & \text{par indépendance} \\&= \int_{B_1} \underbrace{f_{X_1}(x_1)}_{\geq 0} \, dx_1 \int_{B_2} \underbrace{f_{X_3} (x_2)}_{\geq 0} \, dx_2 \\&= \int_{B_1 \times B_2} f_{X_1}(x_1) f_{X_2}(x_2) \, d\lambda_2(x_1, x_2) & \text{par le th. de Fubini positif} \end{align}$ > > > D'où $X$ admet pour densité : > > > $f_{X}(x_1, x_2) = f_{X_1} \otimes f_{X_2}$ > > > > > > [!proposition]+ > > S'il existe des densités de probabilité $f_1, \dots, f_{d}$ tellesq ue $X$ admet pour densité $f_{X} = f_1 \otimes \cdots \otimes f_{d}$ > > Alors $X_1, \dots, X_{d}$ sont indépendantes, et pour tout $i \in [\![1, d]\!]$ $X_{i}$ a pour densité $f_{i}$ > > - ! Ce n'est pas exactement la réciproque de l'énoncé précédent > > > > > [!démonstration]- Démonstration > > > dans le cas $d = 2$ > > > Si $f_{X} = f_1 \otimes f_2$ où $f_1, f_2$ sont des densités de probabilité > > > Soit $B_1, B_2 \in \mathcal{B}(\mathbb{R})$ > > > $\begin{align} \mathbb{P}(X_1 \in B_1 \wedge X_2 \in B_2) &= \mathbb{P}(X \in B_1 \times B_2) \\&= \int_{B_1 \times B_2} \underbrace{f_1(x_1)f_2(x_2)}_{\geq 0} \, d\lambda_2(x_1, x_2) \\&= \int_{B_1}f_1(x_1) \, dx_1 \int_{B_2}f_2(x_2) \, dx_2 & \text{par Fubini positif} \end{align}$ > > > > > > Or en prenant $B_2 = \mathbb{R}$ on obtient $\mathbb{P}(X_1 \in B_1) = \int_{B_1}f_1(x_1) \, dx_1$ > > > et en prenant $B_1 = \mathbb{R}$, on a $\mathbb{P}(X_2 \in B_2) = \int_{B_2} f_2(x_2) \, dx_2$ > > > d'où : > > > - $X_1$ est de densité $f_1$ > > > - $X_2$ est de densité $f_2$ > > > - $X_1$ et $X_2$ sont indépendantes > # Exemples ![[événements indépendants 2025-01-20 10.44.04.excalidraw|900]] ![[événements indépendants 2025-01-20 10.51.31.excalidraw|900]]