cours/différentielle.md
Oscar Plaisant f91c506a9e update
2025-03-16 18:05:45 +01:00

6.2 KiB

aliases, up, tags
aliases up tags
calcul différentiel
s/maths/analyse

[!definition] Définition Soient (E, \|\cdot\|_{E}) et (F, \|\cdot\|_{F}) deux espace vectoriel normé de dimension d'un espace vectoriel finie Soit \Omega un partie ouverte d'un espace métrique de E Soit x \in \Omega Soit f : \Omega \to F On dit que f est différentiable en x s'il existe une application linéaire L_{x} : E \to F telle que f(x + h) = f(x) + L_{x}(h) + \underset{h \to 0}{o}(h) Si une telle application linéaire existe, elle est unique, on l'appelle différentielle de f au point $x$ et on note : L_{x} = df(x)

[!démonstration]- Démonstration de l'unicité On suppose qu'il existe deux applications linéaires L_1 et L_2 telles que f(x+h) = f(x)+L_1(h) + o(h) = f(x)+L_2(h) + o(h) On a donc L_1(h) - L_2 (h) = o(h) - o(h) = o(h) = \|h\| \varepsilon(h) avec \varepsilon(h) \xrightarrow{h \to 0} 0 On fixe h \in E. Alors, pour t > 0 suffisamment petit on a alors : L_1(th) - L_2(\mathrm{th}) = \|t h\| \varepsilon(t h) avec \varepsilon(t h) \xrightarrow{h \to 0} 0 et comme \|t h\| = t \|h\|, on obtient : L_1(h) - L_2(h) = \|h\| \varepsilon(t h) \xrightarrow{t \to 0} 0 donc L_1(h) - L_2(h) = 0 c'est à dire L_1(h) = L_2(h) ^definition

title: "Sous-notes"
type: tree
collapse: false
show-attributes: [field]
field-groups: [downs]
depth: [0, 0]

Propriétés

[!proposition]+ équivalence entre dérivabilité et différentiabilité sur \mathbb{R} Si f : ]a, b[ \to \mathbb{R} est dérivable en x \in ]a, b[, alors f est différentiable en x et df(x) : h \mapsto h f'(x) Réciproquement, si f : ]a, b[ \to \mathbb{R} est différentiable en x \in ]a, b[ alors elle est dérivable en x est f'(x) = df(x)(1)

[!proposition]+ combinaison linéaire de fonctions différentiables Si f: \Omega \to F et g: \Omega \to F sont deux fonction différentiables en x \in \Omega alors \forall \alpha, \beta \in \mathbb{R} la fonction \alpha f + \beta g : \Omega \to F est différentiable en x, et : \mathrm{d}(\alpha f + \beta g)(x) = \alpha \mathrm{d}f(x) + \beta \mathrm{d}g(x)

[!démonstration]- Démonstration $$\begin{align} (\alpha f + \beta g)(x+h) &= \alpha f(x+h) + \beta g(x+h) \ &= \alpha (f(x) + \mathrm{d}f(x) + o(h)) + \beta (g(x) + \mathrm{d}g(x) + o(h)) & \text{car } f \text{ et } g \text{ sont différentiables}\ &= \alpha f(x) + \beta g(x) + \alpha \mathrm{d}f(x)(h) + \beta \mathrm{d}g(x)(h) + o(h) \ &= (\alpha f + \beta g)(x) + (\alpha \mathrm{d}f(x) + \beta \mathrm{d}g(x))(h) + o(h) \end{align}$$

[!proposition]+ produit de fonctions différentiables Si f: \Omega \to \mathbb{R} et g: \Omega \to \mathbb{R} sont deux fonction différentiables en x \in \Omega alors fg : \Omega \to \mathbb{R} est différentiable en x et \mathrm{d}(fg)(x) = g(x)\mathrm{d}f(x) + f(x)\mathrm{d}g(x)

[!démonstration]- Démonstration $$\begin{align} (fg)(x+h) &= f(x+h) g(x+h) \ &= (f(x) + \mathrm{d}f(x)(h) +o(h)) (g(x) +\mathrm{d}g(x)(h) + o(h)) \ &= f(x)g(x) + \underbrace{g(x)\mathrm{d}f(x)(h)+f(x)\mathrm{d}g(x)(h)}{ \in \mathscr{L}(E, \mathbb{R})} + \underbrace{\mathrm{d}f(x)(h)\mathrm{d}g(x)(h) + o(h)}{=o(h)} \end{align}$$ Ensuite, soit L : E \to F une application linéaire continue, \exists C > 0,\quad \forall h \in E,\quad \|L(h)\|_{F} \leq C \cdot \|h\|_{E}. Le plus petit C qui convient s'appelle la norme triple de L, notée |\!|\!|L|\!|\!|. On a alors : $$\begin{align} \frac{|\mathrm{d}f(x)(h)\mathrm{d}g(x)(h)|}{|h|} &= \frac{1}{|h|} \left( |\mathrm{d}f(x)(h)| \cdot |\mathrm{d}g(x)(h)| \right) \ &\leq \frac{1}{|h|} (|!|!|\mathrm{d}f(x)|!|!| |h| \cdot |!|!|\mathrm{d}g(x)|!|!| |h|) \ &\leq |!|!|\mathrm{d}f(x)|!|!| \cdot |!|!|\mathrm{d}g(x)|!|!| |h| \xrightarrow{h \to 0} 0 \end{align}$$ donc \mathrm{d}f(x)(h) \mathrm{d}g(x)(h) = o(h)

[!proposition]+ différentielle de l'inverse Si f : \Omega \to ]0, +\infty[ est différentiable en x_0 \in \Omega alors l'application : \begin{align} \frac{1}{f} : \Omega &\to ]0, +\infty[ \\ x &\mapsto \frac{1}{f(x)} \end{align} est différentiable en x_0, et : \mathrm{d}\left( \frac{1}{f} \right)(x_0)= -\dfrac{1}{f^{2}(x_0)} \times \mathrm{d}f(x_0)

[!démonstration]- Démonstration Si on définit \begin{align} \psi : ]0, +\infty[ & \to \mathbb{R} \\ y &\mapsto \psi(y) = \frac{1}{y} \end{align} alors \frac{1}{f} = \psi \circ f Or, \psi est fonction différentiable (car fonction dérivable) sur ]0; +\infty[ Ainsi : \mathrm{d}\left( \frac{1}{f} \right)(x_0) = \mathrm{d}\psi(f(x_0))\circ \mathrm{d}f(x_0) Or, \forall k \in \mathbb{R},\quad \forall y \in \mathbb{R},\quad \mathrm{d}\psi(y)k = \psi'(y)k = -\frac{k}{y^{2}} donc \forall h \in E,\quad \mathrm{d}\left( \frac{1}{f} \right)(x_0)(h) = \mathrm{d}\psi(\underbrace{f(x_0)}_{y}) \cdot \underbrace{(\mathrm{df(x_0)(h)})}_{k} = \psi'(f(x_0)) \times \mathrm{d}f(x_0)(h) = - \frac{\mathrm{d}f(x_0)(h)}{(f(x_0))^{2}} Autrement dit : \underbrace{\mathrm{d}\left( \frac{1}{f} \right)(x_0)}_{\in\mathcal{L}(E, \mathbb{R})} = \underbrace{-\frac{1}{f^{2}(x_0)}}_{\in \mathbb{R}} \times \underbrace{\mathrm{d}f(x_0)}_{\in \mathcal{L}(E, \mathbb{R})}

[!proposition]+ différentielle d'une composée Soient E, F, G des espace vectoriel Soient \Omega un ouvert de E et \Omega' un partie ouverte d'un espace métrique de F Soient f : \Omega \subset E \to F et g : \Omega' \subset F \to G Si f(\Omega) \subset \Omega' alors f est fonction différentiable en x \in \Omega et g est fonction différentiable en f(x) et alors g \circ f est fonction différentiable et : \boxed{\mathrm{d}(g \circ f)(x) = \mathrm{d}g(f(x)) \circ \mathrm{d}f(x)}

[!démonstration]- Démonstration

^differentielle-d-une-composee

Exemples